Dépalettisation de cartons à l’unité guidée par vision
Ce tutoriel présente la manière de déployer une application de dépalettisation de cartons guidée par vision 3D en utilisant le modèle d’application « Dépalettisation de cartons à l’unité » de la bibliothèque de solutions.
Scénario d’application : le système de vision 3D guide le robot pour saisir des cartons à l’unité sur la palette et les déposer sur la ligne de convoyage.
Aperçu de l’application
-
Objet cible: cartons à l’unité.
-
Cette application utilise une caméra réelle pour capturer des images des cartons afin d’identifier l’objet cible. Si vous souhaitez utiliser une caméra virtuelle, veuillez cliquez ici pour télécharger les données d’image des cartons.
-
Cette application utilise l’apprentissage profond pour assister la reconnaissance. Un package de modèles d’apprentissage profond est déjà intégré dans le répertoire
resource/dl_modelde cette solution.
-
-
Caméra: caméra Mech-Eye DEEP-GL, montée en mode œil-vers-main (ETH).
-
Plaque de calibration: il est recommandé d’utiliser la plaque de calibration CGB-050.
-
Robot: un robot six axes. Cette application utilise ABB_IRB6700_150_3_20 à titre d’exemple.
-
IPC: Mech-Mind IPC STD
-
Logiciels: Mech-Vision & Mech-Viz 2.1.2, Mech-Eye Viewer 2.5.4
-
Solution de communication: communication Standard Interface, dans laquelle le système de vision fournit la trajectoire planifiée par le logiciel Mech-Viz.
-
Outil terminal: grippeur à vide
Pour cette application, vous devez préparer un fichier modèle au format .obj pour le grippeur à vide, qui sera utilisé pour la détection de collisions lors de la planification de trajectoire. Vous pouvez le télécharger en cliquant ici.
-
Objet de scène: modèle d’objet de scène
Cette application nécessite un fichier de modèle de scène au format .stl, qui sert à simuler une scène réelle et est utilisé pour la détection de collisions lors de la planification de trajectoire. Vous pouvez le télécharger en cliquant ici.
|
Si vous utilisez un modèle de caméra, une marque de robot ou un objet cible différent de ceux de cet exemple, veuillez vous référer aux informations de référence fournies dans les étapes correspondantes pour effectuer les ajustements. |
Déployer une application robotique guidée par vision
Le déploiement de l’application robotique guidée par vision peut être divisé en six phases, comme indiqué sur la figure ci-dessous :
Le tableau suivant décrit les six phases du déploiement d’une application robotique guidée par vision.
| N° | Phase | Description |
|---|---|---|
1 |
Conception de la solution de vision |
Sélectionnez le modèle matériel selon les exigences du projet, déterminez le mode de montage, la méthode de traitement de vision, etc. (Ce tutoriel propose une solution de vision correspondante, vous n’avez pas besoin de la concevoir vous-même.) |
2 |
Installez et connectez le matériel du système de vision Mech-Mind. |
|
3 |
Chargez le programme Standard Interface du robot et les fichiers de configuration dans le système du robot afin d’établir la communication Standard Interface entre le système de vision Mech-Mind et le robot. |
|
4 |
Effectuez la calibration œil-main automatique dans une configuration eye-to-hand afin d’établir la relation de transformation entre le repère de la caméra et le repère du robot. |
|
5 |
Utilisez le modèle d’application « Single-Case Depalletizing » dans la Bibliothèque de solutions Mech-Vision et planifiez la trajectoire du robot avec l’étape « Planification de trajectoire ». |
|
6 |
Sur la base du programme d’exemple du robot MM_S9_Viz_RunInAdvance, écrivez un programme de prise et dépose adapté aux applications sur site. |
Ensuite, suivez les sections suivantes pour compléter le déploiement de l’application.