Déploiement de la solution
Cette section présente le déploiement de la solution Petites pièces métalliques dans un bac profond. Le processus global est montré dans la figure ci-dessous.
Configuration matérielle du système de vision
La configuration matérielle du système de vision consiste à intégrer le matériel (caméra et PC industriel) dans l’environnement réel pour soutenir le fonctionnement normal du système de vision.
À cette étape, vous devez installer et configurer le matériel du système de vision. Pour plus de détails, consultez Configuration matérielle du système de vision.
Configuration de la communication avec le robot
Avant de configurer la communication du robot, il est nécessaire d’obtenir d’abord la solution. Cliquez ici pour savoir comment obtenir la solution.
-
Ouvrez Mech-Vision.
-
Dans l’interface d’accueil de Mech-Vision, cliquez sur Créer depuis la bibliothèque de solutions pour ouvrir la Bibliothèque de solutions.
-
Entrez dans la catégorie Cas typiques de la Bibliothèque de solutions, cliquez sur l’icône
en haut à droite pour obtenir plus de ressources, puis cliquez sur le bouton Confirmer dans la fenêtre contextuelle. -
Après avoir acquis les ressources de la solution, sélectionnez la solution Petites pièces métalliques dans un bac profond sous la catégorie Préhension de pièces empilées aléatoirement, renseignez le Nom de la solution et le Chemin en bas, puis cliquez sur le bouton Créer. Ensuite, cliquez sur le bouton Confirmer dans la fenêtre contextuelle pour télécharger la solution Petites pièces métalliques dans un bac profond.
Une fois la solution téléchargée, elle s’ouvrira automatiquement dans Mech-Vision.
Avant de déployer une solution de vision, vous devez configurer la communication entre le Mech-Mind Vision System et l’interface robot (robot, PLC ou ordinateur hôte).
La solution Petites pièces métalliques dans un bac profond utilise la communication Interface standard. Pour des instructions détaillées, veuillez vous référer à Configuration de la communication Interface standard.
Calibration main-oeil
La calibration main-oeil établit la relation de transformation entre les repères de la caméra et du robot. Grâce à cette relation, la pose de l’objet déterminée par le système de vision peut être convertie dans le repère du robot, ce qui guide le robot pour effectuer ses tâches.
Veuillez consulter Guide de calibration main-oeil du robot et compléter la calibration main-oeil.
|
Chaque fois que la caméra est montée, ou que la position relative de la caméra et du robot change après la calibration, il est nécessaire d’effectuer à nouveau la calibration main-oeil. |
Configuration du projet de vision
Après avoir terminé la configuration de la communication et la calibration main-oeil, vous pouvez utiliser Mech-Vision pour configurer le projet de vision.
Cette solution se compose de deux projets : Petites pièces métalliques dans un bac profond et Petites pièces métalliques sur la station de repositionnement.
Le projet Petites pièces métalliques dans un bac profond est utilisé pour reconnaître et sortir les poses des petites pièces métalliques dans des bacs profonds.
Le projet Petites pièces métalliques sur la station de repositionnement est utilisé pour reconnaître et sortir les poses des petites pièces métalliques sur la station de repositionnement.
Les sections suivantes présentent respectivement les deux projets.
Petites pièces métalliques dans un bac profond
Le processus de configuration de ce projet de vision est montré dans la figure ci-dessous.
Se connecter à la caméra et capturer des images
-
Connectez-vous à la caméra.
Ouvrez Mech-Eye Viewer, trouvez la caméra à connecter et cliquez sur le bouton Connecter.
-
Ajustez les paramètres de la caméra.
Pour garantir que l’image 2D capturée est nette et que le nuage de points est intact, vous devez ajuster les paramètres de la caméra. Pour des instructions détaillées, veuillez consulter PRO M-GL Référence des paramètres de la caméra.
-
Capturez des images.
Après la connexion réussie de la caméra et la définition du groupe de paramètres, vous pouvez commencer à capturer les images de l’objet cible. Cliquez sur le bouton
en haut pour capturer une image unique. À ce moment, vous pouvez voir l’image 2D capturée et le nuage de points de l’objet cible. Assurez-vous que l’image 2D est claire, que le nuage de points est intact et que les arêtes sont nettes. L’image 2D et le nuage de points qualifiés de l’objet cible sont montrés respectivement à gauche et à droite dans la figure ci-dessous.
-
Connectez-vous à la caméra dans Mech-Vision.
Sélectionnez l’étape Capturer des images depuis la caméra, désactivez l’option Mode virtuel, et cliquez sur le bouton Sélectionner la caméra. Dans la fenêtre contextuelle, cliquez sur l’icône
à droite du numéro de série de la caméra. Lorsque l’icône devient
, la connexion à la caméra est réussie. Après la connexion, vous pouvez sélectionner le groupe de paramètres de calibration de la caméra dans la liste déroulante à droite.Maintenant que vous êtes connecté à la caméra réelle, vous n’avez pas besoin d’ajuster d’autres paramètres. Cliquez sur l’icône
sur l’étape Capturer des images depuis la caméra pour exécuter l’étape. S’il n’y a pas d’erreur, la caméra est connectée avec succès et les images peuvent être capturées correctement.
Reconnaissance 3D d’objet cible (pour reconnaître l’objet cible)
La solution Petites pièces métalliques dans un bac profond utilise l’étape Reconnaissance 3D d’objet cible pour reconnaître les objets cibles. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D d’objet cible pour ouvrir l’outil Reconnaissance 3D d’objet cible et configurer les paramètres concernés. Le processus de configuration global est montré dans la figure ci-dessous.
Prétraitement du nuage de points
Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres afin de rendre le nuage de points original plus clair, ce qui améliore la précision et l’efficacité de la reconnaissance.
-
Définir la zone de reconnaissance.
Définissez une zone de reconnaissance efficace pour exclure les facteurs d’interférence et améliorer l’efficacité de la reconnaissance.
-
Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour éliminer le bruit.
Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.
Reconnaître l’objet cible
Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour l’objet cible dans l’Éditeur d’objet cible, puis définir les paramètres d’appariement dans l’outil Reconnaissance 3D d’objet cible pour l’appariement du modèle de nuage de points.
-
Créez un modèle d’objet cible.
-
Créez un modèle de nuage de points et ajoutez le point de préhension. Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur, importez le fichier STL pour générer un modèle de nuage de points de l’objet cible.
-
-
Définir les paramètres liés à la reconnaissance d’objet.
-
Activez le Mode avancé sur le côté droit de Reconnaître l’objet cible.
-
Mode d’appariement : activez Définition automatique du mode d’appariement. Une fois activée, cette étape ajustera automatiquement les paramètres sous Paramètres d’appariement grossier et Paramètres d’appariement fin.
-
Paramètres d’appariement grossier : pour réduire le temps consommé par l’appariement, définissez le Mode performance sur Personnalisé et définissez le Nombre de points attendu du modèle sur 200 pour améliorer la vitesse de reconnaissance.
-
Paramètres de confiance : pour améliorer la précision de la reconnaissance, définissez la Stratégie de confiance sur Manuelle et ajustez les paramètres suivants :
-
Définissez la Stratégie de score combiné sur Prendre en compte surface et arêtes.
-
Définissez le Seuil de confiance de l’appariement de surface sur 0.5000 et le Seuil de confiance de l’appariement des arêtes sur 0.1000.
-
Dans la section des résultats de reconnaissance en bas de la fenêtre de visualisation sur le côté gauche, sélectionnez Résultat de sortie dans le premier menu déroulant. Les objets cibles dont les Confiance d’appariement de surface et Confiance d’appariement des arêtes dépassent les seuils définis seront conservés. Veuillez vérifier le résultat de reconnaissance en fonction de la situation réelle. S’il y a une fausse reconnaissance ou une situation de faux négatif, augmentez ou diminuez le seuil correspondant.
-
Lors de l’ajustement du paramètre Stratégie de confiance, vérifiez d’abord le résultat de la reconnaissance avec le paramètre défini sur Auto. Si le résultat de la reconnaissance ne répond toujours pas aux exigences du site après l’ajustement du Seuil de confiance, et qu’il y a une divergence significative entre les valeurs de Confiance d’appariement de surface et Confiance d’appariement des arêtes affichées en bas de la fenêtre de visualisation, il est recommandé de définir la Stratégie de confiance sur Manuelle et d’ajuster les paramètres concernés.
-
-
-
Sortie—Nombre maximal de sorties : minimisez le nombre de sorties pour réduire le temps d’appariement, tout en veillant à répondre aux exigences de planification de trajectoire. Dans cette solution, le paramètre Nombre maximal de sorties est défini sur 30.
-
Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.
Configurer les ports de l’étape
Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection des collisions.
Pour garantir que les objets puissent être correctement saisis par le robot, vous devez ajuster le point central de l’objet afin que son axe Z pointe vers le haut. Sous Sélectionner le port, sélectionnez Port(s) lié(s) au point central de l’objet. Pour reconnaître et localiser le bac, sélectionnez l’option Nuage de points prétraité. Enfin, cliquez sur le bouton Enregistrer. De nouveaux ports de sortie sont ajoutés à l’étape Reconnaissance 3D d’objet cible.
Reconnaissance 3D d’objet cible (pour reconnaître le bac)
Cette solution utilise l’étape Reconnaissance 3D d’objet cible pour reconnaître le bac. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D d’objet cible pour ouvrir l’outil Reconnaissance 3D d’objet cible et configurer les paramètres concernés. Le processus de configuration global est montré dans la figure ci-dessous.
Prétraitement du nuage de points
Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres afin de rendre le nuage de points original plus clair, ce qui améliore la précision et l’efficacité de la reconnaissance.
-
Définir la zone de reconnaissance.
Définissez une zone de reconnaissance efficace pour exclure les facteurs d’interférence et améliorer l’efficacité de la reconnaissance.
-
Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour éliminer le bruit.
Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.
Reconnaître l’objet cible
Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour le bac dans l’Éditeur d’objet cible, puis définir les paramètres d’appariement dans l’outil Reconnaissance 3D d’objet cible pour l’appariement du modèle de nuage de points.
-
Créez un modèle d’objet cible.
Créez un modèle de nuage de points et ajoutez le point de préhension. Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur, générer un modèle de nuage de points basé sur le nuage de points acquis par la caméra.
-
Définissez les paramètres liés à la reconnaissance d’objet.
-
Mode d’appariement : activez Définition automatique du mode d’appariement.
-
Paramètres de confiance : définissez le Seuil de confiance sur 0.8 pour supprimer les résultats d’appariement incorrects.
-
Sortie—Nombre maximal de sorties : comme l’objet cible est un bac, définissez le Nombre maximal de sorties sur 1.
-
Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.
Configurer les ports de l’étape
Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection des collisions.
Pour obtenir les informations de position du bac réel, sélectionnez l’option Port(s) lié(s) au point central de l’objet sous Sélectionner le port, et cliquez sur le bouton Enregistrer. De nouveaux ports de sortie sont ajoutés à l’étape Reconnaissance 3D d’objet cible.
Ajuster les poses (poses de l’objet cible)
Après avoir obtenu les poses de l’objet cible, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster les poses. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l’outil ajustement de pose pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.
-
Pour sortir les poses de l’objet cible dans le repère du robot, veuillez cocher la case Transformer la pose vers le repère du robot pour transformer les poses du repère de la caméra vers le repère du robot.
-
Ajuster les orientations de la pose.
Ajustez la pose de l’objet cible afin que son axe Z pointe vers le haut et que son axe Y pointe vers l’axe X négatif du repère du robot, ce qui permet au robot de saisir les objets cibles dans la direction spécifiée afin d’éviter les collisions.
-
Activez le Mode personnalisé pour Ajustement de la pose.
-
Définissez les paramètres de l’option Inverser la pose et minimiser l’angle entre l’axe d’inversion et la direction cible : définissez Axe à fixer sur Axe X, définissez Axe à inverser sur Axe Z, et définissez la direction cible sur Direction Z positive dans le repère du robot.
-
Définissez les paramètres de l’option Faire tourner la pose et minimiser l’angle entre l’axe de rotation et la direction cible : définissez Axe à fixer sur Axe Z, définissez Axe à inverser sur Axe Y, et définissez la direction cible sur Direction X négative dans le repère du robot.
-
-
Définissez le Type de tri sur Trier par valeur X/Y/Z de la pose, définissez la Valeur spécifiée de la pose sur Coordonnée Z, et triez les poses par ordre Décroissant.
-
Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence d’angle maximale sur 90°.
Définissez une ROI pour filtrer les poses en dehors de la ROI.
-
Paramètres généraux.
Définir le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D d’objet cible et connectez le port de sortie à l’étape Sortie.
Ajuster les poses (poses du bac)
Après avoir obtenu la pose du bac, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster la pose. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l’outil ajustement de pose pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.
-
Sélectionner la stratégie de traitement de pose.
Étant donné que l’objet cible est un bac profond contenant des objets cibles, veuillez sélectionner l’option Bac.
-
Pour sortir la pose du bac dans le repère du robot, veuillez cocher la case Transformer la pose vers le repère du robot pour transformer la pose du repère de la caméra vers le repère du robot.
-
Déplacer les poses le long d’une direction spécifiée.
Dans le Repère du robot, déplacez la pose du bac le long de la Direction Z positive et ajustez manuellement la Distance de translation à -245 mm pour déplacer la pose du bac de la surface supérieure du bac vers le centre du bac, ce qui sera utilisé plus tard pour mettre à jour le modèle de collision du bac dans Mech-Viz.
Distance de translation = -1 × 1/2 hauteur du bac -
Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence d’angle maximale sur 90°.
-
Paramètres généraux.
Définir le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D d’objet cible et connectez le port de sortie à l’étape Sortie.
Petites pièces métalliques sur la station de repositionnement
Le processus de configuration de ce projet de vision est montré dans la figure ci-dessous.
Se connecter à la caméra et capturer des images
-
Connectez-vous à la caméra.
Ouvrez Mech-Eye Viewer, trouvez la caméra à connecter et cliquez sur le bouton Connecter.
-
Ajustez les paramètres de la caméra.
Pour garantir que l’image 2D capturée est nette et que le nuage de points est intact, vous devez ajuster les paramètres de la caméra. Pour des instructions détaillées, veuillez consulter PRO S-GL Référence des paramètres de la caméra.
-
Capturez des images.
Après la connexion réussie de la caméra et la définition du groupe de paramètres, vous pouvez commencer à capturer les images de l’objet cible. Cliquez sur le bouton
en haut pour capturer une image unique. À ce moment, vous pouvez voir l’image 2D capturée et le nuage de points de l’objet cible. Assurez-vous que l’image 2D est claire, que le nuage de points est intact et que les arêtes sont nettes. L’image 2D et le nuage de points qualifiés de l’objet cible sont montrés respectivement à gauche et à droite dans la figure ci-dessous.
-
Connectez-vous à la caméra dans Mech-Vision.
Sélectionnez l’étape Capturer des images depuis la caméra, désactivez l’option Mode virtuel, et cliquez sur le bouton Sélectionner la caméra. Dans la fenêtre contextuelle, cliquez sur l’icône
à droite du numéro de série de la caméra. Lorsque l’icône devient
, la connexion à la caméra est réussie. Après la connexion, vous pouvez sélectionner le groupe de paramètres de calibration de la caméra dans la liste déroulante à droite.Maintenant que vous êtes connecté à la caméra réelle, vous n’avez pas besoin d’ajuster d’autres paramètres. Cliquez sur l’icône
sur l’étape Capturer des images depuis la caméra pour exécuter l’étape. S’il n’y a pas d’erreur, la caméra est connectée avec succès et les images peuvent être capturées correctement.
Reconnaissance 3D d’objet cible (pour reconnaître l’objet cible)
La solution Petites pièces métalliques dans un bac profond utilise l’étape Reconnaissance 3D d’objet cible pour reconnaître les objets cibles. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D d’objet cible pour ouvrir l’outil Reconnaissance 3D d’objet cible et configurer les paramètres concernés. Le processus de configuration global est montré dans la figure ci-dessous.
Prétraitement du nuage de points
Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres afin de rendre le nuage de points original plus clair, ce qui améliore la précision et l’efficacité de la reconnaissance.
-
Définir la zone de reconnaissance.
Définissez une zone de reconnaissance efficace pour exclure les facteurs d’interférence et améliorer l’efficacité de la reconnaissance.
-
Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour éliminer le bruit.
Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.
Reconnaître l’objet cible
Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour l’objet cible dans l’Éditeur d’objet cible, puis définir les paramètres d’appariement dans l’outil Reconnaissance 3D d’objet cible pour l’appariement du modèle de nuage de points.
-
Créez un modèle d’objet cible.
-
Créez un modèle de nuage de points et ajoutez le point de préhension. Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur, générer un modèle de nuage de points basé sur le nuage de points acquis par la caméra.
-
-
Définir les paramètres liés à la reconnaissance d’objet.
-
Activez le Mode avancé sur le côté droit de Reconnaître l’objet cible.
-
Mode d’appariement : activez Définition automatique du mode d’appariement. Une fois activée, cette étape ajustera automatiquement les paramètres sous Paramètres d’appariement grossier et Paramètres d’appariement fin.
-
Paramètres d’appariement grossier : pour réduire le temps consommé par l’appariement, définissez le Mode performance sur Haute vitesse afin d’améliorer la vitesse de reconnaissance.
-
Paramètres de confiance : pour améliorer la précision de la reconnaissance, définissez la Stratégie de confiance sur Manuelle et ajustez les paramètres suivants :
-
Définissez la Stratégie de score combiné sur Prendre en compte surface et arêtes.
-
Définissez le Seuil de confiance de l’appariement de surface sur 0.8000 et le Seuil de confiance de l’appariement des arêtes sur 0.4000.
-
-
Sortie—Nombre maximal de sorties : minimisez le nombre de sorties pour réduire le temps d’appariement, tout en veillant à répondre aux exigences de planification de trajectoire. Dans cette solution, le paramètre Nombre maximal de sorties est défini sur 10.
-
Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.
Configurer les ports de l’étape
Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection des collisions.
Pour garantir que les objets puissent être correctement saisis par le robot, vous devez ajuster le point central de l’objet afin que son axe Z pointe vers le haut. Sous Sélectionner le port, sélectionnez Port(s) lié(s) au point central de l’objet. Pour reconnaître et localiser le bac, sélectionnez l’option Nuage de points prétraité. Enfin, cliquez sur le bouton Enregistrer. De nouveaux ports de sortie sont ajoutés à l’étape Reconnaissance 3D d’objet cible.
Ajuster les poses
Après avoir obtenu les poses de l’objet cible, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster les poses. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l’outil ajustement de pose pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.
-
Pour sortir les poses de l’objet cible dans le repère du robot, veuillez cocher la case Transformer la pose vers le repère du robot pour transformer les poses du repère de la caméra vers le repère du robot.
-
Ajuster les orientations de la pose.
Définissez Orientation sur Alignement automatique et Scénario d’application sur Aligner les axes Z (Alimentation de machine) pour garantir que le robot saisit dans une direction spécifiée, évitant ainsi les collisions.
-
Définissez le Type de tri sur Trier par valeur X/Y/Z de la pose, définissez la Valeur spécifiée de la pose sur Coordonnée Z, et triez les poses par ordre Décroissant.
-
Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence d’angle maximale sur 90°.
Définissez une ROI pour filtrer les poses en dehors de la ROI.
-
Paramètres généraux.
Définir le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D d’objet cible et connectez le port de sortie à l’étape Sortie.
Planification de trajectoire
Une fois la reconnaissance de l’objet cible terminée, vous pouvez utiliser Mech-Viz pour planifier une trajectoire puis écrire un programme robot pour saisir les objets cibles.
Le processus de configuration de la planification de trajectoire est montré dans la figure ci-dessous.
Configurer les objets de scène
Les objets de scène sont introduits pour rapprocher la scène dans le logiciel du scénario réel, ce qui facilite la planification de trajectoire du robot. Pour des instructions détaillées, veuillez consulter Configurer les objets de scène.
Pour garantir une saisie efficace, les objets de scène doivent être configurés afin de représenter avec précision l’environnement opérationnel réel. Les objets de scène dans cette solution sont configurés comme indiqué ci-dessous.
Configurer l’outil du robot
L’outil de bout doit être configuré afin que son modèle puisse être affiché dans la zone de simulation 3D et utilisé pour la détection des collisions. Pour des instructions détaillées, veuillez consulter Configurer l’outil.
|
Ajuster le flux de travail
Le flux de travail fait référence au programme de contrôle du mouvement du robot créé dans Mech-Viz sous la forme d’un organigramme. Après avoir configuré les objets de scène et les outils de bout, vous pouvez ajuster le flux de travail du projet selon les exigences réelles. L’organigramme du traitement logique lors de la prise de l’objet cible est montré ci-dessous.
Le projet Mech-Viz se compose des deux branches suivantes :
-
La branche 1 correspond aux étapes de saisie ultérieures du projet Petites pièces métalliques dans un bac profond dans Mech-Vision. Utilisez l’étape Reconnaissance visuelle pour démarrer le projet, qui entre les poses des petites pièces métalliques dans le bac profond dans Mech-Viz pour la planification de trajectoire et le placement sur la station de repositionnement.
-
La branche 2 correspond aux étapes de saisie ultérieures du projet Mech-Vision Petites pièces métalliques sur la station de repositionnement dans . Utilisez l’étape Reconnaissance visuelle pour démarrer le projet, qui entre les poses des petites pièces métalliques sur la station de repositionnement dans Mech-Viz pour la planification de trajectoire et le placement sur la station de centrage.
-
Après que toutes les petites pièces métalliques sur la station de repositionnement ont été saisies, le projet redémarrera à partir de la branche 1 et répétera tout le processus jusqu’à ce que toutes les petites pièces métalliques soient prélevées dans le bac.
Le flux de travail du projet est montré dans la figure ci-dessous.
Les deux étapes Déplacement à point fixe au début et à la fin du flux de travail sont des points de passage déterminés par le jogging du robot et n’ont pas besoin d’être envoyées aux dispositifs externes. Les autres étapes de type déplacement enverront des points de passage aux dispositifs externes, et chaque étape Chemin intelligent dans le bac correspond à deux points de passage. Ainsi, un total de 9 points de passage seront envoyés depuis la branche 1 et 7 points de passage depuis la branche 2.
Simuler et tester
Cliquez sur le bouton Simuler dans la barre d’outils pour tester si le système de vision est correctement configuré en simulant le projet Mech-Viz.
Placez l’objet cible de manière aléatoire dans le bac et cliquez sur Simuler dans la barre d’outils de Mech-Viz pour simuler la saisie de l’objet cible. Après chaque saisie réussie, l’objet cible doit être réarrangé, et 10 tests de simulation doivent être effectués. Si les 10 simulations aboutissent toutes à des prises réussies, le système de vision est correctement configuré.
Si une exception se produit pendant la simulation, consultez FAQ de déploiement de la solution pour résoudre le problème.
Préhension et dépose par robot
Écrire un programme pour robot
Si le résultat de la simulation répond aux attentes, vous pouvez écrire un programme de prise et de dépose pour le robot FANUC.
Le programme d’exemple MM_S10_Viz_Subtask pour le robot FANUC peut essentiellement satisfaire aux exigences de ce cas typique. Vous pouvez modifier le programme d’exemple. Pour une explication détaillée de ce programme, veuillez consulter Programme d’exemple S10 Explication.
Instructions de modification
Ce programme d’exemple se compose de deux programmes. Le programme secondaire déclenche l’exécution du projet Mech-Viz et obtient la trajectoire planifiée pour saisir les petites pièces dans le bac. Le programme principal déplace le robot selon la trajectoire planifiée. Ensuite, le programme principal déclenche l’exécution du programme secondaire lorsque le robot quitte la zone de saisie pour obtenir la prochaine trajectoire planifiée, réduisant ainsi le temps de cycle. Sur la base du programme d’exemple, veuillez modifier les fichiers de programme en suivant ces étapes :
-
Programme secondaire
-
Ajoutez des commandes de branche pour déclencher la caméra afin de capturer des images.
Avant modification Après modification (exemple) 10: !trigger {product-viz} project ; 11: **CALL MM_START_VIZ(2,10)** ; 12: !get planned path, 1st argument ; 13: !(1) means getting pose in JPs ; 14: **CALL MM_GET_VIZ(1,51,52,53)** ;10: !trigger {product-viz} project ; 11: CALL MM_START_VIZ(2,10) ; 12: WAIT .10(sec) ; 13: !(Branch_Num,Exit_Num)" ; 14: CALL MM_SET_BCH(1,1) ; 15: !get planned path, 1st argument ; 16: !(1) means getting pose in JPs ; 17: CALL MM_GET_VIZ(1,51,52,53) ; -
Ajoutez les commandes utilisées pour stocker tous les points de passage renvoyés dans des variables locales.
La trajectoire planifiée renvoyée par Mech-Viz contient neuf points de passage : point d’entrée dans le bac, point d’approche pour la prise, point de prise, point de retrait après la prise, point de sortie du bac, point de secousse 1, point de secousse 2, point de sortie du bac, et point de dépose. Le programme d’exemple ne stocke que trois points de passage, vous devez donc ajouter les commandes pour stocker la trajectoire planifiée complète. Avant modification Après modification (exemple) 22: CALL MM_GET_JPS(1,60,70,80) ; 23: CALL MM_GET_JPS(2,61,71,81) ; 24: CALL MM_GET_JPS(3,62,72,82) ;
25: CALL MM_GET_JPS(1,60,70,80) ; 26: CALL MM_GET_JPS(2,61,71,81) ; 27: CALL MM_GET_JPS(3,62,72,82) ; 28: CALL MM_GET_JPS(4,63,70,80) ; 29: CALL MM_GET_JPS(5,64,71,81) ; 30: CALL MM_GET_JPS(6,65,72,82) ; 31: CALL MM_GET_JPS(7,66,70,80) ; 32: CALL MM_GET_JPS(8,67,71,81) ; 33: CALL MM_GET_JPS(9,68,72,82) ;
-
-
Programme principal
-
Définissez le repère outil. Vérifiez que le TCP sur la boîte d’apprentissage du robot correspond au TCP dans Mech-Viz. Définissez le numéro du repère outil actuellement sélectionné sur celui correspondant au repère de l’outil réel utilisé.
Avant modification Après modification (exemple) 9: !set current tool NO. to 1 ; 10: UTOOL_NUM=1 ;
9: !set current tool NO. to 3 ; 10: UTOOL_NUM=3 ;
Veuillez remplacer le numéro par le numéro de l’outil réel utilisé, où « 3 » n’est qu’un exemple. -
Specify the IP address and port number of the IPC. Change the IP address and port number in the CALL MM_INIT_SKT command to those in the vision system.
Avant modification Après modification (exemple) 16: CALL MM_INIT_SKT('8','127.0.0.1',50000,5) ;16: CALL MM_INIT_SKT('8','127.1.1.2',50000,6) ; -
Ajustez les ID des registres de position pour le point d’entrée dans le bac, le point d’approche pour la prise, le point de prise, le point de retrait après la prise, le point de sortie du bac, le point de secousse 1, le point de secousse 2, le point de sortie du bac, et le point de dépose.
Avant modification Après modification 32: !move to approach waypoint ; 33: !of picking ; 34:J PR[60] 50% FINE ; 35: !move to picking waypoint ; 36:J PR[61] 10% FINE ; ... 40: !move to departure waypoint ; 41: !of picking ; 42:J PR[62] 50% FINE ; 43: !move to intermediate waypoint ; 44: !of placing, and trigger {product-viz} ; 45: !project and get planned path in ; 46: !advance ; 47:J P[3] 50% CNT100 DB 10.0mm,CALL MM_S10_SUB ; 48: !move to approach waypoint ; 49: !of placing ; 50:L P[4] 1000mm/sec FINE Tool_Offset,PR[2] ; 51: !move to placing waypoint ; 52:L P[4] 300mm/sec FINE ;l
32: !move to approach waypoint ; 33: !of picking ; 34: J PR[60] 100% CNT100 ; 35: J PR[61] 100% CNT100 ; 36: !move to picking waypoint ; 37: L PR[62] 200mm/sec FINE ; ... 42: !move to departure waypoint ; 43: !of picking ; 44: L PR[63] 500mm/sec CNT100 ; 45: J PR[64] 100% CNT100 ; 46: !Shake ; 47: J PR[65] 100% CNT40 ; 48: J PR[66] 100% CNT40 ; 49: J PR[65] 100% CNT40 ; 50: J PR[66] 100% CNT40 ; 51: !move to intermediate waypoint ; 52: !of placing, and trigger Mech-Viz ; 53: !project and get planned path in ; 54: !advance ; 55: J PR[67] 100% CNT40 ; 56: CALL MM_S10_SUB ; 57: !move to approach waypoint ; 58: !of placing ; 59: J PR[68] 100% FINE ;
Dans le programme d’exemple modifié, PR[60] stocke le point d’entrée dans le bac, PR[61] le point d’approche pour la prise, PR[62] le point de prise, PR[63] le point de retrait après la prise, PR[64] le point de sortie du bac, PR[65] et PR[66] les points de secousse, PR[67] le point de sortie du bac, et PR[68] le point de dépose. -
Définissez le signal pour le port DO afin d’effectuer la prise, c’est-à-dire fermer la pince et saisir l’objet cible. Notez que la commande DO doit être définie en fonction du numéro de port DO réellement utilisé sur site.
Avant modification Après modification (exemple) 37: !add object grasping logic here, ; 38: !such as "DO[1]=ON" ; 39: PAUSE ;
38: !Add object grasping logic here ; 39: DO[107]=ON ; 40: DO[108]=OFF ; 41: WAIT .50(sec) ;
-
Définissez le port DO pour effectuer la dépose. Notez que la commande DO doit être définie en fonction du numéro de port DO réellement utilisé sur site.
Avant modification Après modification (exemple) 53: !add object releasing logic here, ; 54: !such as "DO[1]=OFF" ; 55: PAUSE ;
60: !add object releasing logic here, ; 61: !such as "DO[0]=OFF" ; 62: WAIT .50(sec) ; 63: DO[107]=OFF ; 64: DO[108]=ON ; 65: WAIT 1.00(sec) ;
-
Déplacez le robot vers la position d’attente pour la prise sur la station de repositionnement.
Avant modification Après modification (exemple) 56: !move to departure waypoint ; 57: !of placing ; 58:L P[4] 1000mm/sec FINE Tool_Offset,PR[2] ;
66: !move to departure waypoint ; 67: !of placing ; 68: !Move to HOME2 Position ; 69: J P[3:HOME2] 100% FINE ;
-
| Pour la logique de modification du programme lorsque le robot saisit de petites pièces sur la station de repositionnement, veuillez vous référer aux instructions de modification ci-dessus. |
Test de préhension
Pour assurer une production stable dans le scénario réel, le programme d’exemple modifié doit être exécuté pour effectuer le test de préhension avec le robot. Pour des instructions détaillées, veuillez consulter Tester la communication Interface standard.
Avant d’effectuer le test de préhension, veuillez enseigner les points de passage suivants.
| Nom | Variable | Description |
|---|---|---|
Position d’origine |
P[1] |
La position initiale enseignée dans le bac profond. La position initiale doit être éloignée des objets à saisir et des dispositifs environnants, et ne doit pas obstruer le champ de vision de la caméra. |
Position de capture d’image |
P[2] |
La position de capture d’image enseignée. La position de capture d’image fait référence à la position du robot où la caméra capture des images. À cette position, le bras du robot ne doit pas bloquer le champ de vision de la caméra. |
Point de passage intermédiaire |
P[3:HOME2] |
La position initiale enseignée sur la station de repositionnement. La position initiale doit être éloignée des objets à saisir et des dispositifs environnants, et ne doit pas obstruer le champ de vision de la caméra. |
Après l’enseignement, disposez les objets cibles comme indiqué dans le tableau ci-dessous, et utilisez le robot pour effectuer des tests de préhension pour toutes les configurations à basse vitesse.
Les tests de préhension peuvent être divisés en deux phases : préhension dans le bac et préhension sur la station de repositionnement :
Phase 1 : Test de prise dans le bac
Comme il n’est pas nécessaire de vider le bac pour la préhension dans le bac, seules 5 boucles de préhension à basse vitesse doivent être effectuées dans des scénarios de préhension aléatoire réels.
Statut de placement de l’objet |
Illustration |
Similaire au scénario réel, les objets cibles sont empilés de manière aléatoire. |
|
Phase 2 : Test de préhension sur la station de repositionnement
Disposez les objets cibles comme indiqué dans les cinq scénarios suivants, et utilisez le robot pour effectuer une boucle de préhension pour toutes les configurations à basse vitesse.
Statut de placement de l’objet |
Illustration |
L’objet cible est placé au milieu de la station de repositionnement |
|
L’objet cible est tourné de 90° |
|
L’objet cible est tourné de 180° |
|
L’objet cible est tourné de 270° |
|
Similaire au scénario réel, les objets cibles sont empilés de manière aléatoire. |
|
Si le robot saisit avec succès l’objet cible dans les scénarios de test ci-dessus, le système de vision peut être considéré comme déployé avec succès.





