Déploiement de la solution

Vous consultez actuellement la documentation pour la dernière version (2.1.2). Pour accéder à une autre version, cliquez sur le bouton "Changer de version" situé dans le coin supérieur droit de la page.

■ Si vous n’êtes pas sûr de la version du produit que vous utilisez, veuillez contacter le support technique Mech-Mind pour obtenir de l’aide.

Cette section présente le déploiement de la solution Petites pièces métalliques dans un bac profond. Le processus global est montré dans la figure ci-dessous.

solution configuration overview

Configuration matérielle du système de vision

La configuration matérielle du système de vision consiste à intégrer le matériel (caméra et PC industriel) dans l’environnement réel pour soutenir le fonctionnement normal du système de vision.

À cette étape, vous devez installer et configurer le matériel du système de vision. Pour plus de détails, consultez Configuration matérielle du système de vision.

Configuration de la communication avec le robot

Avant de configurer la communication du robot, il est nécessaire d’obtenir d’abord la solution. Cliquez ici pour savoir comment obtenir la solution.
  1. Ouvrez Mech-Vision.

  2. Dans l’interface d’accueil de Mech-Vision, cliquez sur Créer depuis la bibliothèque de solutions pour ouvrir la Bibliothèque de solutions.

  3. Entrez dans la catégorie Cas typiques de la Bibliothèque de solutions, cliquez sur l’icône get resource en haut à droite pour obtenir plus de ressources, puis cliquez sur le bouton Confirmer dans la fenêtre contextuelle.

  4. Après avoir acquis les ressources de la solution, sélectionnez la solution Petites pièces métalliques dans un bac profond sous la catégorie Préhension de pièces empilées aléatoirement, renseignez le Nom de la solution et le Chemin en bas, puis cliquez sur le bouton Créer. Ensuite, cliquez sur le bouton Confirmer dans la fenêtre contextuelle pour télécharger la solution Petites pièces métalliques dans un bac profond.

    Une fois la solution téléchargée, elle s’ouvrira automatiquement dans Mech-Vision.

Avant de déployer une solution de vision, vous devez configurer la communication entre le Mech-Mind Vision System et l’interface robot (robot, PLC ou ordinateur hôte).

La solution Petites pièces métalliques dans un bac profond utilise la communication Interface standard. Pour des instructions détaillées, veuillez vous référer à Configuration de la communication Interface standard.

Calibration main-oeil

La calibration main-oeil établit la relation de transformation entre les repères de la caméra et du robot. Grâce à cette relation, la pose de l’objet déterminée par le système de vision peut être convertie dans le repère du robot, ce qui guide le robot pour effectuer ses tâches.

Veuillez consulter Guide de calibration main-oeil du robot et compléter la calibration main-oeil.

Chaque fois que la caméra est montée, ou que la position relative de la caméra et du robot change après la calibration, il est nécessaire d’effectuer à nouveau la calibration main-oeil.

Configuration du projet de vision

Après avoir terminé la configuration de la communication et la calibration main-oeil, vous pouvez utiliser Mech-Vision pour configurer le projet de vision.

Cette solution se compose de deux projets : Petites pièces métalliques dans un bac profond et Petites pièces métalliques sur la station de repositionnement.

Le projet Petites pièces métalliques dans un bac profond est utilisé pour reconnaître et sortir les poses des petites pièces métalliques dans des bacs profonds.

Le projet Petites pièces métalliques sur la station de repositionnement est utilisé pour reconnaître et sortir les poses des petites pièces métalliques sur la station de repositionnement.

Les sections suivantes présentent respectivement les deux projets.

Petites pièces métalliques dans un bac profond

Le processus de configuration de ce projet de vision est montré dans la figure ci-dessous.

deep bin vision overall

Se connecter à la caméra et capturer des images

  1. Connectez-vous à la caméra.

    Ouvrez Mech-Eye Viewer, trouvez la caméra à connecter et cliquez sur le bouton Connecter.

    vision click connect camera
  2. Ajustez les paramètres de la caméra.

    Pour garantir que l’image 2D capturée est nette et que le nuage de points est intact, vous devez ajuster les paramètres de la caméra. Pour des instructions détaillées, veuillez consulter PRO M-GL Référence des paramètres de la caméra.

  3. Capturez des images.

    Après la connexion réussie de la caméra et la définition du groupe de paramètres, vous pouvez commencer à capturer les images de l’objet cible. Cliquez sur le bouton vision click capture icon en haut pour capturer une image unique. À ce moment, vous pouvez voir l’image 2D capturée et le nuage de points de l’objet cible. Assurez-vous que l’image 2D est claire, que le nuage de points est intact et que les arêtes sont nettes. L’image 2D et le nuage de points qualifiés de l’objet cible sont montrés respectivement à gauche et à droite dans la figure ci-dessous.

    deep bin vision image and cloud
  4. Connectez-vous à la caméra dans Mech-Vision.

    Sélectionnez l’étape Capturer des images depuis la caméra, désactivez l’option Mode virtuel, et cliquez sur le bouton Sélectionner la caméra. Dans la fenêtre contextuelle, cliquez sur l’icône vision connect camera before icon à droite du numéro de série de la caméra. Lorsque l’icône devient vision connect camera after icon, la connexion à la caméra est réussie. Après la connexion, vous pouvez sélectionner le groupe de paramètres de calibration de la caméra dans la liste déroulante à droite.

    Maintenant que vous êtes connecté à la caméra réelle, vous n’avez pas besoin d’ajuster d’autres paramètres. Cliquez sur l’icône vision run step camera icon sur l’étape Capturer des images depuis la caméra pour exécuter l’étape. S’il n’y a pas d’erreur, la caméra est connectée avec succès et les images peuvent être capturées correctement.

Reconnaissance 3D d’objet cible (pour reconnaître l’objet cible)

La solution Petites pièces métalliques dans un bac profond utilise l’étape Reconnaissance 3D d’objet cible pour reconnaître les objets cibles. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D d’objet cible pour ouvrir l’outil Reconnaissance 3D d’objet cible et configurer les paramètres concernés. Le processus de configuration global est montré dans la figure ci-dessous.

vision 3d target object recognition overall
Prétraitement du nuage de points

Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres afin de rendre le nuage de points original plus clair, ce qui améliore la précision et l’efficacité de la reconnaissance.

  1. Définir la zone de reconnaissance.

    Définissez une zone de reconnaissance efficace pour exclure les facteurs d’interférence et améliorer l’efficacité de la reconnaissance.

  2. Ajuster les paramètres.

    Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour éliminer le bruit.

Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.

vision point cloud preprocessing effect
Reconnaître l’objet cible

Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour l’objet cible dans l’Éditeur d’objet cible, puis définir les paramètres d’appariement dans l’outil Reconnaissance 3D d’objet cible pour l’appariement du modèle de nuage de points.

  1. Créez un modèle d’objet cible.

  2. Définir les paramètres liés à la reconnaissance d’objet.

    • Activez le Mode avancé sur le côté droit de Reconnaître l’objet cible.

    • Mode d’appariement : activez Définition automatique du mode d’appariement. Une fois activée, cette étape ajustera automatiquement les paramètres sous Paramètres d’appariement grossier et Paramètres d’appariement fin.

    • Paramètres d’appariement grossier : pour réduire le temps consommé par l’appariement, définissez le Mode performance sur Personnalisé et définissez le Nombre de points attendu du modèle sur 200 pour améliorer la vitesse de reconnaissance.

    • Paramètres de confiance : pour améliorer la précision de la reconnaissance, définissez la Stratégie de confiance sur Manuelle et ajustez les paramètres suivants :

      • Définissez la Stratégie de score combiné sur Prendre en compte surface et arêtes.

      • Définissez le Seuil de confiance de l’appariement de surface sur 0.5000 et le Seuil de confiance de l’appariement des arêtes sur 0.1000.

        • Dans la section des résultats de reconnaissance en bas de la fenêtre de visualisation sur le côté gauche, sélectionnez Résultat de sortie dans le premier menu déroulant. Les objets cibles dont les Confiance d’appariement de surface et Confiance d’appariement des arêtes dépassent les seuils définis seront conservés. Veuillez vérifier le résultat de reconnaissance en fonction de la situation réelle. S’il y a une fausse reconnaissance ou une situation de faux négatif, augmentez ou diminuez le seuil correspondant.

        • Lors de l’ajustement du paramètre Stratégie de confiance, vérifiez d’abord le résultat de la reconnaissance avec le paramètre défini sur Auto. Si le résultat de la reconnaissance ne répond toujours pas aux exigences du site après l’ajustement du Seuil de confiance, et qu’il y a une divergence significative entre les valeurs de Confiance d’appariement de surface et Confiance d’appariement des arêtes affichées en bas de la fenêtre de visualisation, il est recommandé de définir la Stratégie de confiance sur Manuelle et d’ajuster les paramètres concernés.

    • Sortie—Nombre maximal de sorties : minimisez le nombre de sorties pour réduire le temps d’appariement, tout en veillant à répondre aux exigences de planification de trajectoire. Dans cette solution, le paramètre Nombre maximal de sorties est défini sur 30.

Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.

vision target object recognition effect
Configurer les ports de l’étape

Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection des collisions.

Pour garantir que les objets puissent être correctement saisis par le robot, vous devez ajuster le point central de l’objet afin que son axe Z pointe vers le haut. Sous Sélectionner le port, sélectionnez Port(s) lié(s) au point central de l’objet. Pour reconnaître et localiser le bac, sélectionnez l’option Nuage de points prétraité. Enfin, cliquez sur le bouton Enregistrer. De nouveaux ports de sortie sont ajoutés à l’étape Reconnaissance 3D d’objet cible.

Reconnaissance 3D d’objet cible (pour reconnaître le bac)

Cette solution utilise l’étape Reconnaissance 3D d’objet cible pour reconnaître le bac. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D d’objet cible pour ouvrir l’outil Reconnaissance 3D d’objet cible et configurer les paramètres concernés. Le processus de configuration global est montré dans la figure ci-dessous.

vision 3d target object recognition overall
Prétraitement du nuage de points

Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres afin de rendre le nuage de points original plus clair, ce qui améliore la précision et l’efficacité de la reconnaissance.

  1. Définir la zone de reconnaissance.

    Définissez une zone de reconnaissance efficace pour exclure les facteurs d’interférence et améliorer l’efficacité de la reconnaissance.

  2. Ajuster les paramètres.

    Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour éliminer le bruit.

Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.

vision bin point cloud preprocessing effect
Reconnaître l’objet cible

Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour le bac dans l’Éditeur d’objet cible, puis définir les paramètres d’appariement dans l’outil Reconnaissance 3D d’objet cible pour l’appariement du modèle de nuage de points.

  1. Créez un modèle d’objet cible.

    Créez un modèle de nuage de points et ajoutez le point de préhension. Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur, générer un modèle de nuage de points basé sur le nuage de points acquis par la caméra.

  2. Définissez les paramètres liés à la reconnaissance d’objet.

    • Mode d’appariement : activez Définition automatique du mode d’appariement.

    • Paramètres de confiance : définissez le Seuil de confiance sur 0.8 pour supprimer les résultats d’appariement incorrects.

    • Sortie—Nombre maximal de sorties : comme l’objet cible est un bac, définissez le Nombre maximal de sorties sur 1.

Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.

vision bin recognition effect
Configurer les ports de l’étape

Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection des collisions.

Pour obtenir les informations de position du bac réel, sélectionnez l’option Port(s) lié(s) au point central de l’objet sous Sélectionner le port, et cliquez sur le bouton Enregistrer. De nouveaux ports de sortie sont ajoutés à l’étape Reconnaissance 3D d’objet cible.

Ajuster les poses (poses de l’objet cible)

Après avoir obtenu les poses de l’objet cible, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster les poses. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l’outil ajustement de pose pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.

vision adjust poses overall
  1. Transformer les poses.

    Pour sortir les poses de l’objet cible dans le repère du robot, veuillez cocher la case Transformer la pose vers le repère du robot pour transformer les poses du repère de la caméra vers le repère du robot.

  2. Ajuster les orientations de la pose.

    Ajustez la pose de l’objet cible afin que son axe Z pointe vers le haut et que son axe Y pointe vers l’axe X négatif du repère du robot, ce qui permet au robot de saisir les objets cibles dans la direction spécifiée afin d’éviter les collisions.

    • Activez le Mode personnalisé pour Ajustement de la pose.

    • Définissez les paramètres de l’option Inverser la pose et minimiser l’angle entre l’axe d’inversion et la direction cible : définissez Axe à fixer sur Axe X, définissez Axe à inverser sur Axe Z, et définissez la direction cible sur Direction Z positive dans le repère du robot.

    • Définissez les paramètres de l’option Faire tourner la pose et minimiser l’angle entre l’axe de rotation et la direction cible : définissez Axe à fixer sur Axe Z, définissez Axe à inverser sur Axe Y, et définissez la direction cible sur Direction X négative dans le repère du robot.

  3. Trier les poses.

    Définissez le Type de tri sur Trier par valeur X/Y/Z de la pose, définissez la Valeur spécifiée de la pose sur Coordonnée Z, et triez les poses par ordre Décroissant.

  4. Filtrer par pose.

    Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence d’angle maximale sur 90°.

    Définissez une ROI pour filtrer les poses en dehors de la ROI.

  5. Paramètres généraux.

    Définir le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D d’objet cible et connectez le port de sortie à l’étape Sortie.

Ajuster les poses (poses du bac)

Après avoir obtenu la pose du bac, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster la pose. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l’outil ajustement de pose pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.

vision adjust bin poses overall
  1. Sélectionner la stratégie de traitement de pose.

    Étant donné que l’objet cible est un bac profond contenant des objets cibles, veuillez sélectionner l’option Bac.

  2. Transformer les poses.

    Pour sortir la pose du bac dans le repère du robot, veuillez cocher la case Transformer la pose vers le repère du robot pour transformer la pose du repère de la caméra vers le repère du robot.

  3. Déplacer les poses le long d’une direction spécifiée.

    Dans le Repère du robot, déplacez la pose du bac le long de la Direction Z positive et ajustez manuellement la Distance de translation à -245 mm pour déplacer la pose du bac de la surface supérieure du bac vers le centre du bac, ce qui sera utilisé plus tard pour mettre à jour le modèle de collision du bac dans Mech-Viz.

    Distance de translation = -1 × 1/2 hauteur du bac
  4. Filtrer par angle.

    Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence d’angle maximale sur 90°.

  5. Paramètres généraux.

    Définir le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D d’objet cible et connectez le port de sortie à l’étape Sortie.

Sortir les informations de l’objet

Utilisez l’étape Sortie pour envoyer le point central de l’objet, le nuage de points prétraité, le nom de l’objet cible, le nom du bac, la pose du bac, etc., à Mech-Viz pour la planification de trajectoire.

Petites pièces métalliques sur la station de repositionnement

Le processus de configuration de ce projet de vision est montré dans la figure ci-dessous.

repositioning station vision overall

Se connecter à la caméra et capturer des images

  1. Connectez-vous à la caméra.

    Ouvrez Mech-Eye Viewer, trouvez la caméra à connecter et cliquez sur le bouton Connecter.

    vision click connect camera
  2. Ajustez les paramètres de la caméra.

    Pour garantir que l’image 2D capturée est nette et que le nuage de points est intact, vous devez ajuster les paramètres de la caméra. Pour des instructions détaillées, veuillez consulter PRO S-GL Référence des paramètres de la caméra.

  3. Capturez des images.

    Après la connexion réussie de la caméra et la définition du groupe de paramètres, vous pouvez commencer à capturer les images de l’objet cible. Cliquez sur le bouton vision click capture icon en haut pour capturer une image unique. À ce moment, vous pouvez voir l’image 2D capturée et le nuage de points de l’objet cible. Assurez-vous que l’image 2D est claire, que le nuage de points est intact et que les arêtes sont nettes. L’image 2D et le nuage de points qualifiés de l’objet cible sont montrés respectivement à gauche et à droite dans la figure ci-dessous.

    repositioning station vision image and cloud
  4. Connectez-vous à la caméra dans Mech-Vision.

    Sélectionnez l’étape Capturer des images depuis la caméra, désactivez l’option Mode virtuel, et cliquez sur le bouton Sélectionner la caméra. Dans la fenêtre contextuelle, cliquez sur l’icône vision connect camera before icon à droite du numéro de série de la caméra. Lorsque l’icône devient vision connect camera after icon, la connexion à la caméra est réussie. Après la connexion, vous pouvez sélectionner le groupe de paramètres de calibration de la caméra dans la liste déroulante à droite.

    Maintenant que vous êtes connecté à la caméra réelle, vous n’avez pas besoin d’ajuster d’autres paramètres. Cliquez sur l’icône vision run step camera icon sur l’étape Capturer des images depuis la caméra pour exécuter l’étape. S’il n’y a pas d’erreur, la caméra est connectée avec succès et les images peuvent être capturées correctement.

Reconnaissance 3D d’objet cible (pour reconnaître l’objet cible)

La solution Petites pièces métalliques dans un bac profond utilise l’étape Reconnaissance 3D d’objet cible pour reconnaître les objets cibles. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D d’objet cible pour ouvrir l’outil Reconnaissance 3D d’objet cible et configurer les paramètres concernés. Le processus de configuration global est montré dans la figure ci-dessous.

vision 3d target object recognition overall
Prétraitement du nuage de points

Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres afin de rendre le nuage de points original plus clair, ce qui améliore la précision et l’efficacité de la reconnaissance.

  1. Définir la zone de reconnaissance.

    Définissez une zone de reconnaissance efficace pour exclure les facteurs d’interférence et améliorer l’efficacité de la reconnaissance.

  2. Ajuster les paramètres.

    Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour éliminer le bruit.

Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.

repositioning station vision point cloud preprocessing effect
Reconnaître l’objet cible

Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour l’objet cible dans l’Éditeur d’objet cible, puis définir les paramètres d’appariement dans l’outil Reconnaissance 3D d’objet cible pour l’appariement du modèle de nuage de points.

  1. Créez un modèle d’objet cible.

  2. Définir les paramètres liés à la reconnaissance d’objet.

    • Activez le Mode avancé sur le côté droit de Reconnaître l’objet cible.

    • Mode d’appariement : activez Définition automatique du mode d’appariement. Une fois activée, cette étape ajustera automatiquement les paramètres sous Paramètres d’appariement grossier et Paramètres d’appariement fin.

    • Paramètres d’appariement grossier : pour réduire le temps consommé par l’appariement, définissez le Mode performance sur Haute vitesse afin d’améliorer la vitesse de reconnaissance.

    • Paramètres de confiance : pour améliorer la précision de la reconnaissance, définissez la Stratégie de confiance sur Manuelle et ajustez les paramètres suivants :

      • Définissez la Stratégie de score combiné sur Prendre en compte surface et arêtes.

      • Définissez le Seuil de confiance de l’appariement de surface sur 0.8000 et le Seuil de confiance de l’appariement des arêtes sur 0.4000.

    • Sortie—Nombre maximal de sorties : minimisez le nombre de sorties pour réduire le temps d’appariement, tout en veillant à répondre aux exigences de planification de trajectoire. Dans cette solution, le paramètre Nombre maximal de sorties est défini sur 10.

Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.

repositioning station vision target object recognition effect
Configurer les ports de l’étape

Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection des collisions.

Pour garantir que les objets puissent être correctement saisis par le robot, vous devez ajuster le point central de l’objet afin que son axe Z pointe vers le haut. Sous Sélectionner le port, sélectionnez Port(s) lié(s) au point central de l’objet. Pour reconnaître et localiser le bac, sélectionnez l’option Nuage de points prétraité. Enfin, cliquez sur le bouton Enregistrer. De nouveaux ports de sortie sont ajoutés à l’étape Reconnaissance 3D d’objet cible.

Ajuster les poses

Après avoir obtenu les poses de l’objet cible, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster les poses. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l’outil ajustement de pose pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.

vision adjust poses overall
  1. Transformer les poses.

    Pour sortir les poses de l’objet cible dans le repère du robot, veuillez cocher la case Transformer la pose vers le repère du robot pour transformer les poses du repère de la caméra vers le repère du robot.

  2. Ajuster les orientations de la pose.

    Définissez Orientation sur Alignement automatique et Scénario d’application sur Aligner les axes Z (Alimentation de machine) pour garantir que le robot saisit dans une direction spécifiée, évitant ainsi les collisions.

  3. Trier les poses.

    Définissez le Type de tri sur Trier par valeur X/Y/Z de la pose, définissez la Valeur spécifiée de la pose sur Coordonnée Z, et triez les poses par ordre Décroissant.

  4. Filtrer par pose.

    Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence d’angle maximale sur 90°.

    Définissez une ROI pour filtrer les poses en dehors de la ROI.

  5. Paramètres généraux.

    Définir le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D d’objet cible et connectez le port de sortie à l’étape Sortie.

Sortir les informations de l’objet

Utilisez l’étape Sortie pour envoyer les informations du point central de l’objet, le nuage de points prétraité, le nom de l’objet cible, etc., à Mech-Viz pour la planification de trajectoire.

Planification de trajectoire

Une fois la reconnaissance de l’objet cible terminée, vous pouvez utiliser Mech-Viz pour planifier une trajectoire puis écrire un programme robot pour saisir les objets cibles.

Le processus de configuration de la planification de trajectoire est montré dans la figure ci-dessous.

viz overall

Configurer les objets de scène

Les objets de scène sont introduits pour rapprocher la scène dans le logiciel du scénario réel, ce qui facilite la planification de trajectoire du robot. Pour des instructions détaillées, veuillez consulter Configurer les objets de scène.

Pour garantir une saisie efficace, les objets de scène doivent être configurés afin de représenter avec précision l’environnement opérationnel réel. Les objets de scène dans cette solution sont configurés comme indiqué ci-dessous.

viz scene objects configuration effect

Configurer l’outil du robot

L’outil de bout doit être configuré afin que son modèle puisse être affiché dans la zone de simulation 3D et utilisé pour la détection des collisions. Pour des instructions détaillées, veuillez consulter Configurer l’outil.

  • Pour gagner du temps lors de la création d’un modèle de collision pour l’outil de bout, il n’est pas toujours nécessaire que les coquilles convexes que vous créez reproduisent chaque détail du modèle original. Vous pouvez omettre certains détails en fonction des exigences spécifiques du modèle.

  • Les doigts de la pince doivent être réalisés avec soin pour correspondre étroitement à l’objet réel, ce qui est essentiel pour une détection de collision précise. Pour les structures mécaniques plus éloignées du point de préhension (objet cible), la conception peut être simplifiée en utilisant des coquilles convexes cuboïdes au lieu de conceptions structurelles complexes pour améliorer l’efficacité. La figure ci-dessous montre le modèle original à gauche et le modèle simplifié à droite.

    viz end tool configuration effect

Ajuster le flux de travail

Le flux de travail fait référence au programme de contrôle du mouvement du robot créé dans Mech-Viz sous la forme d’un organigramme. Après avoir configuré les objets de scène et les outils de bout, vous pouvez ajuster le flux de travail du projet selon les exigences réelles. L’organigramme du traitement logique lors de la prise de l’objet cible est montré ci-dessous.

viz adjust workflow overall

Le projet Mech-Viz se compose des deux branches suivantes :

  • La branche 1 correspond aux étapes de saisie ultérieures du projet Petites pièces métalliques dans un bac profond dans Mech-Vision. Utilisez l’étape Reconnaissance visuelle pour démarrer le projet, qui entre les poses des petites pièces métalliques dans le bac profond dans Mech-Viz pour la planification de trajectoire et le placement sur la station de repositionnement.

  • La branche 2 correspond aux étapes de saisie ultérieures du projet Mech-Vision Petites pièces métalliques sur la station de repositionnement dans . Utilisez l’étape Reconnaissance visuelle pour démarrer le projet, qui entre les poses des petites pièces métalliques sur la station de repositionnement dans Mech-Viz pour la planification de trajectoire et le placement sur la station de centrage.

  • Après que toutes les petites pièces métalliques sur la station de repositionnement ont été saisies, le projet redémarrera à partir de la branche 1 et répétera tout le processus jusqu’à ce que toutes les petites pièces métalliques soient prélevées dans le bac.

Le flux de travail du projet est montré dans la figure ci-dessous.

viz workflow

Les deux étapes Déplacement à point fixe au début et à la fin du flux de travail sont des points de passage déterminés par le jogging du robot et n’ont pas besoin d’être envoyées aux dispositifs externes. Les autres étapes de type déplacement enverront des points de passage aux dispositifs externes, et chaque étape Chemin intelligent dans le bac correspond à deux points de passage. Ainsi, un total de 9 points de passage seront envoyés depuis la branche 1 et 7 points de passage depuis la branche 2.

Simuler et tester

Cliquez sur le bouton Simuler dans la barre d’outils pour tester si le système de vision est correctement configuré en simulant le projet Mech-Viz.

Placez l’objet cible de manière aléatoire dans le bac et cliquez sur Simuler dans la barre d’outils de Mech-Viz pour simuler la saisie de l’objet cible. Après chaque saisie réussie, l’objet cible doit être réarrangé, et 10 tests de simulation doivent être effectués. Si les 10 simulations aboutissent toutes à des prises réussies, le système de vision est correctement configuré.

Si une exception se produit pendant la simulation, consultez FAQ de déploiement de la solution pour résoudre le problème.

Préhension et dépose par robot

Écrire un programme pour robot

Si le résultat de la simulation répond aux attentes, vous pouvez écrire un programme de prise et de dépose pour le robot FANUC.

Le programme d’exemple MM_S10_Viz_Subtask pour le robot FANUC peut essentiellement satisfaire aux exigences de ce cas typique. Vous pouvez modifier le programme d’exemple. Pour une explication détaillée de ce programme, veuillez consulter Programme d’exemple S10 Explication.

Instructions de modification

Ce programme d’exemple se compose de deux programmes. Le programme secondaire déclenche l’exécution du projet Mech-Viz et obtient la trajectoire planifiée pour saisir les petites pièces dans le bac. Le programme principal déplace le robot selon la trajectoire planifiée. Ensuite, le programme principal déclenche l’exécution du programme secondaire lorsque le robot quitte la zone de saisie pour obtenir la prochaine trajectoire planifiée, réduisant ainsi le temps de cycle. Sur la base du programme d’exemple, veuillez modifier les fichiers de programme en suivant ces étapes :

  • Programme secondaire

    1. Ajoutez des commandes de branche pour déclencher la caméra afin de capturer des images.

      Avant modification Après modification (exemple)
        10:  !trigger {product-viz} project ;
        11:  **CALL MM_START_VIZ(2,10)** ;
        12:  !get planned path, 1st argument ;
        13:  !(1) means getting pose in JPs ;
        14:  **CALL MM_GET_VIZ(1,51,52,53)** ;
        10:  !trigger {product-viz} project ;
        11:  CALL MM_START_VIZ(2,10) ;
        12:  WAIT    .10(sec) ;
        13:  !(Branch_Num,Exit_Num)" ;
        14:  CALL MM_SET_BCH(1,1) ;
        15:  !get planned path, 1st argument ;
        16:  !(1) means getting pose in JPs ;
        17:  CALL MM_GET_VIZ(1,51,52,53) ;
    2. Ajoutez les commandes utilisées pour stocker tous les points de passage renvoyés dans des variables locales.

      La trajectoire planifiée renvoyée par Mech-Viz contient neuf points de passage : point d’entrée dans le bac, point d’approche pour la prise, point de prise, point de retrait après la prise, point de sortie du bac, point de secousse 1, point de secousse 2, point de sortie du bac, et point de dépose. Le programme d’exemple ne stocke que trois points de passage, vous devez donc ajouter les commandes pour stocker la trajectoire planifiée complète.
      Avant modification Après modification (exemple)
        22:  CALL MM_GET_JPS(1,60,70,80) ;
        23:  CALL MM_GET_JPS(2,61,71,81) ;
        24:  CALL MM_GET_JPS(3,62,72,82) ;
        25:  CALL MM_GET_JPS(1,60,70,80) ;
        26:  CALL MM_GET_JPS(2,61,71,81) ;
        27:  CALL MM_GET_JPS(3,62,72,82) ;
        28:  CALL MM_GET_JPS(4,63,70,80) ;
        29:  CALL MM_GET_JPS(5,64,71,81) ;
        30:  CALL MM_GET_JPS(6,65,72,82) ;
        31:  CALL MM_GET_JPS(7,66,70,80) ;
        32:  CALL MM_GET_JPS(8,67,71,81) ;
        33:  CALL MM_GET_JPS(9,68,72,82) ;
  • Programme principal

    1. Définissez le repère outil. Vérifiez que le TCP sur la boîte d’apprentissage du robot correspond au TCP dans Mech-Viz. Définissez le numéro du repère outil actuellement sélectionné sur celui correspondant au repère de l’outil réel utilisé.

      Avant modification Après modification (exemple)
         9:  !set current tool NO. to 1 ;
        10:  UTOOL_NUM=1 ;
         9:  !set current tool NO. to 3 ;
        10:  UTOOL_NUM=3 ;
      Veuillez remplacer le numéro par le numéro de l’outil réel utilisé, où « 3 » n’est qu’un exemple.
    2. Specify the IP address and port number of the IPC. Change the IP address and port number in the CALL MM_INIT_SKT command to those in the vision system.

      Avant modification Après modification (exemple)
        16:  CALL MM_INIT_SKT('8','127.0.0.1',50000,5) ;
        16:  CALL MM_INIT_SKT('8','127.1.1.2',50000,6) ;
    3. Ajustez les ID des registres de position pour le point d’entrée dans le bac, le point d’approche pour la prise, le point de prise, le point de retrait après la prise, le point de sortie du bac, le point de secousse 1, le point de secousse 2, le point de sortie du bac, et le point de dépose.

      Avant modification Après modification
        32:  !move to approach waypoint ;
        33:  !of picking ;
        34:J PR[60] 50% FINE    ;
        35:  !move to picking waypoint ;
        36:J PR[61] 10% FINE    ;
        ...
        40:  !move to departure waypoint ;
        41:  !of picking ;
        42:J PR[62] 50% FINE    ;
        43:  !move to intermediate waypoint ;
        44:  !of placing, and trigger {product-viz} ;
        45:  !project and get planned path in ;
        46:  !advance ;
        47:J P[3] 50% CNT100 DB   10.0mm,CALL MM_S10_SUB    ;
        48:  !move to approach waypoint ;
        49:  !of placing ;
        50:L P[4] 1000mm/sec FINE Tool_Offset,PR[2]    ;
        51:  !move to placing waypoint ;
        52:L P[4] 300mm/sec FINE    ;

      l

        32:  !move to approach waypoint ;
        33:  !of picking ;
        34:  J PR[60] 100% CNT100    ;
        35:  J PR[61] 100% CNT100    ;
        36:  !move to picking waypoint ;
        37:  L PR[62] 200mm/sec FINE    ;
        ...
        42:  !move to departure waypoint ;
        43:  !of picking ;
        44:  L PR[63] 500mm/sec CNT100    ;
        45:  J PR[64] 100% CNT100    ;
        46:  !Shake ;
        47:  J PR[65] 100% CNT40    ;
        48:  J PR[66] 100% CNT40    ;
        49:  J PR[65] 100% CNT40    ;
        50:  J PR[66] 100% CNT40    ;
        51:  !move to intermediate waypoint ;
        52:  !of placing, and trigger Mech-Viz ;
        53:  !project and get planned path in ;
        54:  !advance ;
        55:  J PR[67] 100% CNT40    ;
        56:  CALL MM_S10_SUB    ;
        57:  !move to approach waypoint ;
        58:  !of placing ;
        59:  J PR[68] 100% FINE    ;
      Dans le programme d’exemple modifié, PR[60] stocke le point d’entrée dans le bac, PR[61] le point d’approche pour la prise, PR[62] le point de prise, PR[63] le point de retrait après la prise, PR[64] le point de sortie du bac, PR[65] et PR[66] les points de secousse, PR[67] le point de sortie du bac, et PR[68] le point de dépose.
    4. Définissez le signal pour le port DO afin d’effectuer la prise, c’est-à-dire fermer la pince et saisir l’objet cible. Notez que la commande DO doit être définie en fonction du numéro de port DO réellement utilisé sur site.

      Avant modification Après modification (exemple)
        37:  !add object grasping logic here, ;
        38:  !such as "DO[1]=ON" ;
        39:  PAUSE ;
        38:  !Add object grasping logic here ;
        39:  DO[107]=ON ;
        40:  DO[108]=OFF ;
        41:  WAIT    .50(sec) ;
    5. Définissez le port DO pour effectuer la dépose. Notez que la commande DO doit être définie en fonction du numéro de port DO réellement utilisé sur site.

      Avant modification Après modification (exemple)
        53:  !add object releasing logic here, ;
        54:  !such as "DO[1]=OFF" ;
        55:  PAUSE ;
        60:  !add object releasing logic here, ;
        61:  !such as "DO[0]=OFF" ;
        62:  WAIT    .50(sec) ;
        63:  DO[107]=OFF ;
        64:  DO[108]=ON ;
        65:  WAIT   1.00(sec) ;
    6. Déplacez le robot vers la position d’attente pour la prise sur la station de repositionnement.

    Avant modification Après modification (exemple)
      56:  !move to departure waypoint ;
      57:  !of placing ;
      58:L P[4] 1000mm/sec FINE Tool_Offset,PR[2]    ;
      66:  !move to departure waypoint ;
      67:  !of placing ;
      68:  !Move to HOME2 Position ;
      69:  J P[3:HOME2] 100% FINE    ;
Pour la logique de modification du programme lorsque le robot saisit de petites pièces sur la station de repositionnement, veuillez vous référer aux instructions de modification ci-dessus.

Test de préhension

Pour assurer une production stable dans le scénario réel, le programme d’exemple modifié doit être exécuté pour effectuer le test de préhension avec le robot. Pour des instructions détaillées, veuillez consulter Tester la communication Interface standard.

Avant d’effectuer le test de préhension, veuillez enseigner les points de passage suivants.

Nom Variable Description

Position d’origine

P[1]

La position initiale enseignée dans le bac profond. La position initiale doit être éloignée des objets à saisir et des dispositifs environnants, et ne doit pas obstruer le champ de vision de la caméra.

Position de capture d’image

P[2]

La position de capture d’image enseignée. La position de capture d’image fait référence à la position du robot où la caméra capture des images. À cette position, le bras du robot ne doit pas bloquer le champ de vision de la caméra.

Point de passage intermédiaire

P[3:HOME2]

La position initiale enseignée sur la station de repositionnement. La position initiale doit être éloignée des objets à saisir et des dispositifs environnants, et ne doit pas obstruer le champ de vision de la caméra.

Après l’enseignement, disposez les objets cibles comme indiqué dans le tableau ci-dessous, et utilisez le robot pour effectuer des tests de préhension pour toutes les configurations à basse vitesse.

Les tests de préhension peuvent être divisés en deux phases : préhension dans le bac et préhension sur la station de repositionnement :

Phase 1 : Test de prise dans le bac

Comme il n’est pas nécessaire de vider le bac pour la préhension dans le bac, seules 5 boucles de préhension à basse vitesse doivent être effectuées dans des scénarios de préhension aléatoire réels.

Statut de placement de l’objet

Illustration

Similaire au scénario réel, les objets cibles sont empilés de manière aléatoire.

picking test 1

Phase 2 : Test de préhension sur la station de repositionnement

Disposez les objets cibles comme indiqué dans les cinq scénarios suivants, et utilisez le robot pour effectuer une boucle de préhension pour toutes les configurations à basse vitesse.

Statut de placement de l’objet

Illustration

L’objet cible est placé au milieu de la station de repositionnement

picking test 2

L’objet cible est tourné de 90°

picking test 3

L’objet cible est tourné de 180°

picking test 4

L’objet cible est tourné de 270°

picking test 5

Similaire au scénario réel, les objets cibles sont empilés de manière aléatoire.

picking test 6

Si le robot saisit avec succès l’objet cible dans les scénarios de test ci-dessus, le système de vision peut être considéré comme déployé avec succès.

Cette page est-elle utile ?

Veuillez nous indiquer comment améliorer :

Nous accordons de l’importance à votre vie privée

Nous utilisons des cookies pour vous offrir la meilleure expérience possible sur notre site web. En continuant à utiliser le site, vous reconnaissez accepter l’utilisation des cookies. Si vous refusez, un cookie unique sera utilisé pour garantir que vous ne soyez pas suivi ou reconnu lors de votre visite sur ce site.