Déploiement de la solution

Vous consultez actuellement la documentation pour la dernière version (2.1.2). Pour accéder à une autre version, cliquez sur le bouton "Changer de version" situé dans le coin supérieur droit de la page.

■ Si vous n’êtes pas sûr de la version du produit que vous utilisez, veuillez contacter le support technique Mech-Mind pour obtenir de l’aide.

Cette section présente le déploiement de la solution de vision pour les billettes d’acier carrées. Le processus global est illustré dans la figure ci-dessous.

solution configuration overview

Configuration matérielle du système de vision

La configuration matérielle du système de vision consiste à intégrer le matériel (caméra et PC industriel) dans l’environnement réel pour assurer le fonctionnement normal du système de vision.

Dans cette phase, vous devez installer et configurer le matériel du système de vision. Pour plus de détails, consultez Configuration matérielle du système de vision.

Configuration de la communication du robot

Avant la configuration de la communication du robot, il est nécessaire d’obtenir d’abord la solution. Cliquez ici pour savoir comment obtenir la solution.
  1. Ouvrez Mech-Vision.

  2. Dans l’interface d’accueil de Mech-Vision, cliquez sur Créer depuis la bibliothèque de solutions pour ouvrir la Bibliothèque de solutions.

  3. Entrez dans la catégorie Cas typiques de la Bibliothèque de solutions, cliquez sur l’icône get resource en haut à droite pour plus de ressources, puis cliquez sur le bouton Confirmer dans la fenêtre contextuelle.

  4. Après avoir acquis les ressources de la solution, sélectionnez la solution Billettes d’acier carrées dans la catégorie Préhension de pièces empilées aléatoirement, renseignez le nom de la solution et le chemin en bas, et cliquez enfin sur le bouton Créer. Ensuite, cliquez sur le bouton Confirmer dans la fenêtre contextuelle pour télécharger la solution Billettes d’acier carrées.

    Une fois la solution téléchargée, elle s’ouvrira automatiquement dans Mech-Vision.

Avant de déployer une solution de vision Mech-Mind, vous devez configurer la communication entre le Système de vision Mech-Mind et la partie robot (robot, PLC ou ordinateur hôte).

La solution Billettes d’acier carrées utilise la communication via Interface standard. Pour des instructions détaillées, veuillez consulter Configuration de la communication via Interface standard.

Calibration main-œil

La calibration main-œil établit la relation de transformation entre les repères de la caméra et du robot. Grâce à cette relation, la pose de l’objet déterminée par le système de vision peut être transformée dans le repère du robot, ce qui guide le robot dans l’exécution de ses tâches.

Veuillez vous référer à Guide de calibration main-œil du robot et compléter la calibration main-œil.

Chaque fois que la caméra est montée, ou lorsque la position relative de la caméra et du robot change après la calibration, il est nécessaire de réaliser de nouveau la calibration main-œil.

Configuration du projet de vision

Après avoir réalisé la configuration de la communication et la calibration main-œil, vous pouvez utiliser Mech-Vision pour configurer le projet de vision.

Le processus de configuration d’un projet de vision est montré dans la figure ci-dessous.

vision overall

Se connecter à la caméra et capturer des images

  1. Connectez-vous à la caméra.

    Ouvrez Mech-Eye Viewer, trouvez la caméra à connecter et cliquez sur le bouton Se connecter.

    vision click connect camera
  2. Ajustez les paramètres de la caméra.

    Pour garantir que l’image 2D capturée est nette et que le nuage de points est intact, vous devez ajuster les paramètres de la caméra. Pour des instructions détaillées, veuillez vous référer à LSR L-GL Référence des paramètres de la caméra.

  3. Capturez des images.

    Après que la caméra est connectée avec succès et que le groupe de paramètres est défini, vous pouvez commencer à capturer des images de l’objet cible. Cliquez sur le bouton vision click capture icon en haut pour capturer une image unique. À ce moment, vous pouvez visualiser l’image 2D et le nuage de points capturés de l’objet cible. Assurez-vous que l’image 2D est nette, que le nuage de points est intact et que les bords sont clairs. L’image 2D et le nuage de points conformes de l’objet cible sont montrés respectivement à gauche et à droite dans la figure ci-dessous.

    vision image and cloud
  4. Connectez-vous à la caméra dans Mech-Vision.

    Sélectionnez l’étape Capturer des images depuis la caméra, désactivez l’option Mode virtuel et cliquez sur le bouton Sélectionner la caméra.

    vision select camera

    Dans la fenêtre contextuelle, cliquez sur l’icône vision connect camera before icon à droite du numéro de série de la caméra. Lorsque l’icône devient vision connect camera after icon, la caméra est connectée avec succès. Après la connexion réussie de la caméra, vous pouvez sélectionner le groupe de paramètres d’étalonnage de la caméra dans la liste déroulante à droite, comme montré ci-dessous.

    vision connect camera

    Maintenant que vous êtes connecté à la caméra réelle, vous n’avez pas besoin d’ajuster d’autres paramètres. Cliquez sur l’icône vision run step camera icon sur l’étape Capturer des images depuis la caméra pour exécuter l’étape. S’il n’y a pas d’erreur, la caméra est connectée avec succès et les images peuvent être capturées correctement.

Reconnaissance 3D de l’objet cible (pour reconnaître l’objet cible)

Cette solution utilise l’étape Reconnaissance 3D de l’objet cible pour reconnaître les objets cibles. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D de l’objet cible pour ouvrir l’outil Reconnaissance 3D de l’objet cible afin de configurer les paramètres correspondants. Le processus de configuration global est montré dans la figure ci-dessous.

vision 3d target object recognition overall

Prétraitement du nuage de points

Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres pour rendre le nuage de points original plus clair, améliorant ainsi la précision et l’efficacité de la reconnaissance.

  1. Définir la région de reconnaissance.

    Définissez une zone de reconnaissance efficace afin d’écarter les facteurs d’interférence et d’améliorer l’efficacité de la reconnaissance.

  2. Ajuster les paramètres.

    Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour supprimer le bruit.

Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.

vision point cloud preprocessing effect

Reconnaître l’objet cible

Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour l’objet cible dans l'Éditeur d’objet cible, puis définir des paramètres d’appariement dans l’outil Reconnaissance 3D de l’objet cible pour l’appariement du modèle de nuage de points.

  1. Créer un modèle d’objet cible.

    Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur, importez le fichier STL pour générer un modèle de nuage de points pour l’objet cible.

  2. Définir les paramètres liés à la reconnaissance d’objet.

    • Activez le Mode avancé sur le côté droit de Reconnaître l’objet cible.

    • Mode d’appariement : activez Définir automatiquement le mode de correspondance. Une fois activée, cette étape ajustera automatiquement les paramètres sous Paramètres d’appariement grossier et Paramètres d’appariement fin.

    • Appariement ultra-fin : Activer l’appariement ultra-fin pour effectuer un second appariement fin avec le modèle de surface sur le résultat d’appariement, améliorant la précision de la prise dans la direction Z.

    • Paramètres de confiance : définissez Stratégie de confiance sur Manuel, Stratégie de score combiné sur Prendre en compte la surface et le bord, et définissez Seuil de confiance de l’appariement de surface sur une valeur élevée, telle que 0,8, afin de supprimer les résultats d’appariement incorrects.

    • Sortie—Nombre maximal de sorties : minimisez le nombre de sorties pour réduire le temps d’appariement, tout en garantissant que les exigences de planification de trajectoire sont satisfaites. Dans cette solution, le paramètre Nombre maximal de sorties est défini sur 15.

    • Supprimer les poses coïncidentes et supprimer les poses superposées : pour éliminer les résultats de reconnaissance coïncidents et superposés, activez les options Supprimer les poses des objets coïncidents et Supprimer les poses des objets superposés, et définissez leurs seuils respectifs sur 30% et 20%.

Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.

vision target object recognition effect

Configurer les ports de l’étape

Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection de collisions.

Pour garantir que les objets peuvent être correctement saisis par le robot, vous devez ajuster le point central de l’objet afin que son axe Z pointe vers le haut. Sous Sélectionner le port, sélectionnez Port(s) lié(s) au point central de l’objet, et sélectionnez l’option Nuage de points prétraité. Cliquez ensuite sur le bouton Enregistrer. De nouveaux ports de sortie seront ajoutés à l’étape Reconnaissance 3D de l’objet cible après ces réglages.

Reconnaissance 3D de l’objet cible (pour reconnaître le bac)

Cette solution utilise l’étape Reconnaissance 3D de l’objet cible pour reconnaître le bac. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Reconnaissance 3D de l’objet cible pour ouvrir l’outil Reconnaissance 3D de l’objet cible afin de configurer les paramètres correspondants. Le processus de configuration global est montré dans la figure ci-dessous.

vision 3d target object recognition overall

Prétraitement du nuage de points

Avant le prétraitement du nuage de points, vous devez prétraiter les données en ajustant les paramètres pour rendre le nuage de points original plus clair, améliorant ainsi la précision et l’efficacité de la reconnaissance.

  1. Définir la région de reconnaissance.

    Définissez une zone de reconnaissance efficace afin d’écarter les facteurs d’interférence et d’améliorer l’efficacité de la reconnaissance.

  2. Ajuster les paramètres.

    Définissez les paramètres Effet d’extraction des arêtes, Niveau de suppression du bruit et Filtre de points pour supprimer le bruit.

Après le prétraitement du nuage de points, cliquez sur le bouton Exécuter l’étape.

vision bin point cloud preprocessing effect

Reconnaître l’objet cible

Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points pour le bac dans l'Éditeur d’objet cible, puis définir des paramètres d’appariement dans l’outil Reconnaissance 3D de l’objet cible pour l’appariement du modèle de nuage de points.

  1. Créer un modèle d’objet cible.

    Créer le modèle de nuage de points et ajouter le point de préhension. Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur, générez un modèle de nuage de points basé sur le nuage de points acquis par la caméra.

  2. Définir les paramètres liés à la reconnaissance d’objet.

    • Mode d’appariement : activez Définir automatiquement le mode de correspondance.

    • Paramètres de confiance : définissez le Seuil de confiance à 0,7 pour supprimer les résultats d’appariement incorrects.

    • Sortie—Nombre maximal de sorties : comme l’objet cible est un bac, définissez Nombre maximal de sorties sur 1.

Après avoir défini les paramètres ci-dessus, cliquez sur le bouton Exécuter l’étape. Le résultat d’appariement est montré dans la figure ci-dessous.

vision bin recognition effect

Configurer les ports de l’étape

Après la reconnaissance de l’objet cible, les ports de l’étape doivent être configurés pour fournir les résultats de vision et les nuages de points à Mech-Viz pour la planification de trajectoire et la détection de collisions.

Pour obtenir les informations de position du bac réel, sélectionnez l’option Port(s) lié(s) au point central de l’objet sous Sélectionner le port, et cliquez sur le bouton Enregistrer. De nouveaux ports de sortie sont ajoutés à l’étape Reconnaissance 3D de l’objet cible, comme montré ci-dessous.

vision bin general settings effect

Ajuster les poses (poses de l’objet cible)

Après avoir obtenu les poses de l’objet cible, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster les poses. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l’outil ajustement des poses pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.

vision adjust poses overall
  1. Transformer les poses.

    Pour sortir les poses de l’objet cible dans le repère du robot, veuillez cocher la case devant Transformer la pose dans le repère du robot pour transformer les poses du repère de la caméra vers le repère du robot.

  2. Ajuster les orientations des poses.

    Définissez Orientation sur Pointer vers le point de référence et Axe de pointage sur axe Z, ce qui permet au robot de saisir les objets cibles dans la direction spécifiée pour éviter les collisions.

  3. Trier les poses.

    Définissez le Type de tri sur Trier par valeur X/Y/Z de la pose, définissez la Valeur spécifiée de la pose sur Coordonnée Z, et triez les poses dans l’ordre Décroissant.

  4. Filtrer par angle.

    Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence angulaire maximale à 90°.

  5. Paramètres généraux.

    Définissez le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D de l’objet cible et connectez le port de sortie à l’étape Sortie.

Ajuster les poses (poses du bac)

Après avoir obtenu la pose du bac, vous devez utiliser l’étape Ajuster les poses V2 pour ajuster la pose. Cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape Ajuster les poses V2 pour ouvrir l'outil d’ajustement des poses pour la configuration de l’ajustement des poses. Le processus de configuration global est montré dans la figure ci-dessous.

vision adjust bin poses overall
  1. Sélectionner la stratégie de traitement des poses.

    Comme l’objet cible est un bac profond contenant des objets cibles, veuillez sélectionner l’option Bac.

  2. Transformer les poses.

    Pour sortir la pose du bac dans le repère du robot, veuillez cocher la case devant Transformer la pose dans le repère du robot pour transformer la pose du repère de la caméra vers le repère du robot.

  3. Translater les poses suivant une direction spécifiée.

    Dans le repère du robot, déplacez la pose du bac le long de la direction Z positive et ajustez manuellement la Distance de translation à -285 mm pour déplacer la pose du bac depuis la surface supérieure du bac vers le centre du bac, qui sera utilisé ultérieurement pour mettre à jour le modèle de collision du bac dans Mech-Viz.

    Distance de translation = -1 × 1/2 hauteur du bac
  4. Filtrer par angle.

    Pour réduire le temps nécessaire à la planification de trajectoire ultérieure, les objets cibles qui ne peuvent pas être facilement saisis doivent être filtrés en fonction de l’angle entre l’axe Z de la pose et la direction de référence. Dans ce tutoriel, vous devez définir la Différence angulaire maximale à 90°.

  5. Paramètres généraux.

    Définissez le nombre de nouveaux ports sur 1, et un nouveau port d’entrée et de sortie sera ajouté à l’étape. Connectez le port d’entrée au port de sortie Noms d’objets cibles de l’étape Reconnaissance 3D de l’objet cible et connectez le port de sortie à l’étape Sortie.

Sortir les informations de l’objet

Utilisez l’étape Sortie pour envoyer le point central de l’objet, le nuage de points prétraité, le nom de l’objet cible, le nom du bac, la pose du bac, etc., à Mech-Viz pour la planification de trajectoire.

Planification de trajectoire

Une fois la reconnaissance de l’objet cible terminée, vous pouvez utiliser Mech-Viz pour planifier une trajectoire puis écrire un programme robot pour la prise des objets cibles.

Le processus de configuration de la planification de trajectoire est montré dans la figure ci-dessous.

viz overall

Configurer les objets de scène

Les objets de scène sont introduits pour rendre la scène dans le logiciel plus proche du scénario réel, ce qui facilite la planification de trajectoire du robot. Pour des instructions détaillées, veuillez vous référer à Configurer les objets de scène.

Pour garantir une prise efficace, les objets de scène doivent être configurés de manière à représenter précisément l’environnement opérationnel réel. Les objets de scène dans cette solution sont configurés comme montré ci-dessous.

viz scene objects configuration effect

Configurer l’outil du robot

L’outil terminal doit être configuré afin que son modèle puisse être affiché dans la zone de simulation 3D et utilisé pour la détection de collisions. Pour des instructions détaillées, veuillez vous référer à Configurer l’outil.

  • Pour gagner du temps lors de la création d’un modèle de collision pour l’outil terminal, il n’est pas toujours nécessaire que les coques convexes que vous créez reproduisent chaque détail du modèle original. Vous pouvez omettre certains détails en fonction des exigences spécifiques du modèle.

  • Pour les parties qui sont en contact direct avec l’objet cible lors de la prise, il est important de reproduire fidèlement leurs formes afin de garantir la précision de la détection de collisions. Pour les structures mécaniques plus éloignées du point de préhension (objet cible), la conception peut être simplifiée en utilisant des coques convexes cuboïdes au lieu de conceptions structurelles complexes pour améliorer l’efficacité. La figure ci-dessous montre le modèle original à gauche et le modèle simplifié à droite.

    viz end tool configuration effect

Ajuster le flux de travail

Le flux de travail correspond au programme de contrôle de mouvement du robot créé dans Mech-Viz sous forme d’organigramme. Après la configuration des objets de la scène et des outils d’extrémité, vous pouvez ajuster le flux de travail du projet selon les exigences réelles. L’organigramme du traitement logique lors de la préhension de l’objet cible est illustré ci-dessous.

viz adjust workflow overall

Des exemples de préhension réussie par le robot sont présentés ci-dessous:

  1. Saisir sur la face avant de l’objet cible avec l’avant de l’outil:

    viz normal picking 1
  2. Saisir sur l’angle de l’objet cible avec l’avant de l’outil:

    viz normal picking 2
  3. Saisir sur la face avant de l’objet cible avec un côté de l’outil:

    viz normal picking 3
  4. Saisir sur le côté de l’objet cible avec un côté de l’outil:

    viz normal picking 4

Lorsque la communication via Interface standard est utilisée, le flux de travail du projet est présenté ci-dessous.

viz adjust workflow non master

Simuler et tester

Cliquez sur le bouton Simuler dans la barre d’outils pour vérifier si le système de vision est correctement configuré en simulant le projet Mech-Viz.

Placez l’objet cible aléatoirement dans le bac et cliquez sur Simuler dans la barre d’outils de Mech-Viz pour simuler la préhension de l’objet cible. Après chaque préhension réussie, l’objet cible doit être réarrangé, et 10 tests de simulation doivent être effectués. Si les 10 simulations aboutissent toutes à des préhensions réussies, le système de vision est correctement configuré.

En cas d’anomalie lors de la simulation, consultez FAQ du déploiement de la solution pour résoudre le problème.

Préhension et dépose par robot

Écrire un programme robot

Si le résultat de la simulation est conforme aux attentes, vous pouvez écrire un programme de prise et de dépose pour le robot ABB.

Le programme d’exemple Programmes d’exemple Kawasaki pour la préhension peut fondamentalement répondre aux exigences de ce cas typique. Vous pouvez modifier le programme d’exemple. Pour une explication détaillée des programmes d’exemple Kawasaki pour la préhension, veuillez consulter Explication du programme d’exemple.

Instructions de modification

Sur la base du programme d’exemple, veuillez modifier les fichiers du programme en suivant ces étapes:

  1. Définissez le TCP.

    Avant modification Après modification (exemple)
      TOOL gripper ;set TCP
      point tcp1 = trans(0,37.517,390.13,-15,0,0)
      TOOL tcp1 ;set TCP
  2. Définissez le port DO pour ajouter la logique de contrôle de l’outil afin d’initialiser l’état de l’outil.

    Avant modification Après modification (exemple)
      /
      signal 10,-9;set do off
  3. Spécifiez l’adresse IP et le numéro de port de l’IPC. Modifiez l’adresse IP et le numéro de port dans la commande MM_Init_Socket pour qu’ils correspondent à ceux du système de vision.

    Avant modification Après modification (exemple)
      ;Set ip address of IPC
      call mm_init_skt(127,0,0,1,50000)
      ;Set ip address of IPC
      call mm_init_skt(128,1,1,2,60000)
  4. Déclenchez l’exécution du projet Mech-Viz, passez à la branche 2 pour réinitialiser les enregistrements de palettisation, puis passez à la branche 1 pour démarrer la reconnaissance visuelle. Déterminez ensuite s’il est nécessaire d’utiliser la branche 2 pour la reconnaissance visuelle en fonction du code d’état indiquant si la trajectoire planifiée a été obtenue avec succès depuisMech-Viz.

    Avant modification Après modification
      ;Run Viz project
      call mm_start_viz(1,#start_viz) ;(2,#start_viz) used for ETH viz initial position
      twait 0.1
      ;set branch exitport
      ;call mm_set_branch(1,1)
      ;get planned path
      call mm_get_vizdata(2,pos_num,vispos_num,ret1)
      ;Init Palletizing
      CALL mm_start_viz(2,#start_viz);(2,#start_viz) used for ETH viz initial position
      TWAIT 0.1
      call mm_set_branch(7,2);init Palletizing
      TWAIT 0.1
      CALL mm_start_viz(2,#start_viz);(2,#start_viz) used for ETH viz initial position
      TWAIT 0.1
      call mm_set_branch(7,1)
     10 CALL mm_get_vizdata(1,pos_num,vispos_num,ret1)
  5. Déplacez le robot le long de la trajectoire planifiée jusqu’au point de prise, et définissez le port DO pour ajouter un signal de fermeture de la pince afin de saisir l’objet cible.

    Avant modification Après modification (exemple)
      ;follow the planned path to pick
      for count =1 to pos_num
        speed speed[count]
        LMOVE movepoint[count]
        if count == vispos_num then
            ;add object grasping logic here
      ;follow the planned path to pick
      JMOVE #movepoint[1]
      JMOVE #movepoint[2]
      JMOVE #movepoint[3]
      JMOVE #movepoint[4]
      LMOVE #movepoint[5]
      BREAK
      signal 9,-10;set do on
      TWAIT 0.2
      LMOVE #movepoint[6]
      JMOVE #movepoint[7]
      JMOVE #movepoint[8]
  6. Déclenchez le projet Mech-Viz et passez à la branche 1 pour capturer des images à l’avance.

    Avant modification Après modification
      /
      CALL mm_start_viz(2,#start_viz);(2,#start_viz) used for ETH viz initial position
      TWAIT 0.1
      call mm_set_branch(7,1)
  7. Déplacez le robot vers le point de dépose.

    Avant modification Après modification
      /
    ;go to drop location
        JMOVE #movepoint[9]
        JMOVE #movepoint[10]
        break
        twait 0.2
        JMOVE #movepoint[11]
  8. Définissez le port DO pour effectuer la dépose. Notez que la commande DO doit être définie en fonction du numéro de port DO réel utilisé sur site.

    Avant modification Après modification (exemple)
      ;add object releasing logic here
      signal 10,-9;set do on
  9. Insérez l’instruction de boucle pour un cycle de prise et de dépose.

    Avant modification Après modification (exemple)
      /
      JMOVE #camera_capture;move to camera_capture position
      GOTO 10

Référence : programme d’exemple modifié

.PROGRAM vision_sample_2()
;---------------------------------------------------------
;* FUNCTION:simple pick and place with Mech-Viz
;* mechmind
;---------------------------------------------------------
  accuracy 1 always
  speed 30 always
  point tcp1 = trans(0,37.517,390.13,-15,0,0)
  TOOL tcp1 ;set TCP
  signal 10,-9;set do off
  Home ;move robot home position
  JMOVE camera_capture ;move to camera_capture position
  break
  pos_num = 0
  ;Set ip address of IPC
  call mm_init_skt(128,1,1,2,60000)
  twait 0.1
  ;Set vision recipe
  ;call mm_switch_model(1,1)
  ;Init Palletizing
  CALL mm_start_viz(2,#start_viz);(2,#start_viz) used for ETH viz initial position
  TWAIT 0.1
  call mm_set_branch(7,2);init Palletizing
  TWAIT 0.1
  CALL mm_start_viz(2,#start_viz);(2,#start_viz) used for ETH viz initial position
  TWAIT 0.1
  call mm_set_branch(7,1)
  10 CALL mm_get_vizdata(1,pos_num,vispos_num,ret1)
  if ret1 <> 2100
    halt
  end
  for count=1 to pos_num
    call mm_get_pose(count,&movepoint[count],label[count],speed[count])
  end
  ;follow the planned path to pick
  JMOVE #movepoint[1]
  JMOVE #movepoint[2]
  JMOVE #movepoint[3]
  JMOVE #movepoint[4]
  LMOVE #movepoint[5]
  BREAK
  signal 9,-10;set do on
  TWAIT 0.2
  LMOVE #movepoint[6]
  JMOVE #movepoint[7]
  JMOVE #movepoint[8]
  CALL mm_start_viz(2,#start_viz);(2,#start_viz) used for ETH viz initial position
  TWAIT 0.1
  call mm_set_branch(7,1)

;go to drop location
      JMOVE #movepoint[9]
      JMOVE #movepoint[10]
      break
      twait 0.2
      JMOVE #movepoint[11]
    end
  signal 10,-9;set do on
  JMOVE #camera_capture;move to camera_capture position
  GOTO 10
END

Test de préhension

Pour garantir une production stable dans le scénario réel, le programme d’exemple modifié doit être exécuté pour effectuer un test de préhension avec le robot. Pour des instructions détaillées, veuillez consulter Tester la communication via Interface standard.

Avant d’effectuer le test de préhension, veuillez enseigner les points de passage suivants.

Nom Variable Description

Point central de l’outil

TCP

Défini par la variable de pose « gripper ». Veuillez utiliser le boîtier d’apprentissage pour l’enseigner.

Position Home

home

La position initiale enseignée. La position initiale doit être éloignée des objets à prélever et des dispositifs environnants, et ne doit pas obstruer le champ de vision de la caméra.

Position de capture d’image

camera_capture

La position de capture d’image enseignée. La position de capture d’image correspond à la position du robot où la caméra capture des images. À cette position, le bras du robot ne doit pas obstruer le FOV de la caméra.

Point de dépose

movepoint[11]

La position pour déposer l’objet cible.

Après l’enseignement, disposez les objets cibles comme montré dans le tableau ci-dessous, et utilisez le robot pour réaliser des tests de prise pour toutes les dispositions à faible vitesse.

Les tests de prise peuvent être divisés en trois phases :

Phase 1 : Test avec un objet cible unique

État de placement de l’objet

Illustration

Objet cible placé dans le sens gauche-droite au milieu du bac

picking test 1

Objet cible placé dans le sens haut-bas au milieu du bac

picking test 2

Objet cible placé verticalement au milieu du bac

picking test 3

L’objet cible est placé dans un coin du bac

picking test 4
picking test 5

Phase 2 : Test d’interférence avec des objets cibles voisins

État de placement de l’objet

Illustration

Objets cibles ajustés étroitement par leurs surfaces courbes l’une contre l’autre au milieu du bac

picking test 6

Objets cibles placés au milieu du bac, avec leurs extrémités étroitement alignées

picking test 7

Phase 3 : Test en scénario réel

État de placement de l’objet

Illustration

Similaire au scénario réel, les objets cibles sont empilés aléatoirement.

picking test 8

Si le robot saisit avec succès l’objet ou les objets cibles dans les scénarios de test ci-dessus, le système de vision peut être considéré comme déployé avec succès.

Cette page est-elle utile ?

Veuillez nous indiquer comment améliorer :

Nous accordons de l’importance à votre vie privée

Nous utilisons des cookies pour vous offrir la meilleure expérience possible sur notre site web. En continuant à utiliser le site, vous reconnaissez accepter l’utilisation des cookies. Si vous refusez, un cookie unique sera utilisé pour garantir que vous ne soyez pas suivi ou reconnu lors de votre visite sur ce site.