Reconnaissance d’objet cible 3D (Positionnement)
Ce tutoriel vous montrera comment localiser avec précision les trous dans la scène de positionnement et d’assemblage. En prenant le projet « Reconnaissance d’objet cible 3D (Positionnement) » comme exemple, cette section explique comment ajuster les paramètres de l’étape Reconnaissance d’objet cible 3D et met en avant les points clés à considérer pour une application pratique.
| Scénario d’application | Résultat de la reconnaissance |
|---|---|
|
|
Ce qui suit présente les directives d’application pour le projet d’exemple et les points clés à prendre en compte pour une mise en œuvre pratique.
Guide d’application
Dans la bibliothèque de solutions de Mech-Vision, vous pouvez trouver la solution « Reconnaissance d’objet cible 3D (Positionnement) » dans la catégorie « Localisation 3D » des « Exemples pratiques » et créer la solution avec un projet « Reconnaissance d’objet cible 3D (Positionnement) ». Ensuite, sélectionnez l’étape Reconnaissance d’objet cible 3D puis cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape pour ouvrir l’« Outil de reconnaissance d’objet cible 3D » et apprendre à ajuster les paramètres. Le flux de travail comprend trois processus, à savoir le prétraitement du nuage de points, la sélection et la reconnaissance de l’objet cible, et les paramètres généraux.
-
Prétraitement du nuage de points : Utilisez ce processus pour convertir les données d’image acquises en nuages de points, définir une région de reconnaissance valide, détecter les nuages de points de bord et filtrer les nuages de points qui ne répondent pas aux exigences. Ce processus peut aider à améliorer la précision de reconnaissance du processus suivant.
-
Sélection et reconnaissance de l’objet cible : Après avoir créé le modèle de l’objet cible et les points de prise, décidez s’il faut configurer le paquet de modèle d’apprentissage profond et ajustez les paramètres de reconnaissance de l’objet cible en fonction de la stratégie de reconnaissance visuelle utilisée. Assurez-vous que les paramètres configurés répondent aux exigences de précision opérationnelle afin que la solution de reconnaissance d’objets puisse reconnaître les objets cibles de manière stable et précise.
-
Paramètres généraux : Configurez les ports de sortie dans ce processus en sélectionnant les données pour les points de prise ou les points centraux de l’objet en fonction des exigences des tâches de prélèvement ultérieures.
Ce qui suit présente les principaux paramètres à ajuster dans chaque processus.
Prétraitement du nuage de points
-
Définir la région de reconnaissance.
Définissez une région de reconnaissance (ROI 3D). La région doit couvrir entièrement l’objet cible, avec un peu d’espace supplémentaire autour de l’objet cible dans la région.
-
-
Activer Afficher plus de paramètres.
-
Ajuster le paramètre sous Filtre de points : définir l'Angle polaire maximal sur 70° pour filtrer le bruit.
-
Activer Supprimer le bruit par regroupement, et définir Nombre minimal de points par cluster sur 300 afin de réduire le nombre de clusters en sortie.
-
Après cela, cliquez sur le bouton Suivant pour accéder à la page « Sélection et reconnaissance de l’objet cible ».
Sélection et reconnaissance de l’objet cible
Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points de l’objet cible dans l’éditeur d’objet cible, puis définir les paramètres de correspondance pour l’appariement du modèle de nuage de points.
-
Créer un modèle d’objet cible.
Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur. Dans ce scénario, l’exigence de précision est élevée ; vous devez donc définir les points de prise en déplaçant le robot manuellement. Après cela, cliquez sur le bouton Enregistrer pour revenir à l’interface de l'« Outil de reconnaissance d’objet cible 3D », puis cliquez sur le bouton Mettre à jour l’objet cible pour sélectionner le modèle d’objet cible créé et l’appliquer afin de reconnaître les poses des objets cibles.
-
Définir les paramètres liés à la reconnaissance d’objet.
Les instructions suivantes concernant l’ajustement des paramètres sont données à titre indicatif uniquement. Veuillez ajuster chaque paramètre en fonction de la situation sur site. -
Ajuster les paramètres de Correspondance grossière et Correspondance fine : pour améliorer la précision de la reconnaissance, définissez le Mode de performance de Correspondance grossière et Correspondance fine sur Haute précision.
-
Sorties max sous « Sortie » : généralement, il n’y a qu’un seul objet cible dans la scène ; la valeur de ce paramètre doit donc être définie sur 1. Veuillez ajuster la valeur de ce paramètre en fonction des exigences sur site.
-
Après ce qui précède, cliquez sur le bouton Suivant pour accéder à la page des paramètres généraux et configurer les ports de sortie.
Paramètres généraux
Après la reconnaissance de l’objet cible, vous pouvez configurer des fonctions auxiliaires autres que la reconnaissance visuelle. Actuellement, seule la configuration des sorties de port est prise en charge, ce qui peut fournir des résultats de vision et des nuages de points pour les étapes suivantes.
Comme les étapes suivantes traiteront les points de prise, sélectionnez Port(s) lié(s) au point de prise sous Sélectionner un port. Puis sélectionnez l’option Nuage de points original acquis par la caméra, et les données de nuage de points en sortie seront utilisées pour la détection des collisions dans la planification de trajectoire.
| S’il y a d’autres besoins sur site, configurez les ports de sortie correspondants en fonction des besoins réels. |
Vous avez maintenant ajusté les paramètres pertinents. Cliquez sur le bouton Enregistrer pour enregistrer les modifications.
Principales considérations pour l’application
Dans les applications réelles, vous devez comprendre et considérer ce qui suit, puis ajouter l’étape Reconnaissance d’objet cible 3D à votre projet et connecter les ports de données pour reconnaître rapidement et précisément les poses des objets cibles.
-
L’étape « Reconnaissance d’objet cible 3D » est généralement utilisée conjointement avec l’étape Capture d’images depuis la caméra. Cette étape est adaptée aux scénarios de chargement de pièces. Elle est capable de reconnaître des pièces de différentes formes et méthodes d’empilage, y compris des dispositions séparées, un empilage ordonné en une seule couche, un empilage ordonné en plusieurs couches et un empilage aléatoire.
-
L’étape « Reconnaissance d’objet cible 3D » est généralement suivie d’une étape de correction de pose, telle que l’étape Ajuster les poses V2.
Ce projet d’exemple vise à montrer comment identifier avec précision les poses des objets cibles lorsqu’ils sont soigneusement disposés; il omet donc le processus de correction de pose.

