Reconnaissance d’objet cible 3D (objets soigneusement disposés)

Vous consultez actuellement la documentation pour la dernière version (2.1.2). Pour accéder à une autre version, cliquez sur le bouton "Changer de version" situé dans le coin supérieur droit de la page.

■ Si vous n’êtes pas sûr de la version du produit que vous utilisez, veuillez contacter le support technique Mech-Mind pour obtenir de l’aide.

Ce tutoriel vous montrera comment reconnaître avec précision les poses d’objets cibles soigneusement disposés. En prenant le projet « Reconnaissance d’objet cible 3D (objets soigneusement disposés) » comme exemple, cette section explique comment ajuster les paramètres de l’étape Reconnaissance d’objet cible 3D et met en évidence les principales considérations pour l’application pratique.

Scénario d’application Résultat de la reconnaissance

neatly arranged objects

neatly arranged objects effect

Application de l’outil de reconnaissance d’objet cible 3D : objets soigneusement disposés

Ce qui suit présente les consignes d’application pour le projet d’exemple et les principales considérations pour l’application pratique.

Guide d’application

Dans la bibliothèque de solutions de Mech-Vision, vous pouvez trouver la solution « Reconnaissance d’objet cible 3D (objets soigneusement disposés) » dans la catégorie « Localisation 3D » des « Exemples pratiques » et créer la solution avec un projet « Reconnaissance d’objet cible 3D (objets soigneusement disposés) ». Ensuite, sélectionnez l’étape Reconnaissance d’objet cible 3D puis cliquez sur le bouton Assistant de configuration dans le panneau Paramètres de l’étape pour ouvrir outil « Reconnaissance d’objet cible 3D » et apprendre à ajuster les paramètres. Le flux de travail comprend trois processus, c’est-à-dire le prétraitement du nuage de points, la sélection et la reconnaissance de l’objet cible, et les paramètres généraux.

overall process
  1. Prétraitement du nuage de points : Utilisez ce processus pour convertir les données d’image acquises en nuages de points, définir une région de reconnaissance valide, détecter les nuages de points de bord et filtrer les nuages de points qui ne répondent pas aux exigences. Ce processus peut aider à améliorer la précision de reconnaissance du processus suivant.

  2. Sélection et reconnaissance de l’objet cible : Après avoir créé le modèle de l’objet cible et les points de prise, décidez s’il faut configurer le paquet de modèle d’apprentissage profond et ajustez les paramètres de reconnaissance de l’objet cible en fonction de la stratégie de reconnaissance visuelle utilisée. Assurez-vous que les paramètres configurés répondent aux exigences de précision opérationnelle afin que la solution de reconnaissance d’objets puisse reconnaître les objets cibles de manière stable et précise.

  3. Paramètres généraux : Configurez les ports de sortie dans ce processus en sélectionnant les données pour les points de prise ou les points centraux de l’objet en fonction des exigences des tâches de prélèvement ultérieures.

Ce qui suit présente les principaux paramètres à ajuster dans chaque processus.

Prétraitement du nuage de points

  1. Définir la région de reconnaissance.

    Définissez une région de reconnaissance (ROI 3D). La région doit couvrir entièrement l’objet cible, avec un espace supplémentaire autour de l’objet cible dans la région.

  2. Ajuster les paramètres.

    Dans la plupart des cas, conservez les valeurs par défaut de ces paramètres. Si le bruit est encore présent dans le nuage de points de la scène, essayez d’ajuster les paramètres pertinents pour filtrer le bruit.

Aucun autre paramètre n’a besoin d’être ajusté dans ce projet d’exemple. Vous pouvez cliquer sur le bouton Suivant pour passer au processus « Sélection et reconnaissance de l’objet cible » après avoir défini la région de reconnaissance.

Sélection et reconnaissance de l’objet cible

Après le prétraitement du nuage de points, vous devez créer un modèle de nuage de points de l’objet cible dans l’éditeur d’objet cible, puis définir les paramètres d’appariement pour l’appariement du modèle de nuage de points.

  1. Créer un modèle d’objet cible.

    Cliquez sur le bouton Ouvrir l’éditeur d’objet cible pour ouvrir l’éditeur, générer un modèle de nuage de points basé sur des formes 3D courantes. Après cela, cliquez sur le bouton Enregistrer pour revenir à l’interface de l’outil « Reconnaissance d’objet cible 3D », puis cliquez sur le bouton Mettre à jour l’objet cible pour sélectionner le modèle d’objet cible créé et l’appliquer pour reconnaître les poses des objets cibles.

    Vous devez mesurer les dimensions de l’objet cible à l’avance. Lors de la génération d’un modèle de nuage de points basé sur des formes 3D courantes, renseignez le Rayon et la Hauteur de l’objet cible sous Définir les paramètres géométriques dans la fenêtre contextuelle Ajouter un objet cible.
  2. Définir les paramètres liés à la reconnaissance d’objet.

    Les instructions suivantes sur l’ajustement des paramètres sont fournies à titre de référence uniquement. Veuillez ajuster chaque paramètre en fonction de la situation sur site.
    • Activez le Mode avancé sur le côté droit de Reconnaître l’objet cible.

    • Définissez le mode d’appariement : Les anneaux présentent des caractéristiques de bord claires et régulières dans l’image capturée par la caméra, et il n’y a pas d’interférences telles que des cloisons ou des bacs provenant du nuage de points de la scène, et ainsi l’appariement des bords comme l’appariement des surfaces conviennent à cette scène. Pour ce projet, lorsque l’option Mode d’appariement automatique est activée, la précision de reconnaissance peut ne pas répondre aux exigences sur site. Il est donc recommandé de désactiver cette option et d’ajuster manuellement les paramètres concernés.

      Étant donné que l’appariement grossier permet généralement certaines erreurs d’appariement, réglez le Mode d’appariement grossier sur Appariement des bords; si la précision d’appariement ne répond pas aux attentes, comme dans les cas de déviation angulaire, réglez le Mode d’appariement fin sur Appariement des surfaces pour améliorer la précision de reconnaissance.

      auto

      manual

      Mode d’appariement automatique

      Définir manuellement les paramètres concernés

    • Ajustez les paramètres de l’appariement fin : Pour améliorer la précision de reconnaissance, réglez le Mode de performance sur Haute précision. Comme la qualité du nuage de points est élevée, la Capacité de correction de la déviation peut être réglée sur Faible.

    • Définissez le seuil de confiance : Réglez le Seuil de confiance de sorte que les objets placés le plus haut puissent être reconnus. Dans ce projet, lorsque la Stratégie de confiance est définie sur Auto, la précision de reconnaissance peut satisfaire les exigences sur site. Par conséquent, il suffit de définir ce paramètre sur Auto et de définir le Seuil de confiance, qui est par défaut 0.3000.

      Dans la section du résultat de reconnaissance en bas de la fenêtre de visualisation à gauche, sélectionnez Résultat de sortie dans le premier menu déroulant. Les objets cibles dont les valeurs de Confiance de l’appariement des surfaces et de Confiance de l’appariement des bords dépassent le seuil défini seront conservés. Veuillez vérifier le résultat de la reconnaissance selon la situation réelle. S’il y a une fausse reconnaissance ou un faux négatif, augmentez ou diminuez respectivement le seuil.
    • Sortie maximale sous « Sortie » : Définissez la valeur de ce paramètre sur le nombre d’objets cibles lorsque la pile est complète. Dans ce projet, les Sorties maximales sont définies sur 25.

Après ce qui précède, cliquez sur le bouton Suivant pour accéder à la page des paramètres généraux et configurer les ports de sortie.

Paramètres généraux

Après la reconnaissance de l’objet cible, vous pouvez configurer des fonctions auxiliaires autres que la reconnaissance visuelle. Actuellement, seule la configuration des sorties de port est prise en charge, ce qui peut fournir des résultats de vision et des nuages de points pour les étapes suivantes.

Étant donné que les étapes suivantes traiteront les points de prise, sélectionnez Port(s) liés au point de prise sous Sélectionner le port. Ensuite, sélectionnez l’option Nuage de points original acquis par la caméra, et les données de nuage de points de sortie seront utilisées pour la détection de collision dans la planification de trajectoire.

S’il existe d’autres besoins sur site, configurez les ports de sortie pertinents selon les besoins réels.

Maintenant, vous avez ajusté les paramètres pertinents. Cliquez sur le bouton Enregistrer pour enregistrer les modifications.

Principales considérations pour l’application

Dans les applications réelles, vous devez comprendre et considérer ce qui suit, puis ajouter l’étape Reconnaissance d’objet cible 3D à votre projet et connecter les ports de données pour reconnaître rapidement et précisément les poses des objets cibles.

  • L’étape « Reconnaissance d’objet cible 3D » est généralement utilisée conjointement avec l’étape Capture d’images depuis la caméra. Cette étape est adaptée aux scénarios de chargement de pièces. Elle est capable de reconnaître des pièces de différentes formes et méthodes d’empilage, y compris des dispositions séparées, un empilage ordonné en une seule couche, un empilage ordonné en plusieurs couches et un empilage aléatoire.

  • L’étape « Reconnaissance d’objet cible 3D » est généralement suivie d’une étape de correction de pose, telle que l’étape Ajuster les poses V2.

    Ce projet d’exemple vise à montrer comment identifier avec précision les poses des objets cibles lorsqu’ils sont soigneusement disposés; il omet donc le processus de correction de pose.

Cette page est-elle utile ?

Veuillez nous indiquer comment améliorer :

Nous accordons de l’importance à votre vie privée

Nous utilisons des cookies pour vous offrir la meilleure expérience possible sur notre site web. En continuant à utiliser le site, vous reconnaissez accepter l’utilisation des cookies. Si vous refusez, un cookie unique sera utilisé pour garantir que vous ne soyez pas suivi ou reconnu lors de votre visite sur ce site.