Améliorer la précision de reconnaissance

Vous consultez actuellement la documentation pour la dernière version (2.1.2). Pour accéder à une autre version, cliquez sur le bouton "Changer de version" situé dans le coin supérieur droit de la page.

■ Si vous n’êtes pas sûr de la version du produit que vous utilisez, veuillez contacter le support technique Mech-Mind pour obtenir de l’aide.

Les erreurs de reconnaissance visuelle reflètent la précision et la répétabilité de la reconnaissance du projet de vision.

Si le projet de vision utilise des algorithmes d'« appariement 3D » pour la reconnaissance, se référer à Améliorer la précision de l’appariement 3D pour améliorer la précision de reconnaissance du projet.

Si le projet de vision utilise des algorithmes d'« apprentissage profond » pour la reconnaissance, se référer à Améliorer l’effet de l’inférence par apprentissage profond pour améliorer la précision de reconnaissance du projet.

Améliorer la précision de l’appariement 3D

Vous pouvez améliorer la précision de l’appariement 3D de la manière suivante:

  • Garantir la qualité du nuage de points de la caméra.

  • Garantir la précision des modèles de nuage de points et des paramètres des points de préhension.

  • Vérifier les paramètres de l’algorithme d’appariement.

Garantir la qualité du nuage de points de la caméra

Si vous avez vérifié la qualité du nuage de points de la caméra lors de l’étape « Configuration matérielle du système de vision », vous pouvez passer cette section.

Si la qualité du nuage de points de la caméra n’a pas été vérifiée, se référer à Vérifier la qualité du nuage de points de la caméra.

Garantir la précision des modèles de nuage de points et des paramètres des points de préhension

Garantir la qualité du modèle de nuage de points

Lors de la génération du modèle de nuage de points à partir d’images capturées par une caméra, prêter attention aux exigences suivantes:

  • Choisir le bon type de modèle: Lorsque l’objet cible est plat mais présente des caractéristiques de bord claires et fixes dans les images (comme des panneaux, des patins de chenille, des bielles, des disques de frein, etc.), il est recommandé d’utiliser un modèle de contour. Lorsque la surface de l’objet cible comporte de nombreuses ondulations (comme des vilebrequins, des rotors, des barres d’acier, etc.), il est recommandé d’utiliser un modèle de surface.

  • Supprimer le bruit: Le bruit dans le nuage de points utilisé pour créer le modèle peut entraîner une reconnaissance incorrecte. Par conséquent, conserver uniquement le nuage de points de l’objet cible et supprimer les autres bruits.

Lors de la génération du modèle de nuage de points à partir de fichiers STL importés, définir correctement les unités du modèle. Sinon, la mise en correspondance du modèle échouera systématiquement.

S’assurer que les points de préhension sont correctement définis

Mech-Vision vous permet d’ajouter un point de préhension au modèle de nuage de points en utilisant soit la méthode de glisser-déposer, soit la méthode d’enseignement.

Pour les scénarios où l’exigence de précision est relativement élevée, les orientations des pièces sont relativement cohérentes, et l’erreur de TCP du robot est difficile à évaluer, il est recommandé d’utiliser la méthode d’enseignement.

Lors de l’utilisation de la méthode d’enseignement pour ajouter des points de préhension, noter les points suivants:

  • Veuillez sélectionner la bonne convention des angles d’Euler lors de la saisie de la pose de bride du point de préhension.

  • Veuillez prêter attention à la longueur des données lors de la saisie de la pose de bride du point de préhension. Le format de la pose de bride lue depuis le boîtier d’enseignement doit être cohérent avec celui de l’interface de l’éditeur de poses. Si la pose de bride utilise des angles d’Euler, vous devez saisir 6 données; si elle utilise des quaternions, vous devez saisir 7 données.

  • Pour un robot à 7 axes, la pose de bride affichée sur le boîtier d’enseignement et celle dans le logiciel doivent, de manière cohérente, soit inclure, soit exclure la valeur du septième axe.

Améliorer l’effet de l’inférence par apprentissage profond

Améliorer l’effet de l’inférence par apprentissage profond de la manière suivante:

  • Améliorer la qualité des images 2D. Les images 2D utilisées pour l’entraînement du modèle profond doivent répondre aux exigences suivantes:

    • S’assurer que les images sont exemptes de situations de surexposition et de sous-exposition.

    • S’assurer que les couleurs des images se rapprochent fidèlement des objets réels, sans aucun problème de distorsion des couleurs.

    • Capturer une quantité suffisante d’images et assurer la diversité des types d’images.

      Pour davantage d’exigences relatives aux images, se référer à Acquérir des données d’images pour l’apprentissage profond.

  • Itérer le modèle. Après une certaine période d’utilisation, vous pouvez constater que le modèle entraîné peut ne pas s’appliquer à certains scénarios. Vous pouvez itérer le modèle en affinant le modèle pour améliorer la précision du modèle.

  • Ajuster les paramètres d’apprentissage profond. En ajustant les paramètres d’apprentissage profond, vous pouvez obtenir le meilleur effet d’inférence d’apprentissage profond. Pour des détails, se référer à la description des paramètres de l’étape « Inférence du paquet de modèle d’apprentissage profond ».

Cette page est-elle utile ?

Veuillez nous indiquer comment améliorer :

Nous accordons de l’importance à votre vie privée

Nous utilisons des cookies pour vous offrir la meilleure expérience possible sur notre site web. En continuant à utiliser le site, vous reconnaissez accepter l’utilisation des cookies. Si vous refusez, un cookie unique sera utilisé pour garantir que vous ne soyez pas suivi ou reconnu lors de votre visite sur ce site.