3D ビジョンによる把持
- 認識漏れの回避方法は?
-
-
収集したデータが十分かを確認します。
-
認識対象物を全部ラベル付けたかを確認します。
-
- シャフトロッドモデルの認識ミスを削減する方法は?
-
-
画像の品質を改善します。カメラの 2D 露出パラメータを調整します。
-
ラベル付けの品質を改善します。トレーニングのためにより多くの画像を使用し、漏れないようラベル付けを精確に実行します。
-
改めてモデルをトレーニングします。
-
- Mech-DLK でサイズの小さいワークの高精度なインスタンスセグメンテーションモデルのトレーニング方法は?
-
複雑なシーンに対しては、モジュールを接続してデータを段階的に処理します。3D ビジョンによるクランクシャフト供給をご参照ください。
- ワークの裏表を識別するモデルのトレーニング方法は?
-
-
インスタンスセグメンテーションモデルをトレーニングします。画像にある全てのワークを分割します。
-
画像分類モデルをトレーニングします。分割されたワークに「裏」または「表」とラベル付けします。
元画像のワークの裏表が容易に区別できた場合、インスタンスセグメンテーションモデルを使用し、ラベルを作成してワークを分割、ラベル付けすることができます。
-
- ワークの向きを識別するモデルのトレーニング方法は?
-
-
インスタンスセグメンテーションモデルをトレーニングします。画像にある全てのワークを分割します。
-
対象物検出モデルをトレーニングします。ワークの特徴をマークします。
-
- モデルは継ぎ目が付いた大きめの段ボール箱と密集した 2つの小さめの箱を区別できない場合の対策は?
-
ほとんどの場合、モデルの追加学習を実行すれば問題を解決できます。しかし、人の目でも区別できないほど難しい対象物を処理する場合、追加学習では容易に解決できません。以下の解決策を試してください。
-
特徴を遮蔽します。不透明テープなどを大きめの箱の継ぎ目に貼ります。
-
モデルを別々にトレーニングします。大きめの箱と小さめの箱の画像を別々に収集してトレーニングします。
-
区別しないようにします。例えば、箱の種類を問わず全部小さめの箱と判断するようにします。ただし、こうすると、大きめの箱を正確に把持できないことがあります。一方、箱を全部大きめの箱と判断することもできます。一回に 2つの箱を把持する可能性があります。
-
- コンテナからの把持に、ディープラーニングを適用できますか?
-
できます。ディープラーニングは、複雑な環境でも対象物を正確に認識・位置決めできるほか、様々な照明状況や視角、背景にも対応可能です。ご注意いただきたいのは、トレーニングに使用するデータが実際と大きく異なると、モデルの推論に影響が出ます。また、ディープラーニングを実行するには大量のデータが必要なので、データ量が足りない現場の適用が困難です。
照明が安定しており、ワーク量が少ない現場では、モデルのマッチングや特徴に基づいたマシンビジョンを利用してください。少ないデータ量でもトレーニングできます。トレーニングを実行する必要さえない場合もあります。
十分なテストが必須です。モデルの効果を持続的に確認し、必要に応じて追加学習または再トレーニングを実行してください。