피킹 정확도에 관한 소개

현재 버전 (2.0.0)에 대한 매뉴얼을 보고 계십니다. 다른 버전에 액세스하려면 페이지 오른쪽 상단 모서리에 있는 '버전 전환' 버튼을 클릭하세요.

■ 최신 버전의 소프트웨어를 사용하려면 Mech-Mind 다운로드 센터를 방문하여 다운로드하세요.

■ 현재 사용하고 있는 제품의 버전이 확실하지 않은 경우에는 언제든지 당사 기술 지원팀에 문의하시기 바랍니다.

이 부분 내용의 목적은 피킹 정확도의 개념을 설명하고 피킹 오차로 이어질 수 있는 다양한 원인을 자세히 설명하며 오차에 대한 몇 가지 일반적인 오해를 명확히 하는 것입니다.

피킹 정확도 소개

피킹 정확도에 대해 자세히 소개하기 전에 진도, 정밀도, 정확도라는 세 가지 헷갈리기 쉬운 개념을 명확히 설명합니다.

ISO 5725 표준을 참조하여 이 세 가지 개념은 다음과 같이 정의됩니다.

  • 진도(trueness): 측정 결과의 예상값이 참값 또는 실제 값에 얼마나 가까운지, 즉 측정 결과가 실제 값과 얼마나 정확하게 일치하는지를 나타내는 것입니다.

  • 정밀도(precision): 일정한 측정 조건에서 여러 번 반복하여 수행한 측정 결과들이 얼마나 일치하는지를 나타냅니다. 정밀도는 임의 오차(random error)에 따라 달라지며 참값이나 지정된 값과 무관합니다. 일반적으로 테스트 결과의 표준 편차(standard deviation)를 사용하여 측정됩니다.

  • 정확도(accuracy): 측정값이 목푯값과 가까운 정도를 나타냅니다. 일련의 테스트에서 정확도가 사용되는 경우에는 임의 오차뿐만 아니라 시스템 오차 또는 편차도 포함됩니다. 따라서 정확도는 진도와 정밀도의 조합으로 볼 수 있습니다.

다음 그림은 세 가지 개념 간의 관계를 보여줍니다.

accuracy relationship

3D 비전 가이드 피킹 시나리오에서는 피킹 정확도가 예상되는 피킹 위치가 로봇의 실제 피킹 위치와의 가까운 정도를 나타냅니다. 일반적으로 피킹 오차로 표현됩니다. 실제 프로젝트에서는 애플리케이션에 대한 피킹 정확도 요구 사항, 즉 X/Y/Z 방향에서 허용되는 피킹 오차 범위를 명확하게 정의해야 합니다.

3D 비전 가이드 로봇 피킹의 작업 과정은 다음과 같습니다.

  1. 이미지 캡처: 카메라를 사용하여 이미지를 캡처합니다.

  2. 대상물 인식: 비전 시스템의 처리를 통해 이미지 속의 대상물을 인식합니다.

  3. 피킹 포즈 출력: 비전 시스템은 외부 파라미터를 기반으로 하여 대상물 포즈를 카메라 좌표계에서 로봇 좌표계로 전환시켜 피킹 포즈를 출력합니다.

  4. 대상물 피킹: 로봇은 출력된 피킹 포즈에 근거하여 피킹 작업을 수행합니다.

피킹 과정의 각 단계에서 오차가 발생할 수 있으므로 피킹 오차는 포괄적이며 프로세스 전반에 걸쳐 누적된 다양한 오차 요소로 구성됩니다.

피킹 오차는 주로 다음과 같은 측면에서 발생합니다.

  • 카메라 오차

  • 로봇 오차

  • 외부 파라미터 오차

  • 비전 오차

  • 충돌, 불안정한 장착 방식 등으로 인한 기타 오차

다음 부분에서는 각 오차의 개념, 오차가 나타나는 원인, 피킹 정확도에 어떤 영향을 미치는지 자세히 설명합니다.

오차가 나타나는 원인

카메라 오차

카메라 오차는 카메라 자체의 정확성을 반영합니다. 카메라 정확도에는 주로 카메라 절대 정확도와 카메라 반복 정밀도가 포함됩니다.

카메라 절대 정확도

카메라 절대 정확도(캘리브레이션의 정확도라고도 함)는 측정된 값과 시야 내 두 지점 간 거리의 실제 값 사이의 가까운 정도를 나타냅니다.

측정 방법: 측정을 위한 세라믹 배트(bat) 표준 측정 도구를 사용하고 획득한 포인트 클라우드를 기반으로 구면을 맞춰 볼 중심 좌표와 볼 중심 거리를 계산하고 볼 중심 거리의 측정값과 실제 값을 비교할 수 있습니다. 3D 공간의 7개 위치에 배트(bat)를 배치하고 볼 중심 거리를 맞춥니다. 볼 중심 거리 오차의 중앙값 및 최댓값은 절대 정확도로 계산됩니다.

오차는 볼 중심 거리 오차를 볼 중심 사이의 실제 거리로 나눈 값입니다.
camera absolute accuracy measure

Mech-Mind Robotics 카메라의 절대 정확도는 공장에서 출고되기 전에 엄격하게 점검됩니다. 다양한 카메라 모델의 절대 정확도는 기술적 파라미터를 참조하십시오.

다음 요인들은 카메라 절대 정확도에 영향을 미칠 수 있습니다.

  • 하드웨어 문제: 렌즈, 센서 또는 기타 구성 요소의 문제 등 카메라 자체에 결함이 있거나 손상되었을 수 있습니다.

  • 환경 변화: 조명 조건, 온도, 습도 등 환경 요인의 변화는 카메라 성능에 영향을 미쳐 카메라 온도 드리프트 등 절대 정확도 지표가 저하될 수 있습니다.

  • 기계적 변형: 카메라나 장착 프레임의 기계적 구조가 변형되거나 헐거워지면 카메라 위치가 불안정해져서 절대 정확도에 영향을 미칠 수 있습니다.

카메라 반복 정밀도

단일점의 Z방향 반복 정밀도와 구역의 Z방향 반복 정밀도가 포함됩니다.

  • 단일점의 Z방향 반복 정밀도(1σ): 단일한 점의 Z 값에 대해 100번 측정한 후의 1배 표준 편차. Z 방향에서 단일 픽셀의 정확도를 평가하는 데 사용됩니다.

    측정 방법 : 측정 대상은 세라믹 플레이트입니다. 카메라가 열평형이 이뤄진 후 5초 간격으로 세라믹 플레이트의 이미지를 100번 캡처합니다. 각 픽셀에 대한 100개의 측정값의 표준 편차를 계산한 다음 모든 픽셀의 표준 편차의 중앙값을 계산합니다. 이 중앙값은 "단일점의 Z방향 반복 정밀도"로 간주됩니다.

  • 구역의 Z방향 반복 정밀도(1σ): 뎁스 맵에서두 구역의 Z값 평균값에 대해 100번 측정한 후의 1배 표준 편차. 구역의 Z방향 반복 정밀도(1σ)는 Z 방향에서 피팅된 평면의 정확도를 평가하는 데 사용됩니다.

    측정 방법 : 측정 대상은 세라믹 플레이트입니다. 카메라가 열평형이 이뤄진 후 5초 간격으로 세라믹 플레이트의 이미지를 100번 캡처합니다. 매번 각 구역(200*200 픽셀)의 Z값 평균값을 계산하여 두 구역 Z값 평균값의 차이값을 계산합니다. 그 다음 계산된 100개의 차이값에 대해 표준 편차를 계산합니다. 이 표준 편차는 "구역의 Z방향 반복 정밀도"로 간주됩니다.

    실제 3D 비전 가이드 애플리케이션에서 단일점의 Z방향 반복 정밀도가 더 중요합니다.

반복 정밀도에 영향을 미칠 수 있는 주요 요인이 다음과 같습니다.

  • 작업 거리: 거리가 클수록 반복 정밀도는 더 빨리 감소합니다.

  • 하드웨어 문제: 렌즈, 센서 또는 기타 구성 요소의 문제 등 카메라 자체에 결함이 있거나 손상되었을 수 있습니다.

  • 환경 변화: 조명 조건, 온도, 습도 등 환경 요인의 변화는 카메라 성능에 영향을 미쳐 카메라 온도 드리프트 등 반복 정밀도 지표가 저하될 수 있습니다.

  • 기계적 변형: 카메라나 장착 프레임의 기계적 구조가 변형되거나 헐거워지면 카메라 위치가 불안정해져서 반복 정밀도에 영향을 미칠 수 있습니다.

카메라의 온도 드리프트

카메라의 온도 드리프트는 온도 변화로 인해 카메라 내부 부속품의 열 변형으로 인해 카메라 포인트 클라우드가 드리프트되는 현상을 말합니다. 카메라 온도 드리프트는 다음 요인으로 인해 발생할 수 있습니다.

  • 카메라 내부 부속품의 응력 변형, 손실 또는 노화.

  • 온도, 습도와 압력 등 외부 환경의 변화.

온도 드리프트는 포인트 클라우드의 X/Y/Z 값을 영향을 미치며 결국은 카메라의 반복 정밀도와 절대 정확도에 영향을 미칩니다.

온도 드리프트의 분류

온도 변화의 원인에 따라 온도 드리프트는 워밍업 드리프트(Warm-up Drift)와 환경 열 드리프트(Environmental Thermal Drift)의 두 가지 범주로 나눌 수 있습니다.

  • 워밍업 온도 드리프트(Warm-up Drift)는 콜드 부트 프로세스 중 3D 카메라의 온도 변화로 인해 발생하는 포인트 클라우드 드리프트를 의미합니다.

  • 환경 열 온도 드리프트(Environmental Thermal Drift)는 온도, 습도와 같은 환경 조건의 변화로 인해 발생하는 포인트 클라우드 드리프트를 의미합니다.

아래 그림은 LSR L 카메라의 일반적인 워밍업 드리프트(Warm-up Drift) 곡선을 보여줍니다. 세로 축은 카메라 캡처 평면의 뎁스 값 변화이고 가로 축은 캡처 횟수입니다. 카메라는 5초마다 한번식 캡처하며, 약 400번(약 33분 뒤) 캡처한 후 열평형이 이뤄집니다. 열 평형이 이뤄지면 뎁스 값이 약 3mm 변합니다.

warmup drift

온도 드리프트에 대한 처리

  • 예열: 부정확한 피킹 문제를 줄이기 위해 핸드-아이 캘리브레이션, 카메라 내부 파라미터 캘리브레이션, 내부 파라미터 보정 또는 기타 보상 파라미터 수정 시 카메라를 예열해야 합니다. 다음 방법 중 하나로 카메라를 예열할 수 있습니다.

    • Mech-Eye Viewer 소프트웨어 또는 Mech-Eye API로 카메라를 연결하여 30분 이상 연속으로 이미지를 획득합니다(고정밀 애플리케이션인 경우, 45분 이상 권장).

    • 카메라의 전원을 켜놓고 40분 이상 대기합니다.

  • 애플리케이션 실행 환경의 온도, 습도 및 압력의 상대적인 안정성을 보장해야 합니다.

  • “시스템 드리프트 자체 보정” 시스템 배치: 카메라 온도 드리프트 문제를 해결할 수 있을 뿐만 아니라 3D 비전 시스템의 신뢰성과 작동 안정성을 보장할 수 있습니다.

카메라 스탠드와 카메라의 설치가 안정하지 못하면 카메라의 절대 정확도와 반복 정밀도에 영향을 미칩니다.

로봇 오차

로봇과 관련된 오차에는 주로 로봇 정확도 자체의 오차와 로봇 모델 파라미터의 오차가 포함됩니다.

로봇 정확도 오차

로봇의 정확도는 로봇의 반복 정밀도와 로봇의 절대 정확도로 구분됩니다.

  • 로봇의 반복 정밀도는 정해진 위치를 로봇이 반복해서 도달할 때, 정해진 그 위치 값에 얼마의 오차를 가지며 도달하느냐를 알려주는 수치입니다.

  • 로봇의 절대 정확도는 로봇이 공간의 한 지점에 도달할 때 목표 위치로부터의 편차를 나타냅니다. 설정된 직선 거리와 실제 이동 거리의 차이를 측정하는 것은 로봇의 절대 정확도를 결정하는 대략적인 방법입니다.

로봇 티치 펜더트에서 이동 경로를 설정하는 애플리케이션(3D 비전 가이드 애플리케이션이 아님)의 경우, 피킹 정확도는 로봇 반복 정밀도에 의해서만 영향을 받습니다. 그러나 3D 비전 가이드 애플리케이션의 경우, 피킹 포즈가 비전 시스템에서 입력되며 피킹 정확도는 주로 로봇 절대 정확도의 영향을 받습니다.

로봇의 절대 정확도를 저하시키는 일반적인 요인은 다음과 같습니다.

  • 로봇 영점 손실.

  • TCP 정확도 오차.

  • 불안정한 로봇 설치 방식.

로봇 영점 손실

로봇의 정확도 문제가 의심된다면 먼저 로봇 각 축의 영점에 옵셋이 있는지 확인하십시오. 로봇 영점은 로봇의 각 축에 있는 엔코더의 영점 위치를 나타냅니다. 영점 옵셋으로 인해 로봇 티치 펜더트에서 각 축의 값과 실제 로봇의 각 축의 각도 사이에 오차가 발생합니다. 로봇 영점이 손실되면 로봇 절대 정확도가 약화됩니다.

로봇 영점은 다음과 같은 경우에서 손실될 수 있습니다.

  • 새 로봇을 구입했을 때 로봇 제조업체에서 로봇 영점 교정을 수행하지 않았습니다.

  • 로봇은 운송 도중 영점이 손실되었습니다.

  • 배터리 전력 부족으로 인해 배터리를 교체했습니다.

  • 로봇의 본체 또는 컨트롤러를 교체했습니다.

  • 엔코더 카운트 데이터가 손실되었니다.

  • 로봇 영점을 잘못 수정했습니다.

TCP 정확도 오차

피킹 애플리케이션에서 로봇 말단에는 일반적으로 진공 그리퍼나 그리퍼와 같은 피킹 tool(말단장치라고 함)이 장착됩니다. 말단장치는 로봇 플랜지의 확장된 부분으로 간주되며 다양한 모양으로 제공될 수 있습니다.

로봇 시스템은 로봇의 TCP(Tool Center Point)(공구중심점)를 기준으로 위치를 ​​정의하고 제어하며, 말단장치에 대한 기준 좌표계를 설정하여 로봇의 제어점을 말단장치로 전환시킵니다.

티치 펜던트에서 로봇의 이동 경로를 설정해야 하는 애플리케이션인 경우, TCP 오차가 있더라도 정상적으로 실행될 수 있습니다. 하지만 3D 비전 가이드 애플리케이션의 경우, 로봇의 이동 경로는 비전 시스템에 의해 제공되므로 TCP 오차는 피킹 오차를 초래할 수 있습니다.

TCP 오차의 주요 원인은 다음과 같습니다.

  • TCP에 대한 정의가 부적확합니다.

  • 말단장치가 단단히 장착되지 않았습니다.

로봇 모델 파라미터 오차

로봇 자체의 정확도 외에도 비전 시스템에서 사용하는 로봇 모델의 정확도도 피킹 정확도에 영향을 미칩니다.

Mech-Viz 프로젝트는 로봇 모델을 사용하여 시뮬레이션 및 경로 계획을 수행합니다. 로봇 모델 생성 시 로봇 파라미터가 부정확하게 설정되면 아래와 같이 소프트웨어의 로봇 포즈와 말단장치 포즈가 실제 로봇과 일치하지 않게 됩니다.

실제 로봇의 포즈 시뮬레이션된 로봇의 포즈

robot parameters verfication difference 1

robot parameters verfication difference 2

또한, 소프트웨어의 로봇 포즈와 말단장치 포즈가 실제 로봇의 포즈와 일치하지 않으면 다음과 같은 문제가 발생할 수도 있습니다.

  • 핸드-아이 캘리브레이션에 잘못된 로봇 포즈가 사용되어 캘리브레이션 결과에 큰 오차가 나타나하거나 캘리브레이션이 실패될 가능성이 있습니다.

  • 비전 시스템에서 로봇에게 틀린 비전 결과를 출력할 가능성이 있습니다.

  • 비전 시스템은 로봇에 잘못된 웨이포인트를 출력하여 부정확한 피킹, 피킹 실패 또는 다른 시나리오 물체와의 충돌을 초래할 가능성이 있습니다.

외부 파라미터 오차

외부 파라미터는 로봇 기준 좌표계와 카메라 기준 좌표계 간의 포즈 변환 관계를 설명합니다. 핸드-아이 캘리브레이션을 통해 외부 파라미터를 얻어야 합니다. 핸드-아이 캘리브레이션 결과의 오차는 바로 카메라 외부 파라미터의 오차입니다.

외부 파라미터 오차가 카메라 오차, 로봇 오차 및 기타 오차가 누적되는 종합적인 오차입니다.

외부 파라미터 오차의 주요 원인은 다음과 같습니다.

  • 포인트 클라우드의 품질

  • 카메라 절대 정확도

  • 로봇 절대 정확도

  • 캘리브레이션 보드의 설치 안정성

  • 캘리브레이션 데이터 수집 시 캘리브레이션 보드가 흔들리는지 여부

외부 파라미터에 큰 오차가 있으면 비전 시스템이 출력하는 피킹 포즈와 피킹 목표 위치 사이에 큰 편차가 발생하여 로봇이 부정확한 피킹을 할 수 있습니다.

비전 인식 오차

비전 인식 오차는 비전 프로젝트의 인식 정확도와 반복 정밀도를 반영합니다.

비전 프로젝트는 일반적으로 인식을 위해 다음 알고리즘을 사용합니다.

  • 3D 매칭: 3D 매칭 알고리즘은 미리 정의된 물체의 3D 모델(포인트 클라우드 모델)과 현장에서 캡처된 포인트 클라우드 데이터(시나리오 포인트 클라우드)를 매칭시켜 3D 공간에서 대상 물체를 정확하게 찾습니다.

  • 딥 러닝: 딥 러닝은 3D 매칭이 효과적이지 않은 경우(예: 빛 반사가 있는 작업물 또는 포인트 클라우드의 곡면 특징이 적은 작업물의 경우) 인식 정확도를 높이는 데 도움이 될 수 있습니다.

  • 3D 매칭 + 딥 러닝: 3D 매칭과 딥 러닝 알고리즘을 사용하면 두 알고리즘의 장점을 결합하여 인식 정확도와 견고성을 향상시킬 수 있습니다. 고정밀도 위치 지정 요구 사항이 있는 시나리오나 포인트 클라우드가 대상 물체에 대한 표면 특징이 부족한 복잡한 시나리오에서, 3D 매칭과 딥 러닝 알고리즘을 결합하면 인식 문제를 보다 효과적으로 해결할 수 있습니다.

비전 인식 오차에 영향을 미치는 요소는 주로 다음 네 가지 측면을 포함합니다.

  • 부적절한 딥 러닝 결과: 딥 러닝 모델의 훈련 품질이나 파라미터 설정이 부적절할 경우 인식 오차가 증가할 수 있습니다.

  • 불합격한 3D 매칭 결과: 3D 매칭 알고리즘의 부정확성 또는 부적절한 매칭 알고리즘 설정으로 인해 3D 공간에서 대상 물체 위치 지정의 정확도가 낮아져 인식 정확도에 영향을 미칠 수 있습니다.

  • 잘못된 포즈 조정 전략: 잘못된 포즈 조정 전략은 비전 시스템에서 대상 물체의 틀린 포즈 추정으로 이어져 인식 정확도와 견고성에 영향을 미칠 수 있습니다. 따라서 정확한 포즈 조정 과정은 고정밀도 위치 지정에 매우 중요합니다.

  • 인식 반복 정밀도 오차: 비전 시스템이 인식 작업을 반복적으로 수행하는 경우, 오차가 누적되거나 반복 정밀도가 부족하면 시스템의 안정성과 신뢰성에 영향을 미칠 수 있습니다. 따라서 장기간 동안 실행되는 시스템에서는 안정적이고 높은 반복 정밀도가 매우 중요합니다.

다음으로 비전 인식 오차에 영향을 주는 요소에 대해 자세히 설명하고자 합니다.

부적절한 딥 러닝 결과

비전 프로젝트에서 부적절한 딥 러닝 결과를 초래하는 요인은 다음과 같습니다.

  • 카메라로 캡처한 2D 이미지의 품질: 캡처한 2D 이미지가 너무 밝거나 어두우면 딥 러닝 추론 효과에 직접적인 영향을 미칩니다. 보통 2D 노출 파라미터를 조정함으로써 이런 문제를 해결할 수 있습니다. 하지만 환경광이 상대적으로 강한 조명 조건에서는 이미지 품질을 향상시키기 위해 음영 조치를 취해야 합니다.

  • 딥러닝 모델의 효과: 훈련을 통해 얻은 딥 러닝 모델의 효과는 딥 러닝 추론 효과에 직접적인 영향을 미칩니다. 선명하고 고품질의 이미지 및 특징을 잘 반영하는 데이터 세트를 사용하여 모델을 훈련시키는 것은 딥 러닝 모델의 효과를 향상시킬 수 있습니다.

  • 딥 러닝 파라미터 설정: 올바른 파라미터 설정은 인스턴스 세그먼테이션의 정확성에 매우 중요한 영향을 미칩니다. 이러한 파라미터를 파인튜닝(fine-tuning)하면 다양한 시나리오에 따라 모델 성능을 조정하여 최고의 딥 러닝 추론 결과를 얻을 수 있습니다. 시스템 실행 과정 속의 변화 사항에 적응하기 위해 파라미터 설정을 정기적으로 검사하고 업데이트하는 것이 좋습니다.

불합격한 3D 매칭 결과

비전 프로젝트에서 불합격한 3D 매칭 결과를 초래하는 요인은 다음과 같습니다.

  • 포인트 클라우드 품질: 포인트 클라우드의 품질이 좋지 않으면 생성되는 포인트 클라우드 모델과 시나리오 포인트 클라우드의 품질에 직접적인 영향을 미치므로 3D 매칭의 정확도가 떨어집니다.

  • 포인트 클라우드 모델과 픽 포인트의 정확도: 표면 모델과 에지 모델은 서로 다른 매칭 정확도를 제공합니다. 표면 모델을 사용하면 매칭의 정확도가 높아지지만, 인식 속도가 느려집니다. 모델을 만들 때 드래그 방법과 티칭 방법을 사용하여 픽 포인트를 추가할 수 있으며 티칭 방법으로 추가된 픽 포인트는 더욱 높은 정확도를 가집니다. 따라서 높은 정확도가 요구되거나 공작물 배치 방향이 상대적으로 일관되고 로봇 TCP 오차를 평가하기 어려운 시나리오에서는 티칭을 통해 픽 포인트를 추가하여 정확도를 높이는 것이 좋습니다.

  • 매칭 알고리즘 설정: 부적절한 매칭 알고리즘 설정은 매칭 효과와 반복 정밀도에 악영향을 끼칠 수 있습니다. 정확한 매칭을 보장하려면(특히 복잡한 시나리오와 공작물 유형을 전환해야 하는 경우) 매칭 알고리즘을 올바르게 선택하고 설정해야 합니다. 또한, 실제 요구 사항을 충족하고 매칭 효과와 시스템 안정성을 향상시키기 위해 적절한 시기에 매칭 알고리즘 파라미터를 조정해야 합니다.

잘못된 포즈 조정 전략

포즈 조정 전략의 적용 가능성은 특정 시나리오에 따라 결정되어야 합니다. 어떤 시나리오에서 잘못된 포즈 조정 전략은 피킹 오차를 초래할 수도 있습니다. 예를 들어, 프로젝트를 구축할 때 작업물이 트레이의 왼쪽에 있다고만 가정하고 작업물이 트레이의 오른쪽에 나타날 가능성을 고려하지 않으면, 피킹 시 오차가 발생할 수 있습니다.

잘못된 포즈 조정 전략을 초래하는 요인은 다음과 같습니다.

  • 종합적인 고려 부족: 포즈 조정 전략을 설계할 때, 작업물의 다양한 위치 변화가 발생할 가능성과 상황 차이에 대한 종합적인 고려가 부족한 경우가 있습니다. 종합적인 고려가 부족한 상황에서 만든 조정 전략은 특정 시나리오에 대한 적응력이 부족할 수 있습니다.

  • 환경 변화에 대한 업데이트 지연: 레이아웃 변경, 장비 교체, 작업물 배치 변경 등으로 인해 작업 환경이 변경될 수 있습니다. 포즈 조정 전략은 이러한 변경 사항을 반영하도록 즉시 업데이트되지 않으면, 전략이 비효과적이고 새로운 작업 시나리오에 정확하게 적응할 수 없게 될 수 있습니다.

  • 유연성 부족: 일부 포즈 조정 전략은 너무 엄격하게 경직되어 작업물 위치의 다양성을 수용할 수 있는 유연성이 부족할 수 있습니다. 유연성이 부족한 포즈 조정 전략은 쉽게 오차를 초해할 수 있습니다.

포즈 조정 전략의 정확성을 보장하기 위해 작업물의 위치 변화 가능성을 종합적으로 고려하고 다양한 작업 시나리오에 적응하도록 적절한 시기에 전략을 조정하고 업데이트해야 합니다. 다양한 시나리오에서 정확한 조정을 보장하고 오류율을 최소화하기 위해 포즈 조정 알고리즘 설정을 정기적으로 검사하고 최적화해야 합니다.

인식 반복 정밀도 오차

인식 반복 정밀도는 비전 프로젝트의 안정성을 위한 중요한 벤치마크이며 다양한 요인의 영향을 받습니다. 구체적으로 다음과 같습니다.

  • 포인트 클라우드 처리: 조명 환경, 공작물의 재료 특성, 주변 물체의 반사 특성은 공작물 포인트 클라우드의 효과에 큰 영향을 미칩니다. 포인트 클라우드 처리의 견고성을 높이려면 다양한 조명 조건과 물체 표면 특성을 종합적으로 고려하고 조정하여 반복 정밀도 오차를 줄여야 합니다.

  • 하드웨어: 카메라 하드웨어에 대한 온도의 영향은 카메라의 내부 파라미터 및 외부 파라미터와 포즈 변환의 정확성에 영향을 미칩니다. 따라서 온도 변화를 관리하고 내부/외부 파라미터를 적절한 시기에 조정하는 것은 시스템 안정성을 확보하는 중요한 기반입니다.

  • 비전 인식 방안 선택: 인스턴스 세그먼테이션 사용 여부, 매칭 알고리즘 선택, 매칭 파라미터 설정, 픽 포인트 설정은 모두 시스템의 안정성에 직접적인 영향을 미칩니다. 특별한 작업 시나리오에 적합한 비전 인식 방안을 합리적으로 선택하고 매칭 파라미터를 최적화하는 것은 시스템이 다양한 작업 상황에 더 잘 대처하는 데 도움이 됩니다.

  • 논리 판단 및 문제 예방: 논리적 판단과 문제 예방의 결합도 중요합니다. 잘못된 논리적 판단이나 문제 예방 기능은 시스템이 비정상적인 상황을 부적절하게 처리하게 하여 전반적인 안정성에 영향을 줄 수 있습니다.

따라서 비전 프로젝트의 안정성을 향상시키려면 포인트 클라우드 처리, 포즈 조정, 비전 인식 방안 선택 및 논리 판단 등 면에서 종합적으로 고려하고 방안을 설계해야 합니다. 이렇게 해야만 인식 반복 정밀도 오차를 낮추고 시스템이 다양한 작업 환경에서도 안정적으로 실행될 수 있도록 합니다.

기타 오차

불안정한 카메라 장착으로 인해 발생하는 오차

이러한 오차는 비전 시스템의 가장 일반적인 오차 중 하나입니다. 카메라와 장착 프레임이 단단히 장착되지 않은 경우, 로봇의 움직임이나 주변의 진동으로 인해 카메라가 흔들리고 영상 품질에 영향을 줄 수 있습니다. 또한 이러한 문제는 카메라의 절대 정확도와 반복 정밀도에 직접적인 영향을 미칩니다.

이러한 오차를 방지하려면 "비전 시스템 하드웨어 설정" 단계에서 카메라와 장착 프레임을 단단히 장착하여 구조가 견고한지 확인해야 합니다.

불안정한 로봇 설치로 인해 발생하는 오차

로봇이 불안정하게 설치되면 시스템 오차가 발생할 수 있습니다. 로봇 베이스가 불안정하면 이동 시 로봇이 흔들려 로봇의 반복 정밀도와 절대 정확도에 영향을 미칩니다.

이러한 오차를 방지하려면 "비전 시스템 하드웨어 설정" 단계에서 로봇의 설치 위치와 구조를 조정하여 견고성을 확보해야 합니다.

하드웨어 변형

하드웨어 변형의 영향도 고려해야 합니다. 생산 과정에서 카메라, 로봇 말단장치, 카메라 장착 프레임과 같은 하드웨어 구성 요소가 충돌로 인해 변형되어 카메라, TCP 또는 피킹의 정확성에 영향을 미칠 수 있습니다.

하드웨어 변형으로 인한 오차를 방지하려면 하드웨어 구성 요소의 무결성을 즉시 확인하고 변형이 감지되면 교체하거나 수리하십시오. 생산 공정 전반에 걸쳐 하드웨어 구성 요소를 정기적으로 검사하고 유지 관리하는 것은 시스템 안정성을 보장하는 중요한 일환입니다.

피킹 정확도에 대한 주의사항

피킹 정확도를 더 잘 이해하려면 다음 주의사항을 숙지하십시오.

  • 일반적으로 피킹 오차로 표시되는 피킹 정확도는 로봇의 실제 피킹 위치가 예상 피킹 목표 위치에 얼마나 가까운지를 나타냅니다.

  • 피킹 오차는 다양한 피킹 단계에서 오차의 누적 효과를 포함하며 피킹 정확도를 직접적으로 반영합니다.

  • 전체 피킹 오차가 프로젝트의 정확도 요구 사항을 충족하도록 이러한 오차를 수정하여 시스템을 최적화해야 합니다.

  • 오차를 수정하는 목표는 오차를 모두 없애는 것이 아니라 프로젝트의 요구 사항을 충족하기 위한 것입니다. 예를 들어, 작업물 인식 과정에 문제가 없다면 모든 포인트 클라우드를 캡처할 필요가 없습니다.

  • 실제 응용에서는 오차를 완전히 없앨 수는 없지만 오차를 합리적인 수준으로 줄이기 위한 적절한 조치를 취할 수 있습니다. 만약 오차가 이미 합리적인 수준에 있으면, 문제를 포괄적으로 재평가할 필요가 없습니다.

  • 오차가 발견되더라도 완전히 수정될 수는 없는 경우가 많습니다. 예를 들어 일부 로봇의 DH 파라미터 관련 오차는 파라미터를 수정하여 해결할 수 있지만 모든 로봇 제조업체가 이런 수정 방법을 지원하는 것은 아닙니다.

저희는 귀하의 개인 정보를 소중하게 생각합니다.

당사 웹사이트는 귀하에게 최상의 경험을 제공하기 위해 쿠키를 사용합니다. "모두 수락"을 클릭하시는 경우, 귀하는 사의 쿠키 사용에 동의하게 됩니다. "모두 거부"를 클릭하시는 경우, 귀하가 이 웹사이트를 방문할 때 추적되거나 기억되지 않도록 하기 위해 단일 쿠키가 사용됩니다.