비전 프로젝트 구성

이 튜토리얼 내용을 읽기 전에 로봇 통신 구성 단계에서 '고정밀 위치 지정 & 어셈블리' 샘플 프로젝트를 사용하여 솔루션을 생성해야 합니다.

이 튜토리얼에서는 먼저 프로젝트 작업 흐름을 소개한 다음, 대상 물체의 포즈를 인식하고 비전 결과를 출력하도록 스텝 파라미터를 조정하여 프로젝트를 배포하는 방법에 대해 설명하겠습니다.

프로젝트 작업 흐름 소개

이 튜토리얼에서 사용자가 Mech-Vision 소프트웨어를 사용하여 비전 프로젝트을 구성해야 합니다. 비전 프로젝트를 구성하는 방법의 프로세스는 아래 그림과 같습니다.

project workflow

비전 프로젝트 구성의 각각 단계 설명은 다음과 같습니다.

단계 사용하는 소프트웨어 설명

카메라 연결 및 이미지 캡처

Mech-Vision

이미지를 캡처하기 위해 Mech-Vision의 ‘카메라에서 이미지를 캡처하기’ 스텝을 수행합니다.

대상 물체 인식

Mech-Vision

대상 물체의 신속한 인식을 위해 Mech-Vision의 ‘3D 대상 물체 인식’ 스텝을 통해 이미지 데이터에 대해 일련의 비전 처리(포인트 클라우드 사전 처리, 3D 매칭 등)을 진행합니다.

포즈 조정

Mech-Vision

Mech-Vision의 ‘포즈 V2 조정’ 스텝을 통해 ‘‘3D 대상 물체 인식’ 스텝에서 출력된 포즈에 대해 좌표계 전환, 포즈 정렬, 포즈 필터링 등 작업을 수행할 수 있습니다.

대상 물체 포즈 출력

Mech-Vision

로봇(이 튜토리얼에서 사용)이나 PLC에서 표준 인터페이스 명령을 받으면 Mech-Vision의 "출력" 스텝은 비전 결과(대상 물체의 픽 포인트)를 반환합니다.
로봇 통신 구성 및 Mech-Vision 프로젝트 구성이 완료된 후, Mech-Vision이 매번 실행 후 비전 결과를 출력할 수 있습니다.
이럴 때, 로봇 측 에서 Mech-Vision 프로젝트 실행을 트리거하고 Mech-Vision에서 출력한 비전 결과를 획득할 수 있는 표준 인터페이스 명령어가 포함되는 로봇 프로그램을 작성해야 합니다. 구체적인 내용은 ‘픽 앤 플레이스 실현’ 섹션의 설명을 참조하십시오.

스텝 파라미터 조정

이 부분에서는 각 스텝의 파라미터를 조정하여 프로젝트를 배포하는 프로세스를 소개합니다.

이 섹션의 프로젝트는 “고정밀 위치 지정 & 어셈블리” 솔루션 중의 “High-Precision Positioning and Assembly” 프로젝트입니다.

카메라에서 이미지를 캡처하기

스텝 이름

카메라에서 이미지를 캡처하기

단계

카메라 연결 및 이미지 캡처하기

예시 그림

acquire images from camera

설명

실제 카메라에 연결하고 관련 파라미터를 구성하여 카메라가 정상적으로 이미지를 캡처할 수 있도록 합니다.

  1. Mech-Vision 프로젝트 편집 영역에서 카메라에서 이미지를 캡처하기 스텝을 선택하고 오른쪽 하단의 스텝 파라미터 탭에서카메라 선택 버튼을 클릭합니다.

    select camera
  2. 사용할 카메라 및 캘리브레이션 파라미터 그룹 선택 창이 나타나면 카메라 일련번호 오른쪽에 있는 image 아이콘을 클릭합니다. 카메라가 성공적으로 연결되면 이 아이콘이 image로 변경됩니다.

    connect camera

    카메라가 연결된 후, 파라미터 그룹 선택 버튼을 클릭하여 캘리브레이션된 파라미터 그룹(ETH/EIH와 날짜 정보가 표시됨)을 선택합니다.

    select calibration parameter group
    여기서 선택된 캘리브레이션 파라미터 그룹은 핸드-아이 캘리브레이션이 완료된 후 생성된 것입니다.
  3. 카메라를 연결하고 캘리브레이션 파라미터 그룹을 설정하면 카메라 캘리브레이션 파라미터 그룹, IP 주소 및 포트와 같은 파라미터가 자동으로 획득됩니다. 파라미터 그룹 구성 파라미터가 이미 '빛 반사가 있는 물체’로 설정되어 있는지 확인하세요.

    camera other parameters
    • 카메라에서 이미지를 캡처하기 스텝의 단번 실행 버튼을 클릭하여 이미지 캡처를 트리거하고, 스텝의 '카메라 뎁스 맵' 및 '카메라 컬러 이미지' 데이터 스트림을 두번 클릭하고 디버그 출력 창에서 카메라에서 이미지가 성공적으로 캡처되었는지 확인합니다.

      double click data flow line

디버그 출력 창에서 일반적인 뎁스 맵과 컬러 이미지가 보이면 Mech-Vision 소프트웨어가 실제 카메라에 성공적으로 연결되어 정상적으로 이미지를 캡처할 수 있습니다.

confirm image acquire

3D 대상 물체 인식

스텝 이름

3D 대상 물체 인식

단계

대상 물체 인식

예시 그림

target object recognition

설명

포인트 클라우드의 사전 처리 파라미터 설정, 대상 물체 편집기에서 대상 물체 모델 제작 및 대상 물체 선택, 인식 파라미터 설정, 출력 포트 구성이 필요합니다.

‘3D 대상 물체 인식’ 스텝에서 내부 시각화된 3D 대상 물체 인식 도구가 제공되니까 구성 마법사를 통해 3가지 스텝을 거치기만 하면 쉽게 대상 물체의 포즈를 인식할 수 있습니다.

overall recognition configuration process

다음 방식으로든 다 3D 대상 물체 인식 구도 페이지로 들어가 파라미터를 조절할 수 있습니다.

  • 프로젝트의 편집 구역에서 스텝의 구성 마법사 버튼을 클릭하여 파라미터를 조정하기 시작합니다.

  • 스텝 파라미터 옵션에 있는 구성 마법사 버튼을 클릭합니다.

포인트 클라우드의 사전 처리

포인트 클라우드 사전 처리는 획득한 이미지 데이터를 포인트 클라우드로 전환시켜 유효한 포인트 클라우드 인식 영역을 설정하며 가장자리 포인트 클라우드를 감지하여 요구 사항을 충족하지 않는 포인트 클라우드를 필터링합니다. 이 프로세스는 후속 프로세스의 인식 효율를 향상시키는 데 도움이 될 수 있습니다.

이 스텝에서 사용자가 유효한 인식 구역을 설정할 것입니다. 이로써 간섭 요소를 영역 밖에 제거시켜 인식 효율을 높일 수 있습니다. 인식 영역을 설정할 때 대상 물체가 덮여 있고 들어오는 재료 편차의 치수/ 위치 편차로 인해 발생할 수 있는 영향을 수용할 수 있도록 바깥쪽으로 30mm 정도 확장하십시오.

set 3d roi

일반적으로 다른 사전 처리 파라미터의 기본값을 유지하면 됩니다. 만약 시나리오에는 노이즈가 많으면 관련 파라미터를 조정해 보실 수 있습니다. 상세한 설명은 포인트 클라우드 사전 처리 내용을 참조하십시오.

파라미터 조정이 완료된 후 사전 처리 결과 미리 보기 영역에서 스텝 실행 버튼을 클릭하여 시각화 영역에서 사전 처리 효과가 요구사항을 충족하는지를 확인할 수 있습니다.

대상 물체 선택 및 인식

  • 이 솔루션에서는 3D 매칭이 대상 물체 인식에 사용됩니다.

  • 3D 매칭은 대상 물체의 포인트 클라우드 모델을 시나리오 포인트 클라우드로 피팅하여 시나리오 중 물체의 포즈를 계산하는 과정입니다. 3D 매칭을 이용하여 대상 물체를 인식하기 전에 먼저 대상 물체의 모델(포인트 클라우드 모델 또는 포인트 클라우드 매칭 모델이라고도 함)을 제작해야 합니다.

  • 파라미터 조정이 완료된 후 실행 결과 보기 영역에서 스텝 실행 버튼을 클릭하여 시각화 영역에서 인식 효과가 요구사항을 충족하는지를 확인할 수 있습니다.

공작물 모델 제작

이 튜토리얼에서는 로봇을 조깅하여 픽 포인트를 설정하고, 카메라로 획득한 포인트 클라우드를 기반으로 포인트 클라우드 모델을 생성합니다. 상세한 설명은 로봇을 조깅하여 픽 포인트를 설정하고 획득한 포인트 클라우드를 기반으로 포인트 클라우드 모델을 생성하기 내용을 참조하여 대상 물체에 대한 포인트 클라우드 매칭 모델을 만드세요.

이 대상 물체가 대칭성을 갖추기 때문에 대상 물체 모델에 대해 대칭성을 설정해야 합니다.

set object symmetry

대상 물체 모델이 만들어진 후 대상 물체 편집기 창을 닫고 3D 대상 물체 인식 도구 인터페이스로 돌아가 대상 물체 업데이트 버튼을 클릭합니다. 만약에 이 솔루션의 대상 물체 편집기에는 단 하나만의 대상 물체 모델이 있으면 도구는 자동으로 이 대상 물체를 선택할 것입니다. 만약에 이 솔루션 대상 물체 편집기에 대상 물체 여러 개가 있으면 사용할 대상 물체 모델을 선택하십시오.

select object model

매칭 파라미터 설정

  1. 대상 물체 인식 영역에서 고급 모드를 활성화합니다.

    set matching parameters
  2. 근사 매칭 설정상세 매칭 설정 아래에서 실행 모드를 “고정확도”로 설정하고 편차 보정 능력을 “스몰”로 설정합니다.

  3. 잘못된 매칭 방지 아래에서 포즈 조정을 "가능성이 낮은 포즈를 필터링"으로 설정하고 범위 값을 대칭 각도의 1/2로 설정합니다. 예를 들어 대칭 각도가 45도인 경우 범위는 22.5도로 설정해야 합니다.

    avoid false matching
    티칭을 통해 픽 포인트를 설정할 때 출력한 매칭 포즈와 모델 포즈 사이의 각도 차이가 작을수록 픽킹 정확도가 높아집니다. 따라서 대칭성을 가진 대상 물체의 경우, 매칭에 성공할 가능성이 낮은 포즈를 필터링하여 매칭 포즈와 모델 포즈 사이의 각도를 최대한 작게 유지해야 합니다.
  4. 한 번에 하나의 대상 물체만 인식되므로 최대 출력의 값을 1로 설정합니다.

    set output number
출력 포트 설정

로봇 어셈블리를 가이드하기 위해 출력 포트는 "픽 포인트 관련 포트"를 선택하세요.

set output ports

포즈 조정 V2

스텝 이름

포즈 조정 V2

단계

포즈 조정

예시 그림

adjust poses

설명

포즈 변환, 포즈 조정, 포즈 정렬 및 포즈 필터링을 위해 파라미터를 구성해야 합니다.

대상 물체의 포즈를 획득한 후 포즈를 조정해야 합니다.

Mech-Vision에는 포즈 조정 도구가 내장되어 있습니다. 이 도구를 사용하여 물체 포즈를 쉽게 조정하고 피킹 순서를 최적화할 수 있습니다. 다음 어떤 방식으로든 포즈 조정 도구를 열어 파라미터를 조정할 수 있습니다.

  • 프로젝트의 편집 구역에서 스텝의 구성 마법사 버튼을 클릭하여 파라미터를 조정하기 시작합니다.

  • 스텝 파라미터 옵션에 있는 구성 마법사 버튼을 클릭합니다.

다음 스텝을 수행하여 파라미터를 조정하십시오.

  1. 포즈 변환: 포즈 조정 탭에서 포즈를 카메라 좌표계에서 로봇 기준 좌표계로 변환합니다.

    adjust reference frame
  2. 포즈 정렬: 픽 포인트가 하나만 있으므로 순서를 정렬할 필요가 없습니다. 여러 픽 포인트가 있는 경우, 작업 현장의 실제 수요에 따라 정렬하면 됩니다.

    sort poses
  3. 각도 필터링: 포트 규칙 탭에서 포즈 Z 축의 방향에 따라 현저히 피킹 불가능한 포즈를 필터링합니다.

출력

스텝 이름

출력

단계

대상 물체 포즈 출력

예시 그림

procedure out

설명

대상 물체 포즈를 로봇으로 출력하려면 포트를 전환해야 합니다.

포트 유형 을 "사용자 정의"로 설정하고 미리 정의된 키인 "poses"를 선택하세요.

set output to custom

실행 버튼을 클릭하여 프로젝트가 성공적으로 실행될 수 있는지를 확인하고 계획된 로봇 경로를 출력합니다. Mech-Vision 로그 바의 비전 옵션에서 비전 결과를 가지는 로그가 있는지를 확인할 수 있습니다.

check output result

이로써 비전 프로젝트 구성이 완료됩니다.

저희는 귀하의 개인 정보를 소중하게 생각합니다.

당사 웹사이트는 귀하에게 최상의 경험을 제공하기 위해 쿠키를 사용합니다. "모두 수락"을 클릭하시는 경우, 귀하는 사의 쿠키 사용에 동의하게 됩니다. "모두 거부"를 클릭하시는 경우, 귀하가 이 웹사이트를 방문할 때 추적되거나 기억되지 않도록 하기 위해 단일 쿠키가 사용됩니다.