New Products
UC-win/Road Kinect 플러그인
KinectTM에서 정보를 UC-win/Road에 넣는 것이 가능한 옵션 플러그 인

●출시 2016년 12월
시뮬레이션
 Depth센세의 원리
Kinect 플러그 인은 Depth센서로부터 데이터를 사용하십시오. 대응하는 기기는 KinectTM Sensor for Xbox, Xtion Pro, Xtion Pro Live입니다. 이 3개의 센서는 PrimeSense의 기술에 근거하고 있으며, 적외선을 사용하고 도트 무늬를 발견한 적외선 카메라로 그것을 검지 합니다. 사람의 눈에서는 보이지 않지만(주파수는 약 780nm), 암시 기능의 있는 카메라에서는 볼 수 있습니다(그림 1). 장애물이 센서의 검지 지역에 들어간 경우는 레이저의 모양이 흐트러지기 때문에 센서는 촬영 영역의 Depth Map을 작성할 수 있습니다.그리고 Depth Map을 분석하고 형상을 판별할 수 있습니다. 더 자세한 분석에서 각각의 형상을 사람 몸의 형태와 함께 사람의 골격을 판별할 수 있습니다.   画像をクリックすると大きな画像が表示されます。
▲그림 1적외선 레이저 무늬
 Kinect플러그인
Kinect 플러그 인은 UDP소켓을 통해서 간단한 방법으로 Depth센서의 데이터에 접근할 수 있는 인터페이스로서 개발했습니다. Depth Map데이터(그림 2)와 골격 추적 데이터(뼈의 접합부의 정보)외에 양손의 움직임과 위치의 동작을 검지하는 핸들, 악셀-브레이크 페달에도 변환 가능합니다.이들 데이터를 조합함으로써 시뮬레이션 환경에서 차의 운전이 가능하게 됩니다(그림 3).

画像をクリックすると大きな画像が表示されます。    画像をクリックすると大きな画像が表示されます。 
▲그림2 Kinect플러그 인
    (Depth Map데이타)
  ▲그림3 Kinect플러그 인
   (Air Driving)
 응용사례
Kinect 플러그 인의 샘플로서 핸들, 악셀-브레이크 페달의 정보를 사용한 Air Driving이 있지만 어려운 환경에서 로봇의 원격 조작용으로 골격 추적 시스템을 조사 중입니다. 실현하면 몸에 센서를 할 필요가 없어지고 시스템의 대폭 간소화가 가능하게 됩니다. 저희는 키넥트 플러그 인을 사용하고 소형 로봇, 구체적으로 로봇 팔(그림 4), 실물의 1/10사이즈의 무선 조종 카나 UAV(그림 5)원격 조작을 시도했습니다.조사에서는 기대할 수 있는 결과가 나왔습니다.

画像をクリックすると大きな画像が表示されます。    画像をクリックすると大きな画像が表示されます。 
▲그림 4로봇 원격 조작
   (LynxMotion AL5D)
  ▲그림 5로봇 원격 조작
   (DJI Phantom 3 Pro)
 Kinect for Windows개발 사례
Kinect for Windows는 KinectTM의 기능성을 Windows에서 이용할 수 있는 커스텀 앱이나 커스텀 환경을 개발할 수 있습니다.KinectTM과 UC-win/Road를 제휴함으로써 제어 장치 없이 UC-win/Road조작을 할 수 있게 됩니다.

마을 조성의 거인
KinectTM V2에서 인식할 수 있는 관절이 늘어나면서 손의 개폐도 인식 가능하며, 이를 활용한 개발을 실시했습니다.UC-win/Road에서 작성한 VR공간의 거리에 거인이 된 감각 구조물의 배치하는 시스템입니다.
  • 커서 표시:센서에서 검출한 거리 정보에서 동일한 물체를 추출하고 인간의 특징을 식별.오른손, 왼손으로 판단된 위치에 커서 화상을 표시.
  • 구조물의 배치(오른손):배치할 수 있는 구조물의 아이콘에 커서를 맞추어 손을 잡으면 구조물을 잡고, 배치하고 싶은 위치까지 오른손을 움직이는 손을 열면 구조물을 배치.
  • 카메라 모델 컨트롤(왼손):동작 아이콘을 준비하고 아이콘에 커서를 맞추어 손을 잡자 카메라 컨트롤(회전·이동·점프)나 모델 컨트롤(배치의 리셋 앤 드)을 실시한다.

画像をクリックすると大きな画像が表示されます。    画像をクリックすると大きな画像が表示されます。 
▲그림 6전시회의 모습   ▲그림 7커서 화상의 설정
(Up&Coming '17 신년호)
戻る
Up&Coming

FORUM8