Sản phẩm mới


Trình mã nhúng Kinect cho UC-win/Road

Lựa chọn trình cắm hỗ trợ tải thông tin từ KinectTM  đến UC-win/Road cho thiết bị mô phỏng lái xe sử dụng tay không


●Giá US$2,320 (Phí thuê bao từ năm thứ 2: US$490) ●Ngày phát hành: Tháng 12 năm 2016
Mô phỏng

 Lý thuyết của cảm biến sâu
Kinect Plugin đặt dữ liệu nhập từ cảm biến sâu để hoạt động đầy đủ. Các thiết bị có thể hoạt động cùng với trình cắm là KinectTM Sensor cho Xbox, Xtion Pro và Xtion Pro Live. Tất cả 3 cảm biến này đều có khả năng cảm biến sâu dựa trên công nghệ PrimeSense, với một máy chiếu hồng ngoại chiếu ra một mẫu ánh sáng hồng ngoại rơi xuống các vật xung quanh nó giống như một biển các dấu chấm và một camera hồng ngoại có thể nhìn thấy các chấm đó. Với sóng ánh sáng hồng ngoại ở khoảng 780nm, những chấm này không nhìn thấy được bằng mắt thường, nhưng nhìn thấy được bằng máy ảnh nhìn đêm (xem hình 1). Máy ảnh gửi nguồn cấp dữ liệu video của mẫu dấu chấm sai lệch này vào bộ xử lý cảm biến sâu, và bộ xử lý hoạt động ở độ sâu từ sự dịch chuyển của các chấm. Trên những vật thể gần đó, khuôn mẫu được trải ra, trên các đối tượng xa, khuôn mẫu này dày đặc. Bản đồ chiều sâu 'đã tạo ra' này có thể được đọc từ cảm biến chiều sâu trong máy tính. Bản đồ độ sâu được phân tích bằng cách so sánh và đối chiếu các mẫu dấu chấm trên cơ thể mỗi người, phát hiện bởi cảm biến, chúng xác định cấu trúc xương của một người để tìm ra ai là ai.  
Hình 1 Mẫu ánh sáng hồng ngoại
 Trình cắm Kinect
Kinect Plug-in được phát triển như là một giao diện có thể truy cập dữ liệu lưu trữ trong một cảm biến độ sâu, đơn giản chỉ thông qua các ổ cắm UDP. Một khi một bản đồ chiều sâu (Hình 2) được xây dựng và một cấu trúc xương của một chủ thể có các khớp nhìn thấy được trong bản đồ chiều sâu (có được khi chúng ta theo dõi xương), sự chuyển động của bàn tay và bàn chân của đối tượng được phát hiện bởi cảm biến và được giải thích trong UC-win / Road như một giao diện người dùng tự nhiên sử dụng các cử chỉ để điều khiển vô lăng, bàn đạp và bàn phanh trong quá trình mô phỏng lái xe trong một môi trường ảo (Hình 3).

     
Hình 2 Kinec Plugin
    (Bản đồ chiều sâu)
  Hình 3 Kinect Plugin
   (Air Driving)
 Ứng dụng
Air Driving, mô phỏng lái xe bằng tay sử dụng UC-win / Road kết nối với thiết bị cảm biến độ sâu bằng Kinect Plugin được kích hoạt thông qua cử chỉ tay và chân để điều khiển một tay lái vô hình và chân ga / chân phanh là một trong những ứng dụng của mã nhúng. Một nghiên cứu đang tiến hành về sự phát triển là một hệ thống theo dõi xương có thể được sử dụng để kiểm soát một robot làm việc trong một môi trường khắc nghiệt. Nếu phát triển thành công, một hệ thống hoàn toàn mới mà không còn yêu cầu phải gắn các thiết bị cảm biến vào cơ thể con người sẽ đưa vào vận hành. Thông qua việc nghiên cứu, phát triển và thử ngiệm, FORUM8 đã kiểm soát thành công một cánh tay robot (Hình 4), một chiếc xe được điều khiển bằng radio với kích thước bằng 1/10 chiếc xe thực tế, và UAV (Hình 5) từ một môi trường từ xa. Với kết quả vượt ngoài mong đợi, hệ thống mới là một tiềm năng lớn cho các ứng dụng thực tế.

     
▲Điều khiển từ xa của một con robot
   (LynxMotion AL5D)
  ▲Điều khiển từ xa của một con robot
   (DJI Phantom 3 Pro)
 Các phát triển gần đây ứng dụng Kinect cho Windows
Kinect dành cho Windows có các tính năng tích hợp của KinectTM, cho phép phát triển một ứng dụng tùy biến hoặc môi trường tùy biến theo ý muốn của người dùng. Sự kết nối của KinectTM với UC-win / Road cho phép người dùng vận hành UC-win / Road mà không cần bất kỳ bộ điều khiển vật lý nào như chuột hoặc vô lăng.

  Một tòa nhà thành phố khổng lồ
Một KinectTM V2 mới có thể phát hiện được nhiều khớp trên cơ thể con người hơn, ví dụ như bộ cảm biến có thể nhận biết lòng bàn tay của đối tượng đang mở hay đóng. FORUM8 cũng phát triển một hệ thống sáng tạo cho mô hình thành phố 3D cho phép người dùng UC-win / Road xây dựng cơ sở hạ tầng dân dụng trong mô hình thành phố ảo theo quan điểm của người khổng lồ (có góc nhìn rộng, lớn) như thể anh ta / cô ta là một người khổng lồ thân thiện và có tầm quan sát tốt.
  • Hiển thị của con trỏ: Chủ thể với bàn tay của mình khi đứng trước thiết bị cảm ứng sâu sẽ được phát hiện là một cấu trúc xương độc đáo từ bản đồ chiều sâu. Sau đó, con trỏ sẽ hiển thị trên màn hình nơi có bàn tay trái hoặc phải của chủ thể trùng lặp với màn hình. Có một đường thẳng vô hình vuông góc với màn hình kết nối bàn tay của chủ thể với màn hình.
  • Vị trí cơ sở hạ tầng (bên tay phải): Một menu các biểu tượng thể hiện các loại cấu trúc khác nhau được đặt trong thành phố ảo, di chuyển con trỏ đến biểu tượng bạn muốn chọn, đóng lòng bàn tay để lấy cấu trúc đó, giữ nguyên tư thế của tay và di chuyển nó đến vị trí bạn muốn đặt cấu trúc và mở lòng bàn tay để thả cấu trúc đến vị trí đó.
  • Điều khiển máy ảnh hoặc mô hình sử dụng tay trái của bạn: Nếu bạn đặt con trỏ lên biểu tượng bạn muốn chọn sử dụng bàn tay trái và nắm tay của mình, bạn có thể điều khiển vị trí của camera (xoay, di chuyển hoặc nhảy) hoặc kiểm soát mô hình như loại bỏ cấu trúc được định vị - hoàn tác - hoặc đặt lại mô hình thành phố thành mặc định.

     
Một vị khách tham gia triển lãm đã xây dựng một cây cầu trong một thành phố ảo   Cửa sổ cài đặt hình ảnh con trỏ
(Up&Coming '17 Ấn phẩm năm mới)
Back
Up&Coming

FORUM8