これはすごい!Kinectカメラを使った3D再構築技術「KinectFusion」(動画あり)

公開日: : 最終更新日:2014/01/06 AR(拡張現実)

記事内に広告を含む場合があります。記事内で紹介する商品を購入することで、当サイトに売り上げの一部が還元されることがあります。

「Microsoft Research Cambridge」による、Kinectカメラを使った3D再構築技術「KinectFusion」のデモ動画。

後半のデモがすごい。

棚に大量のパーティクルをぶちまけるデモ。

布の広げて持っている人に大量のパーティクルをぶちまけるデモ。

リアルワールドのノートに手書きで落書きをするデモ。

デプスカメラのおかげで特徴点トラッキングを行う必要が無くなり、ボリューメトリック表現によるキャプチャーを行うことができるようになった、という点が新しいらしい。ボリュームデータからのサーフェスの構築にはGPGPUをブン回しているようだ。

PaperのPDFが見当たらないけど、そのうちどっかに出てくると思う……

引用元:Microsoft Research… – Radium Software

ナチュラルインターフェースの未来!といった感じですね。

We present KinectFusion, a system that takes live depth data from a moving depth camera and in real-time creates high-quality 3D models. The system allows the user to scan a whole room and its contents within seconds. As the space is explored, new views of the scene and objects are revealed and these are fused into a single 3D model. The system continually tracks the 6DOF pose of the camera and rapidly builds a volumetric representation of arbitrary scenes.
Our technique for tracking is directly suited to the point-based depth data of Kinect, and requires no feature extraction or feature tracking. Once the 3D pose of the camera is known, each depth measurement from the sensor can be integrated into a volumetric representation. We describe the benefits of this representation over mesh-based approaches. In particular, the representation implicitly encodes predictions of the geometry of surfaces within a scene, which can be extracted readily from the volume. As the camera moves through the scene, new depth data can be added or removed from this volumetric representation, continually refining the 3D model acquired. We describe novel GPU-based implementations for both camera tracking and surface reconstruction. These take two well-understood methods from the computer vision and graphics literature as a starting point, defining new instantiations designed specifically for parallelizable GPGPU hardware. This allows for interactive real-time rates that have not previously been demonstrated.
We demonstrate the interactive possibilities enabled when high-quality 3D models can be acquired in real-time, including: extending multi-touch interactions to arbitrary surfaces; advanced features for augmented reality; real-time physics simulations of the dynamic model; novel methods for segmentation and tracking of scanned objects

引用元:KinectFusion HQ – YouTube

他のAR(拡張現実)関連記事はこちらをどうぞ。

関連記事

サンフランシスコのピア39にあるチャウダーズでクラムチャウダーを食す!

lolipop アップルの開発者向けイベント「WWDC2014」

ミスドのカルピスドーナツとカルピスポンデリングを食べてみた!

ミスドで期間限定のカルピスコラボ商品「カルピスドーナツ」と「カルピ

十三カレー計画で牛すじカレーネギのせを食す!(大阪・十三)

「iPhoneアプリ開発キャンプ@大阪」のランチで、十三カレー計画

大阪・難波の加寿屋 法善寺でかすうどんを食す。ランチタイムはおにぎり2個まで無料!

大阪・難波の加寿屋 法善寺 (かすうどん KASUYA)で、かす

ライブドアブログで運営していた「あきお商店」を「卵は世界である」に改名しました

少し前からライブドアブログで「あきお商店」というブログをやって

→もっと見る

PAGE TOP ↑