2015年4月5日日曜日

kinect fusionを検索する

kinect fusionをググると3900件しかヒットしないことに驚いた。
遅らせながら調査すると、2013年には既にkinectFusionの話題になり、
昨年にはYouTubeでもリアルタイムで3D化できていることを知る。

又昨年Webカメラから簡単に赤外線カメラにする方法が公開されていたので、
早速手っ取り早く追体験してみた。

用意したものは、WEBCAM130万画素、赤外線LEDです。
可視光を遮断しなければいけないですが、暗闇の中で赤外線だけを使い撮影することにより、可能性を調査することにした。
顔を取り込もうとしたところ、とても使い物にならない感じだったので、顔の半面を5分割でスキャンすると、鼻や口の凹凸がある程度、直接depthMap画像で取り入れることができた。
でもこれはカラー写真でも綺麗に撮れたモデルの目元近くを、depthMap画像として扱うと
ある程度綺麗な3D写真になることが解っているので、単なる光の反射だけによるものかも知れない。
いずれにしろ、赤外線写真にしたことにより結果二色写真になったので、depthMapとして
扱いやすくなることが理解できた。

近い将来、この手法による直接物体を3D化する技術が安価で提供される可能性を感じとれた。

追伸:
この話題は既に研究が進んでいて、
Infrared and Visible Image Fusion for Face
のタイトルで検索できるようです。

改善:
Canon PowerShot A2200+赤外線で暗室で顔を撮影したところ、
顔全体の写真でも鼻の線が取得できることが解りました。
鼻と頬の間については補正計算が必要なので、直接は使えませんが
入力手段の一つの選択肢にはなると思います。
次は、室外の自然の赤外線写真も利用価値がないか模索してみようと
考えています。