キネクト

アレってどこまで端末側でやってくれるんだろう。思うにカメラから取り込んだ映像を解析して、3D 空間内に人型モデルの点の集合を作る、みたいな所までだと思うんだよな。ちゃんと点に意味を持たせてさ。HUMAN_POINT_HEAD, HUMAN_POINT_HAND みたいな定数があって、それらを使って体の任意の部分の点が取れる。そこから先の人の動きの解析はアプリ側でやらなくてはならないんじゃ無いかな。そう考えるのが自然だと思う。若しかしたら単純な動きに就いては、数十から数百パターンはライブラリ的にやってくれるかも知れないけど。
全く仕様書とか読まずに想像で書いてみたけど、そう間違って無い筈だよ。こんな感じの仕様じゃ無いと変でしょ。