JP2014235634A - 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム - Google Patents
手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム Download PDFInfo
- Publication number
- JP2014235634A JP2014235634A JP2013117690A JP2013117690A JP2014235634A JP 2014235634 A JP2014235634 A JP 2014235634A JP 2013117690 A JP2013117690 A JP 2013117690A JP 2013117690 A JP2013117690 A JP 2013117690A JP 2014235634 A JP2014235634 A JP 2014235634A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- shape
- information
- image
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【課題】仮想物体の操作を、手指の動作により、より直感的に行えるようにする。【解決手段】本発明の手指動作検出装置は、手指の形状及び高さの情報を有する画像を取得する画像取得部41と、画像から手指の所定動作に対応する手指の第1の形状、又は、手指の所定動作以外の動作に対応する手指の第2の形状を検出する手指形状検出部44と、手指形状検出部44で検出された第1の形状の情報又は第2の形状の情報に基づいて、手指の3次元空間上の位置及び手指の姿勢の少なくとも一方の情報と、手指形状検出部44の検出結果に対応する情報とを検出する手指動作検出部46とを備える。【選択図】図2
Description
本発明は、手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システムに関する。
従来、3DCAD(three-dimensional Computer Aided Design)や3DCG(Computer Graphics)ソフトウェア等のツールを用いて、情報処理装置上で仮想的な3次元物体を生成したり、生成した仮想3次元物体を操作したりする技術が存在する。これらのツールでは、一般的に、入力インターフェースとしてマウスと呼ばれるポインティングデバイスが使用されている。ところが、マウスは2次元の平面上を移動するものであるため、仮想3次元物体を操作する場合にも、その操作は2次元上で行う必要がある。したがって、仮想3次元物体を直感的に操作したい場合においては、マウスは最適な入力インターフェースであるとは言い難い。
また近年、例えば3Dディスプレイ技術の一般化や安価な3Dプリンタの登場など、出力装置への3D技術の適用が普及しており、直感的に使える3次元空間操作用の入力インターフェースへの需要が高まっている。このような3次元空間操作用の入力インターフェースでは、直感性を損なわないためにも、人間が現実世界で行うような動きを、特別な入力装置を介することなく入力できることが望ましい。例えば非特許文献1には、指先を動かすジェスチャにより操作入力を行える入力インターフェースが記載されている。
金次保明, 浦谷則好, 小峯一晃, "指さしポインターの開発とその性能評価実験", 電子情報通信学会技術研究報告. EID, 電子ディスプレイ, Vol.104, No.329, pp.9-12, 2004
非特許文献1に記載された技術のように、指先のジェスチャにより入力を行える入力インターフェースを用いることで、仮想3次元物体を操作する技術が提案されているが、この分野では、より直感的な操作で、仮想3次元物体に対する所定の処理を行えることが望まれていた。
本発明は、仮想3次元物体の操作を、手指の動作により直感的に行えるようにすることを目的とする。
本発明の手指動作検出装置は、画像取得部と、手指形状検出部と、手指動作検出部とを備える構成とし、各部の構成及び機能を次のようにする。画像取得部は、手指の形状及び高さの情報を有する画像を取得する。手指形状検出部は、画像取得部によって取得された画像から、手指の所定動作に対応する手指の第1の形状、又は、手指の所定動作以外の動作に対応する手指の第2の形状を検出する。手指動作検出部は、手指形状検出部で検出された第1の形状の情報又は第2の形状の情報に基づいて、手指の3次元空間上の位置及び手指の姿勢の少なくとも一方の情報と、手指形状検出部の検出結果に対応する情報とを検出する。
また、本発明の手指動作検出方法は、まず、手指の形状及び高さの情報を有する画像を取得する。次いで、取得された画像から、手指の所定動作に対応する手指の第1の形状、又は、手指の所定動作以外の動作に対応する手指の第2の形状を検出する。次いで、検出された第1の形状の情報又は第2の形状の情報に基づいて、手指の3次元空間上の位置及び手指の姿勢の少なくとも一方の情報と、手指の所定動作の検出結果に対応する情報とを検出する。
また、本発明の手指動作検出プログラムは、上記本発明の手指動作検出方法の各処理を、情報処理装置に実装して実行させるための手指動作検出プログラムである。
また、本発明の仮想3次元物体処理システムは、画像取得部と、手指形状検出部と、手指動作検出部と、ディスプレイ装置と、仮想物体処理部とを備える構成とし、各部の構成及び機能を次のようにする。画像取得部は、手指の形状及び高さの情報を有する画像を取得する。手指形状検出部は、画像取得部によって取得された画像から、手指の所定動作に対応する手指の第1の形状、又は、手指の所定動作以外の動作に対応する手指の第2の形状を検出する。手指動作検出部は、手指形状検出部で検出された第1の形状の情報又は第2の形状の情報に基づいて、手指の3次元空間上の位置及び手指の姿勢の少なくとも一方の情報と、手指形状検出部の検出結果に対応する情報とを検出する。ディスプレイ装置は、処理対象となる仮想物体を表示する。仮想物体処理部は、手指動作検出部で検出された、手指の3次元空間上の位置及び手指の姿勢の少なくとも一方の情報と、手指形状検出部の検出結果に対応する情報とを用いて、ディスプレイ装置に表示された仮想物体に所定の処理を施す。
本発明によれば、手指の動作の検出結果に基づいて、仮想空間内の仮想物体に所定の処理を施すための各種制御パラメータが検出される。すなわち、本発明によれば、仮想物体に対して所定の処理を施す操作を、手指の動作によってより直感的に行えるようになる。
以下、図面を参照しながら、本発明に係る実施形態について説明する。本発明の一実施形態に係る仮想3次元物体処理システムは、現実空間上における手指の動作を認識及び解析して得た各種制御パラメータを用いて、仮想空間上の3次元物体を制御するものである。
<ハードウェア構成>
図1は、一実施形態に係る仮想3次元物体処理システム1のハードウェア構成図である。仮想3次元物体処理システム1は、例えば、CPU(Central Processing Unit)10と、ドライブ装置11と、補助記憶装置13と、メモリ装置14と、インターフェース装置20と、入力装置21と、ディスプレイ装置22と、画像入力インターフェース23と、深度センサ30とを備える。これらの構成要素は、バスやシリアル回線等を介して互いに接続される。
図1は、一実施形態に係る仮想3次元物体処理システム1のハードウェア構成図である。仮想3次元物体処理システム1は、例えば、CPU(Central Processing Unit)10と、ドライブ装置11と、補助記憶装置13と、メモリ装置14と、インターフェース装置20と、入力装置21と、ディスプレイ装置22と、画像入力インターフェース23と、深度センサ30とを備える。これらの構成要素は、バスやシリアル回線等を介して互いに接続される。
CPU10は、例えば、プログラムカウンタ、命令デコーダ、各種演算器、LSU(Load Store Unit)、汎用レジスタ等を有する演算処理装置で構成される。
ドライブ装置11は、その内部に装着された記憶媒体12からプログラムやデータなどを読み込む装置である。なお、本実施形態では、記憶媒体12は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型の記憶媒体である。また、補助記憶装置13は、例えば、HDD(Hard Disk Drive)やフラッシュメモリなどで構成される。
本実施形態において、プログラムが記録された記憶媒体12がドライブ装置11に装着された場合には、該プログラムは、記憶媒体12からドライブ装置11を介して補助記憶装置13にインストールされる。なお、プログラムのインストール手法は、この例に限定されない。例えば、インターフェース装置20が、ネットワークを介して他のコンピュータからプログラムをダウンロードし、該ダウンロードしたプログラムを補助記憶装置13にインストールしてもよい。なお、ネットワークは、インターネット、LAN(Local Area Network)、無線ネットワーク等で構成される。また、例えば、プログラムが、仮想3次元物体処理システム1の出荷時に、補助記憶装置13や図示しないROM(Read Only Memory)等に予め格納(実装)されていてもよい。
上述のようにしてインストールされた各種プログラム、又は、予め格納された各種プログラムをCPU10が実行することにより、本実施形態の仮想3次元物体処理システム1における後述の各種機能(各種処理)が実現される。
メモリ装置14は、例えば、RAM(Random Access Memory)やEEPROM(Electrically Erasable and Programmable Read Only Memory)などの記憶装置で構成される。インターフェース装置20は、上述した各種ネットワーク等に接続され、該ネットワークを介して、外部の各種装置に対して所定のデータやプログラムなどの入出力動作を行う。
入力装置21は、例えば、キーボード、マウス、ボタン、タッチパッド、タッチパネル、マイク等の各種入力操作装置で構成される。ディスプレイ装置22は、例えば、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等の表示装置で構成される。なお、仮想3次元物体処理システム1は、ディスプレイ装置22以外では、例えば、プリンタ、スピーカ等の各種出力装置を備えていてもよい。
画像入力インターフェース23は、深度センサ30に接続される。そして、画像入力インターフェース23は、深度センサ30から入力された距離画像を、メモリ装置14や補助記憶装置13に出力する。
深度センサ30は、物体の距離画像を撮影するセンサカメラである。距離画像とは、物体の深度情報を2次元上に画像化した画像である。深度の計測方式としては、例えば、TOF(Time-Of-Flight)方式を用いることができる。TOF方式とは、センサから照射した赤外線が物体表面に反射されてセンサに戻ってくるまでの時間の長さから、センサから物体までの距離、すなわち物体の深度を算出する方式である。なお、深度の計測方式としては、TOF方式に限定されるものではなく、例えば、パターン照射方式等の他の方式を用いてもよい。深度センサ30は、撮影した物体の距離画像を、画像入力インターフェース23に出力する。
深度センサ30には、例えば、SoftKinetic社のDepthSense(登録商標)325等を使用することができる。DepthSense325は、320×240ピクセルの深度解像度を有し、最大60fps(frames per second)で距離画像の撮影を行えるセンサカメラである。
<機能構成>
図2は、本実施形態の仮想3次元物体処理システム1の機能構成図である。仮想3次元物体処理システム1は、CPU10がプログラムを実行することにより機能する機能ブロックとして、手指動作検出装置部40と、仮想物体処理部としての仮想物体操作部50とを備える。手指動作検出装置部40は、画像取得部41と、フィルタ処理部42と、内部領域抽出部43と、手指形状検出部としてのつまみ動作検出部44と、特徴点抽出部45と、手指動作検出部としてのパラメータ算出部46とを含む。これらの各機能ブロックは、例えばメモリ装置14に対して各種情報(データ)を入出力する。そして、メモリ装置14は、各機能ブロックから出力された各種情報を記憶する。
図2は、本実施形態の仮想3次元物体処理システム1の機能構成図である。仮想3次元物体処理システム1は、CPU10がプログラムを実行することにより機能する機能ブロックとして、手指動作検出装置部40と、仮想物体処理部としての仮想物体操作部50とを備える。手指動作検出装置部40は、画像取得部41と、フィルタ処理部42と、内部領域抽出部43と、手指形状検出部としてのつまみ動作検出部44と、特徴点抽出部45と、手指動作検出部としてのパラメータ算出部46とを含む。これらの各機能ブロックは、例えばメモリ装置14に対して各種情報(データ)を入出力する。そして、メモリ装置14は、各機能ブロックから出力された各種情報を記憶する。
これらの機能ブロックは、ソフトウェアで構成するこができる。この場合、各機能ブロックは、互いに明確に分離したプログラムによって実現されるブロックであってもよいし、例えば、サブルーチンや関数などのように、他のプログラムによって呼び出されるプログラムにより実現されるブロックであってもよい。また、これらの機能ブロックの一部又は全てが、例えば、LSI(Large Scale Integrated circuit)、IC(Integrated Circuit)、FPGA(Field Programmable Gate Array)等のハードウェアで構成されていてもよい。
<仮想3次元物体処理手法>
[仮想3次元物体処理手法の概要]
次に、本実施形態における仮想3次元物体処理手法の内容を説明する。本実施形態における仮想3次元物体処理手法では、まず、手指動作検出装置部40が、手指によるつまみ動作を検出し、該検出により得られた情報に基づいて、仮想3次元物体操作制御用の各種制御パラメータを検出する。
[仮想3次元物体処理手法の概要]
次に、本実施形態における仮想3次元物体処理手法の内容を説明する。本実施形態における仮想3次元物体処理手法では、まず、手指動作検出装置部40が、手指によるつまみ動作を検出し、該検出により得られた情報に基づいて、仮想3次元物体操作制御用の各種制御パラメータを検出する。
次に、仮想物体操作部50が、手指動作検出装置部40により検出された各種制御パラメータに基づいて、仮想3次元物体に所定の処理を施す。本実施形態における「つまみ動作」とは、例えば親指と人差し指等の、少なくとも2本の指の指先同士を接触させる動作を指す。
[手指動作検出手法の概要]
本実施形態の手指動作検出手法では、まず、深度センサ30で得られた手指の深度分布情報を含む距離画像から、手指によるつまみ動作を検出する。次に、つまみ動作を行っている手指の指先の3次元空間上の位置を検出する。次に、検出された指先の3次元上の位置の情報を用いて、つまみ動作を行っている手指の姿勢を推定する。このようにして取得された、指先の3次元空間上の位置、及び、つまみ動作を行っている手指の姿勢の情報は、仮想3次元物体操作制御用のパラメータとして使用される。
本実施形態の手指動作検出手法では、まず、深度センサ30で得られた手指の深度分布情報を含む距離画像から、手指によるつまみ動作を検出する。次に、つまみ動作を行っている手指の指先の3次元空間上の位置を検出する。次に、検出された指先の3次元上の位置の情報を用いて、つまみ動作を行っている手指の姿勢を推定する。このようにして取得された、指先の3次元空間上の位置、及び、つまみ動作を行っている手指の姿勢の情報は、仮想3次元物体操作制御用のパラメータとして使用される。
また、本実施形態の手指動作検出取得手法では、つまみ動作の検出情報を用いて、つまみ動作によって指先同士が接触している状態と、つまみ動作が行われておらず指先同士が接触していない状態とを検出する。そして、この2つの状態間の遷移を検出して、検出した結果をトリガ入力パラメータとする。トリガ入力パラメータとは、仮想空間上の仮想物体に対して所定の作用を与える(所定の処理を施す)か否かを決定するためのパラメータである。
本実施形態の手指動作検出手法の具体的な内容を説明する前に、ここで、前述した「指先の3次元空間上の位置」と「手指の姿勢」の定義を簡単に説明する。本実施形態では、つまみ動作を行っている手指における指先の位置としては、空間座標系(カメラ座標系)における、指先同士が接触している接触位置を採用する。
指先の接触位置を規定する空間座標系を、図3Aに示す。図3Aに示した座標系において、X軸は、深度センサ30で取得された距離画像における横方向を示し、Y軸は距離画像の縦方向を示し、Z軸は深度センサ30の撮像方向(距離画像の面と直交する方向)を示す。本実施形態では、この座標系で示される、指先同士が接触している接触点FのX軸方向の座標xと、Y軸方向の座標yと、Z軸方向の座標zとにより、指先の3次元空間上の位置F(x,y,z)を定める。
手指の姿勢を規定する物体座標系を、図3Bに示す。図3Bに示した座標系において、X軸は、図3Aに示した棒状の仮想物体VoのX軸を示し、Y軸は、距離画像の平面上において仮想物体VoのX軸と直交する軸を示す。また、Z軸は、X軸及びY軸と直交する軸である。図3Aに示すように、棒状の仮想物体Voは、指先同士の接触点Fから重心Oに向かう方向に延在した仮想物体である。なお、重心Oは、つまみ動作によって(指先同士が接触していることにより)形成される、周囲が指領域によって囲われた領域(斜線部分)の重心である。すなわち、棒状の仮想物体Voは、指先で棒状の物体をつまんでいることを想定した場合の、指先によって摘まれた仮想物体である。本実施形態では、この棒状の仮想物体Voの姿勢を、手指の姿勢として求める。
棒状の仮想物体Voの姿勢、すなわち手指の姿勢を、オイラー角で示す。具体的には、図3Bに示すように、手指の姿勢を、ロール角φ、ピッチ角θ、及びヨー角ψで定義する。ロール角φは、仮想物体Voの物体座標系のX軸を中心軸とする回転角であり、ピッチ角θは仮想物体Voの物体座標系のY軸を中心軸とする回転角であり、ヨー角ψは仮想物体Voの物体座標系のZ軸を中心とする回転角である。手指の姿勢を示すロール角φ、ピッチ角θ、及びヨー角ψの具体的な算出方法については後述する。
[手指動作検出手法の詳細]
次に、本実施形態の手指動作検出手法の具体的な手法について説明する。本実施形態の手指動作検出手法は、図2に示した手指動作検出装置部40を構成する各部によって実行される。よって、手指動作検出装置部40の各部で行われる処理を順に説明することにより、手指動作検出手法の具体的な内容を説明する。
次に、本実施形態の手指動作検出手法の具体的な手法について説明する。本実施形態の手指動作検出手法は、図2に示した手指動作検出装置部40を構成する各部によって実行される。よって、手指動作検出装置部40の各部で行われる処理を順に説明することにより、手指動作検出手法の具体的な内容を説明する。
(画像取得部の処理)
画像取得部41は、深度センサ30(図1参照)から出力された深度情報を含む距離画像を取得する。深度センサ30から出力される深度情報には、深度センサ30で撮影された手指の形状に対応する深度分布情報が含まれる。
画像取得部41は、深度センサ30(図1参照)から出力された深度情報を含む距離画像を取得する。深度センサ30から出力される深度情報には、深度センサ30で撮影された手指の形状に対応する深度分布情報が含まれる。
(フィルタ処理部の処理)
フィルタ処理部42は、距離画像内における手指の領域を認識するために、距離画像内の領域を、手指領域が含まれる前景領域と、それ以外の背景領域とに分離する。より具体的には、所定の閾値以上の深度を有する画素が分布している領域を前景領域とし、閾値未満の深度を有する画素が分布している領域を背景領域とする。
フィルタ処理部42は、距離画像内における手指の領域を認識するために、距離画像内の領域を、手指領域が含まれる前景領域と、それ以外の背景領域とに分離する。より具体的には、所定の閾値以上の深度を有する画素が分布している領域を前景領域とし、閾値未満の深度を有する画素が分布している領域を背景領域とする。
距離画像に含まれる深度情報にはノイズも多く含まれているため、距離画像をそのまま用いると、前景領域と背景領域との分離を精度よく行うことができない。このため、フィルタ処理部42は、まず、ガウシアンフィルタ等の平滑化フィルタを用いて、距離画像全体に渡ってノイズの除去処理を行う。図4Aは、フィルタ処理を行わないときの深度情報の分布を示す図であり、図4Bは、フィルタ処理後の平滑化された深度情報の分布を示す図である。このフィルタ処理部42のフィルタ処理により、深度情報に含まれるノイズが除去され、手指の領域がより認識されやすくなっていることが分かる。
(内部領域抽出部の処理)
内部領域抽出部43は、フィルタ処理が施された距離画像から、指先が接触していることにより生じる閉空間領域を抽出する。閉空間領域の抽出は、距離画像の深度情報を2値化することにより得られた画像(2値化画像)を用いて、手指領域によって周囲を囲まれた領域を閉空間領域として抽出する。図5Aに、つまみ動作時の手指の様子を示し、図5Bに、図5Aに示した手指の領域を含む、距離画像の2値化画像を示す。図5Bには、人差し指と親指とを接触させるつまみ動作によって、人差し指と親指で囲まれた範囲に、内部領域Aiが形成される様子を示す。
内部領域抽出部43は、フィルタ処理が施された距離画像から、指先が接触していることにより生じる閉空間領域を抽出する。閉空間領域の抽出は、距離画像の深度情報を2値化することにより得られた画像(2値化画像)を用いて、手指領域によって周囲を囲まれた領域を閉空間領域として抽出する。図5Aに、つまみ動作時の手指の様子を示し、図5Bに、図5Aに示した手指の領域を含む、距離画像の2値化画像を示す。図5Bには、人差し指と親指とを接触させるつまみ動作によって、人差し指と親指で囲まれた範囲に、内部領域Aiが形成される様子を示す。
内部領域抽出部43は、手指領域を含む前景領域によって囲まれた背景領域(閉空間領域)を検出し、連続領域として検出された背景領域のうちの、最も大きい領域を内部領域Aiとして特定する。しかし、手指の姿勢によっては、内部領域Aiを精度よく抽出できない場合もある。このような場合には、前景領域と背景領域とを分離する際の閾値を変化させて、抽出される内部領域Aiの面積が最も大きくなったときの閾値を、前景領域と背景領域とを分離する閾値として採用する。
図6は、閾値Thの調整例を示す説明図である。閾値Thは、まず、深度センサ30から最も近い位置に存在する手指の部分、すなわち深度が最も浅い画素における深度に設定する。この深度を基準深度Dbとし、閾値Thを一定の増加幅で徐々に大きくする。そして、閾値Thを変更する都度、内部領域Aiの面積を算出し、最も面積の大きい内部領域Aiが抽出された際に使われていた閾値Thを、前景領域と背景領域とを分離するための最適な閾値Thとして採用する。
このような処理を行うことにより、図7Aに示すように、手指のピッチ角θが大きいことにより、距離画像の平面上において認識される閉空間の面積が小さくなった場合にも、内部領域Aiを適切に抽出することができる。図7B及び図7Cは、それぞれ異なる閾値Thによって分離された前景領域と背景領域とを用いて、内部領域Aiを抽出した例を示したものである。図7Bに示した2値化画像の撮影時に用いられた閾値Thは、図7Cに示した2値化画像の撮影時に用いられた閾値Thよりも小さい。すなわち、手指の姿勢が図7Aに示すようにピッチ角θが大きい姿勢である場合には、図7Cに示した例のように閾値Thをより大きくすることにより、内部領域Aiを適切に抽出することができる。
図7Dは、内部領域Aiの背景部分に手指の領域が重なっている場合の例を示す図である。図7Dに示す手指の姿勢に対応する距離画像に対して、閾値Thを変えて2値化処理を施した画像を、図7E及び図7Fに示す。図7Eに示した例の方が、図7Fに示した例よりも小さな閾値Thを使用している。つまり、手指の姿勢が図7Dに示したような姿勢である場合には、図7Eに示した例のように閾値Thをより小さくすることにより、内部領域Aiを適切に抽出することができる。
(つまみ動作検出部)
つまみ動作検出部44は、内部領域抽出部43における内部領域Aiの抽出結果に基づいて、手指によってつまみ動作が行われている状態と、つまみ動作が行われていない状態とを検出する。図8Aに、つまみ動作が行われている場合における手指の形状の例を示し、図8Bに、つまみ動作が行われていない状態(指先同士が離れている状態)における手指の形状の例を示す。図8Aに示すように、つまみ動作が行われている状態では、少なくとも2本の指の指先同士が接触することにより、斜線で示す閉空間(内部領域)が形成される。図8Bに示すように、つまみ動作が行われていない状態では、閉空間(内部領域)は形成されない。
つまみ動作検出部44は、内部領域抽出部43における内部領域Aiの抽出結果に基づいて、手指によってつまみ動作が行われている状態と、つまみ動作が行われていない状態とを検出する。図8Aに、つまみ動作が行われている場合における手指の形状の例を示し、図8Bに、つまみ動作が行われていない状態(指先同士が離れている状態)における手指の形状の例を示す。図8Aに示すように、つまみ動作が行われている状態では、少なくとも2本の指の指先同士が接触することにより、斜線で示す閉空間(内部領域)が形成される。図8Bに示すように、つまみ動作が行われていない状態では、閉空間(内部領域)は形成されない。
つまみ動作検出部44は、最大の閉空間領域(内部領域Ai)内の画素数をカウントする処理を毎フレーム行い、カウントされた画素数を、現フレームと前フレームとで比較する処理を行う。現フレームで最大の閉空間領域としてカウントされた画素数が、前フレームのそれに対して一定数以上増えている場合には、つまみ動作検出部44は、つまみ動作が行われたと判断する。逆に、一定数以上減った場合には、つまみ動作検出部44は、つまみ動作が解除されたと判断する。また、現フレームで最大の閉空間領域としてカウントされた画素数が一定値以下である場合には、つまみ動作検出部44は、つまみ動作は行われていないと判断する。
(特徴点抽出部及びパラメータ算出部の処理<つまみ動作検出時>)
特徴点抽出部45は、指先の接触点Fの3次元空間上の位置と、手指の姿勢とを検出するために必要な、距離画像内の手指の特徴点を抽出する。パラメータ算出部46は、特徴点抽出部45で抽出された各特徴点の情報を用いて、仮想物体の操作制御に必要な各種制御パラメータを算出する。各種制御パラメータとは、つまみ動作における指先の接触位置の3次元座標、手指の姿勢を示すオイラー角、及びつまみ動作が行われたか否かを示すパラメータ(トリガ入力パラメータ)である。
特徴点抽出部45は、指先の接触点Fの3次元空間上の位置と、手指の姿勢とを検出するために必要な、距離画像内の手指の特徴点を抽出する。パラメータ算出部46は、特徴点抽出部45で抽出された各特徴点の情報を用いて、仮想物体の操作制御に必要な各種制御パラメータを算出する。各種制御パラメータとは、つまみ動作における指先の接触位置の3次元座標、手指の姿勢を示すオイラー角、及びつまみ動作が行われたか否かを示すパラメータ(トリガ入力パラメータ)である。
つまみ動作が行われている時と行われていない時とでは、特徴点の抽出方法及びパラメータの算出方法が異なるため、まずは、つまみ動作が行われている場合における特徴点の抽出方法、及びパラメータの算出方法を説明する。
特徴点抽出部45は、まず、フィルタ処理部42によって前景領域に分類された手指領域を構成する全画素を対象として、各画素の画素位置から背景領域までの最短距離を算出する。この最短距離算出処理によって、手指領域内で背景領域から最も遠い画素を求め、この画素の位置を、距離中心点H(特徴点)として抽出する。なお、この最短距離算出処理で算出する「距離」とは、深度センサ30で得られた深度情報における深度方向の距離ではなく、距離画像の画像平面上の距離である。特徴点抽出部45は、次に、内部領域抽出部43で抽出された内部領域Aiの重心Oを特徴点として抽出する。
図9A及び図9Bに、距離中心点H、及び内部領域Aiの重心Oの抽出例を示す。図9Aは、手指の姿勢と各特徴点との位置的な対応関係を示す概要図であり、図9Bは、実際の距離画像の2値化画像における各特徴点の位置を示す図である。
特徴点抽出部45は、次に、図10A及び図10Bに示すように、重心Oと距離中心点Hとを結ぶ線分Ln1を対角線とする正方形Qを定義する。特徴点抽出部45は、続いて、この正方形Qを構成する4つの頂点のうちの、重心Oと距離中心点H以外の2頂点のうち、手の甲側にある頂点を求める。特徴点抽出部45は、このようにして求めた手の甲側の頂点を、つまみ動作時の指先の位置座標を決定するための距離基準点D(特徴点)として抽出する。上述したように、距離基準点Dは、重心Oと距離中心点Hとを結ぶ線分Ln1を対角線とする正方形Qの頂点である。したがって、図10Aに示すように、線分Ln1の中間点と距離基準点Dとを結ぶ線分Ln2と、線分Ln1との成す角度は、90°となる。
続いて、特徴点抽出部45は、図11Bに示すように、内部領域Aiを構成する全画素を対象としてコーナー検出処理を行うことにより、指先の位置座標となる位置基準点の候補点を抽出する。コーナー検出処理では、まず、特徴点抽出部45は、内部領域Aiを構成する画素において、注目画素と所定数の近傍画素とから最小固有値をそれぞれ求める。そして、特徴点抽出部45は、各画素での最小固有値が、近傍画素と比較して極大になっている画素のうち、その大きさが一定以上である画素を、内部領域Aiのコーナー部分に位置する画素(位置基準点の候補点)として抽出する。特徴点抽出部45は、これらの候補点のうち、距離基準点Dから最も遠い候補点を計算し、この候補点を位置基準点Pとして抽出する。そして、図12A及び図12Bに示すように、特徴点抽出部45は、位置基準点P及び重心Oを通る線Ln3(第1の線)を求める。
次に、特徴点抽出部45は、図13Aに示すように、線Ln3上に位置する各画素のうち、前景領域(手指領域)内に存在する画素であり、かつ深度が最も浅い(最も高い位置にある)画素を、手指領域の前方(第1の方向)と後方(第2の方向)とでそれぞれ検出する。手指領域の前方とは、重心Oを起点とした場合、重心Oから位置基準点Pに向かう方向であり、手指領域の後方とは、それとは反対の方向である。特徴点抽出部45は、手指領域の前方で求められた深度が最も浅い画素を特徴点F(指先の接触点F)として抽出し、手指領域の後方で求められた深度が最も浅い画素を特徴点B(第1の姿勢基準点)として抽出する。そして、特徴点抽出部45は、特徴点Fの3次元座標(Fx,Fy,Fz)及び特徴点Bの3次元座標(Bx,By,Bz)を、距離画像の画像情報及び深度情報から求める。
また、特徴点抽出部45は、図14Aに示すように、重心Oを通り、線Ln3に垂直な線Ln4(第2の線)を求める。そして、線Ln4上に存在する各画素のうち、前景領域(手指領域)内に存在する画素であり、かつ深度が最も浅い画素を、線Ln3を境とした右側と左側とでそれぞれ検出する。図14Aの例では、右側及び左側は、それぞれ線Ln3を境とした人差し指側及び親指側である。次いで、特徴点抽出部45は、右側で求められた深度が最も浅い画素を特徴点R(第2の姿勢基準点)として抽出し、左側で求められた深度が最も浅い画素を特徴点L(第3の姿勢基準点)として抽出する。そして、特徴点抽出部45は、特徴点Rの3次元座標(Rx,Ry,Rz)及び特徴点Lの3次座標(Lx,Ly,Lz)の座標を、距離画像の画像情報及び深度情報から求める。
パラメータ算出部46は、特徴点抽出部45で抽出された各種特徴点の座標情報を用いて、つまみ動作時の手指の指先の3次元空間上での位置と、手指の姿勢とを算出する。パラメータ算出部46は、つまみ動作時の手指の指先の3次元空間上での位置として、図15Aに示すように、接触点Fの3次元座標(Fx,Fy,Fz)を求める。
また、パラメータ算出部46は、図15Bに示すように、手指の姿勢を示すオイラー角(ヨー角ψ(Ox,Oy,Oz)、ピッチ角θ(Fx,Fy,Fz,Bx,By,Bz)、ロール角φ(Rx,Ry,Rz,Lx,Ly,Lz))を算出する。具体的には、Z軸を中心とした回転角であるヨー角ψ(Ox,Oy,Oz)を、以下の式(1)により求める。
すなわち、本実施形態では、ヨー角ψを、内部領域Aiの重心Oと、指先の接触点Fとを通る線Ln3の、距離画像のx−y座標に対する傾き角として算出する。
パラメータ算出部46は、図15Bに示すように、Y軸を中心とした回転角であるピッチ角θ(Fx,Fy,Fz,Bx,By,Bz)を、以下の式(2)により求める。
すなわち、本実施形態では、ピッチ角θを、特徴点F及び特徴点Bを通る線Ln3の、距離画像の平面に対する傾き角として算出する。
パラメータ算出部46は、図15Bに示すように、X軸を中心とした回転角であるロール角φ(Rx,Ry,Rz,Lx,Ly,Lz)を、以下の式(3)により求める。
すなわち、本実施形態では、ロール角φを、線Ln3と直交する線であり、かつ特徴点Rと及び特徴点Lを通る線Ln4の、距離画像の平面に対する傾き角として求めている。
つまり、本実施形態では、パラメータ算出部46は、内部領域Aiの重心O及び指先の接触点Fを通る線Ln3と、線Ln3と直交する線Ln4とを、手指の姿勢を示す姿勢ベクトルとして検出する。
また、パラメータ算出部46は、つまみ動作検出部44によってつまみ動作が検出された時には、トリガをオンにするトリガ入力パラメータを出力し、つまみ動作が検出されなかった時には、トリガをオフにするトリガ入力パラメータを出力する。トリガをオンにするトリガ入力パラメータとは、例えば、マウスを入力インターフェースとして使用した場合における、クリック、ドラッグアンドドロップ操作の検出時に出力されるパラメータに対応するパラメータである。トリガをオフにするトリガ入力パラメータとは、これらのマウスの操作が解除された際に出力されるパラメータに対応するパラメータである。本実施形態では、トリガを、つまみ動作による仮想3次元物体への操作の有効/無効を切り替えるためのフラグとして使用する。また、パラメータ算出部46は、トリガ入力パラメータ以外に、指先の接触点Fの3次元位置と、手指の姿勢を示すオイラー角とを、制御パラメータとして出力する。
(特徴点抽出部及びパラメータ算出部の処理<つまみ動作非検出時>)
次に、つまみ動作非検出時における特徴点抽出処理及びパラメータ算出処理について、図16及び図17を参照して説明する。つまみ動作非検出時には、手指によって閉空間が形成されないため、内部領域抽出部43により内部領域Aiが抽出されない。したがって、特徴点抽出部45は、距離画像から検出された手指の形状の情報に基づいて、内部領域Aiに相当する擬似内部領域Ai′を抽出し、この擬似内部領域Ai′の情報を用いて手指の位置及び姿勢を検出する。
次に、つまみ動作非検出時における特徴点抽出処理及びパラメータ算出処理について、図16及び図17を参照して説明する。つまみ動作非検出時には、手指によって閉空間が形成されないため、内部領域抽出部43により内部領域Aiが抽出されない。したがって、特徴点抽出部45は、距離画像から検出された手指の形状の情報に基づいて、内部領域Aiに相当する擬似内部領域Ai′を抽出し、この擬似内部領域Ai′の情報を用いて手指の位置及び姿勢を検出する。
特徴点抽出部45は、まず、図16Aに示すように、手指領域に対してHilditchの細線化を行い、図16Bに示すように、細線化された手指領域の各端点を求める。そして、特徴点抽出部45は、このようにして求められた手指領域の各端点の3次元座標を、指先の座標として算出する。また、特徴点抽出部45は、指先を示す各端点の画像平面上の位置関係に基づいて、親指の端部に位置する端点を決定し、この端点を特徴点T(第1の端点)として抽出する。また、特徴点抽出部45は、画像平面上において特徴点Tと最も近い位置にある端点を、特徴点I(第2の端点)として抽出する。
次に、特徴点抽出部45は、図16Cに示すように、特徴点Tと特徴点Iとを線分Ln5で結ぶ。そして、特徴点抽出部45は、図17に示すように、特徴点Tと特徴点Iとを結ぶ線分Ln5の中間点を、仮想的な指先の接触点F′(仮想接触点F′)として抽出する。
続いて、特徴点抽出部45は、細線化された各手指領域と、線分Ln5とによって周囲を囲われた領域のうち、背景領域に分類された領域を、擬似内部領域Ai′として検出する。そして、特徴点抽出部45は、擬似内部領域Ai′の重心O′を求める。続いて、特徴点抽出部45は、重心O及び仮想接触点F′を通る線Ln6(第3の線)と、重心O′を通り、線Ln6と距離画像の平面上において直交する線Ln7(第4の線)も求める。また、特徴点抽出部45は、上述したつまみ動作検出時における手法と同様の手法により、線Ln6上の特徴点B′と、線Ln7上の特徴点R′及び特徴点L′とを抽出し、これらの3次元座標も算出する。
パラメータ算出部46は、上述した手指動作検出手法と同様の手法により、特徴点抽出部45で抽出されたこれらの特徴点の3次元座標を用いて、指先の3次元空間上の位置と、手指の姿勢とを算出する。
(手指動作検出処理のフローチャート)
次に、本実施形態の仮想3次元物体処理システム1により手指動作検出を行う際の処理手順を、図18を参照しながら説明する。図18は、本実施形態の仮想3次元物体処理システム1によって実行される手指動作検出手法の処理手順を示すフローチャートである。
次に、本実施形態の仮想3次元物体処理システム1により手指動作検出を行う際の処理手順を、図18を参照しながら説明する。図18は、本実施形態の仮想3次元物体処理システム1によって実行される手指動作検出手法の処理手順を示すフローチャートである。
まず、仮想3次元物体処理システム1の画像取得部41が、深度センサ30により撮影された距離画像を取得する(ステップS1)。次に、フィルタ処理部42が、距離画像にフィルタ処理を施す(ステップS2)。より具体的には、フィルタ処理部42は、距離画像に対して平滑化フィルタ処理を施して画像に含まれるノイズを除去した後に、距離画像内の領域を、手指を含む前景領域と、それ以外の背景領域とに分ける。次に、内部領域抽出部43が、前景領域と背景領域とに分けられた距離画像から、手指によって周囲を囲われた内部領域Aiを抽出する(ステップS3)。なお、ステップS3において内部領域Aiが抽出されなかった場合には、内部領域抽出部43は、擬似内部領域Ai′を抽出する。
続いて、内部領域抽出部43による内部領域Aiの抽出結果に基づいて、特徴点抽出部45が各種特徴点を抽出するとともに、つまみ動作検出部44が、つまみ動作を検出する(ステップS4)。そして、パラメータ算出部46が、パラメータとして、つまみ動作における指先の接触点Fの3次元座標と、手指の姿勢を示すオイラー角と、トリガをオン又はオフさせるトリガ入力パラメータとを算出して出力する(ステップS5)。
(仮想物体操作部の処理)
次に、仮想物体操作部50の処理について説明する。仮想物体操作部50は、手指動作検出装置部40から出力された各種制御パラメータに基づいて、ディスプレイ装置22上において仮想3次元物体を生成したり、造形したり、操作したりする処理を行う。これらの処理は、手指動作検出装置部40で算出された手指の位置及び姿勢を、ディスプレイ装置22に表示される仮想空間上において、仮想3次元物体に対して所定の処理を施すツールの位置及び姿勢に置き換えることによって行われる。また、手指を使った実際のオン/オフ動作と、仮想空間上の仮想3次元物体に対するツール処理のオン/オフ操作との連動又は非連動は、トリガのオン/オフ(トリガ入力パラメータ)に基づいて切り替えられる。
次に、仮想物体操作部50の処理について説明する。仮想物体操作部50は、手指動作検出装置部40から出力された各種制御パラメータに基づいて、ディスプレイ装置22上において仮想3次元物体を生成したり、造形したり、操作したりする処理を行う。これらの処理は、手指動作検出装置部40で算出された手指の位置及び姿勢を、ディスプレイ装置22に表示される仮想空間上において、仮想3次元物体に対して所定の処理を施すツールの位置及び姿勢に置き換えることによって行われる。また、手指を使った実際のオン/オフ動作と、仮想空間上の仮想3次元物体に対するツール処理のオン/オフ操作との連動又は非連動は、トリガのオン/オフ(トリガ入力パラメータ)に基づいて切り替えられる。
本実施形態では、上述のようにして手指動作検出処理を行う。なお、本実施形態では、上述した手指動作検出処理を、対応する手指動作検出プログラムを仮想3次元物体処理システム1に実装し、手指動作検出プログラムをCPU10により実行することにより実現してもよい。
上述した本実施形態の仮想3次元物体処理システム1は、手指の形状の情報及び姿勢の情報に基づいて、仮想3次元物体に対して仮想空間上において所定の処理を施すツールの位置及び姿勢を決定するための各種制御パラメータが算出される。それゆえ、本実施形態では、ユーザは、手指の位置や姿勢を変えるという直感的かつ3次元的な操作によって、仮想3次元物体を操作することができる。このような操作には、専門的な知識や熟練を要するものではないため、子供から高齢者に渡るあらゆる世代のユーザが、容易に仮想3次元物体を操作することができる。
また、本実施形態の仮想3次元物体処理システム1では、手指の所定動作の有無に関する情報(トリガ入力パラメータ、つまみ動作検出部44の検出結果に対応する情報)に基づいて、仮想3次元物体に対して所定の処理を施すツールのオン/オフ動作が制御される。具体的には、指先同士を接触させる動作によって、仮想3次元物体の操作ツールのトリガがオンされ、接触させていた指先同士を離す動作によって、仮想3次元物体の操作ツールのトリガがオフされる。したがって、ユーザは、トリガ入力用の特別な入力インターフェースを用いることなく、仮想3次元物体の操作時に手指のジェスチャによって、容易にツールのオン/オフ制御(トリガ入力)を行うことができる。
本実施形態の仮想3次元物体処理システム1では、ユーザは、手指の位置や姿勢を変えることによって行う仮想3次元物体の操作ツールの操作と、つまみ動作によって行う操作ツールのオン/オフ操作とを、ほぼ同時に、かつそれぞれ独立して行うことができる。つまり、本実施形態の仮想3次元物体処理システム1によれば、位置及び姿勢の6自由度にトリガ入力の1自由度を加えた計7自由度で操作可能なインターフェースが提供される。
また、本実施形態の仮想3次元物体処理システム1では、つまみ動作によって指先同士が接触しているか否かを、距離画像において内部領域Aiが抽出できたか否かによって判定する。距離画像において内部領域Aiが形成されている状態か否かは、比較的明確に区別できるので、トリガ入力のオン及びオフ間の切り替えも、ユーザの意図したタイミングで正確に行うことが可能となる。
また、指先同士を接触させたり離したりする動作は、小さな物体や細長い棒などを摘んだり離したりする動作等と同様の動作であり、日常的な場面でよく行われる動作である。したがって、ユーザは不自然なジェスチャを行う必要なく、慣れ親しんだ動作によって、仮想3次元物体に対して所定の処理を行うことができる。
また、本実施形態の仮想3次元物体処理システム1では、深度センサ30で取得された距離画像から抽出した手指領域、及び手指領域によって画成される内部領域Ai(擬似内部領域Ai′)の3次元座標情報を用いて、現実空間上の手指の位置と姿勢とを検出する。これらの3次元座標情報は、手指のわずかな動作に対しても変化する。よって、従来用いられていた、楕円近似により求めた内部領域を用いて手指の位置及び姿勢を検出する手法や、内部領域の重心の情報のみを用いて手指の位置を検出する手法と比較して、手指の位置及び姿勢の検出精度が非常に高くなる。
また、本実施形態の仮想3次元物体処理システム1では、つまみ動作の検出時には、手指領域によって画成される内部領域Aiの重心Oと、指先の位置基準点Pとを通る線Ln3を、仮想3次元物体の姿勢ベクトルとして検出する。本実施形態では、つまみ動作の非検出時には、擬似内部領域Ai′の重心O′と、仮想接触点F′とを通る線Ln6を、仮想3次元物体に対して所定の操作を行うツールの姿勢ベクトルとして検出する。また、本実施形態では、接触点F(仮想接触点F′)の3次元座標を、指先の位置として検出する。それゆえ、これらのパラメータが反映された仮想空間における仮想3次元物体の位置及び姿勢を、現実空間における指先の細かな動きに追従させて変化させることができる。
また、本実施形態では、内部領域Aiの重心Oと、指先の位置基準点Pとを通る線Ln3を用いて、手指の姿勢を検出しているため、つまみ動作におけるつまみ方や、つまみ動作を行っている手指の姿勢が様々に変化した場合にも、正確に手指の位置及び姿勢を検出できる。図19A〜図19Fは、様々なつまみ動作における手指の様々な姿勢と、各姿勢において検出される内部領域Ai及び手指の姿勢ベクトルを示す線Ln3との対応関係を示す図である。図19A〜図19Fの各図中の右図には手指の姿勢を示し、左図には、距離画像の2値化画像において抽出した内部領域Ai及び線Ln3を示す。
図19A〜図19Fに示すように、内部領域Aiが理想的な楕円形として抽出されないような手指の姿勢においても、本実施形態の仮想3次元物体処理システム1によれば、手指の位置及び姿勢を検出することができる。
[仮想3次元物体処理システムの適用例]
続いて、上記実施形態の仮想3次元物体処理システム1を仮想造形システムに適用した例について、図20〜図23を参照して説明する。図20は、仮想3次元物体処理システム1の外観を示す図である。なお、図20には、説明を簡略化するため、仮想3次元物体処理システム1を構成する深度センサ30とディスプレイ装置22とを示し、他の構成部の図示を省略する。深度センサ30は、ユーザの手指を撮影することができるように、手指によるつまみ動作が行われる空間の上方に、不図示のレンズを下向きにして配置される。ディスプレイ装置22は、ユーザと対向する位置に配置される。また、ディスプレイ装置22は、ディスプレイ装置22とユーザとの間に、深度センサ30の手指の撮影領域(つまみ動作が行われる空間)が配置されるような位置に設けられる。図20には、深度センサ30の位置をパイプで固定した例を示したが、この固定方法に限定されるものではなく、他の方法で固定するようにしてもよい。
続いて、上記実施形態の仮想3次元物体処理システム1を仮想造形システムに適用した例について、図20〜図23を参照して説明する。図20は、仮想3次元物体処理システム1の外観を示す図である。なお、図20には、説明を簡略化するため、仮想3次元物体処理システム1を構成する深度センサ30とディスプレイ装置22とを示し、他の構成部の図示を省略する。深度センサ30は、ユーザの手指を撮影することができるように、手指によるつまみ動作が行われる空間の上方に、不図示のレンズを下向きにして配置される。ディスプレイ装置22は、ユーザと対向する位置に配置される。また、ディスプレイ装置22は、ディスプレイ装置22とユーザとの間に、深度センサ30の手指の撮影領域(つまみ動作が行われる空間)が配置されるような位置に設けられる。図20には、深度センサ30の位置をパイプで固定した例を示したが、この固定方法に限定されるものではなく、他の方法で固定するようにしてもよい。
ディスプレイ装置22の表示画面には、立方体状の仮想的なオブジェクトVo1(仮想3次元物体)と、オブジェクトVo1を造形する棒状の(円柱形状の)仮想的なツールVo2とが表示されている。図20に示すシステムの例では、つまみ動作の有無及び手指の位置や姿勢の変化に応じて、ツールVo2の位置及び姿勢を変化させるとともに、オブジェクトVo1に対して、ツールVo2による所定の処理(造形)を実施することができる。
ツールVo2の形状は棒状に限定されるものではなく、球状やブラシ形状、その他の形状であってもよい。また、ツールVo2の数は、1つに限定されるものではなく、複数のツールが用意されていてもよい。例えば、オブジェクトVo1を削るツールや、オブジェクトVo1に他のオブジェクトを取り付ける(結合させる)ツール、オブジェクトVo1を回転又は移動させるツールなど、様々なツールを用意してもよい。
図21は、深度センサ30の撮影領域、及びつまみ動作の認識可能範囲を示した図である。深度センサ30は、ディスプレイ装置22が配置された平面Fsから上方に580mm離れた位置に配置される。深度センサ30の撮影領域Rsは、平面Fs上における横520mm×縦400mmの撮影範囲を底面とし、高さを580mmとする略四角錐状の形状を有する。この撮影領域Rs内において、つまみ動作等のジェスチャが認識される領域は、平面Fsから高さ80mmの位置から、高さ270mmの位置に渡る領域(四角錐台状の領域)である。なお、深度センサ30の撮影領域Rs、及びつまみ動作の認識可能範囲は、図21に示す例に限定されるものではなく、例えば、深度センサ30の性能(画角)や用途等に応じて、適宜設定することができる。
図22A及び図22Bは、手指動作検出装置部40で検出された手指の位置及び姿勢と、仮想空間上のツールVo2の位置及び姿勢との対応関係を示す図である。図22Aに、手指動作検出装置部40で検出された手指の位置及び姿勢を示し、図22Bに、ツールVo2の仮想空間上における位置及び姿勢を示す。図22Bには、ツールVo2が、オブジェクトVo1を回転させるスパナである場合を例示する。なお、図22A及び図22Bにおいては、説明を簡略化するため、X−Y座標系で表現できるパラメータのみを示す。
いま、図22Aに示すように、指先の接触点FのX軸方向の座標がx1であり、Y軸方向の座標がy1であり、Z軸方向の座標がz1(図示略)であるとする。また、手指の姿勢を示すヨー角ψがψ1であるとする。そして、この例では、スパナ(ツールVo2)の、手によって把持されるグリップの根本の部分を、仮想空間における(x1,y1,z1)の位置に配置する。さらに、スパナ(ツールVo2)の軸方向の回転角であるヨー角ψが、手指の姿勢を示すヨー角ψ1と同一の角度に設定される。本実施形態では、このようにして、現実空間における手指の位置及び姿勢と、仮想空間におけるツールVo2(スパナ)の位置及び姿勢とを対応付ける。それゆえ、ユーザは、つまみ動作を行う際の手指の位置や姿勢を変化させるだけで、ツールVo2の位置及び姿勢を容易に変えることができる。
図23は、仮想物体操作部50の内部構成、並びに、仮想物体操作部50を構成する各部と、入力装置21、手指動作検出装置部40及びメモリ装置14との間における情報のフローを示す説明図である。仮想物体操作部50は、トリガ判定部51と、ボクセル操作部52と、ポリゴン生成部53と、描画処理部54とを含む。
メモリ装置14内には、入力装置21、手指動作検出装置部40、及び仮想物体操作部50から出力された各種データが書き込まれる。メモリ装置14に書き込まれた各種データは、仮想物体操作部50の各部によって読み出される。メモリ装置14には、トリガD1、ボクセルデータD2、ツールの種類・大きさ情報D3、ツールの位置・姿勢情報D4、及びオブジェクトの位置・姿勢情報D5等の各種データが格納される。
トリガD1は、オン及びオフに対応する2値データで表されるフラグであり、このフラグは、手指動作検出装置部40から出力されるトリガ入力パラメータによって随時更新される。手指動作検出装置部40は、上述したように、手指のつまみ動作を検出した時には、トリガをオンにするトリガ入力パラメータを出力し、手指のつまみ動作が解除された時には、トリガをオフにするトリガ入力パラメータを出力する。
ボクセルデータD2は、オブジェクトVo1及びツールVo2の仮想空間上における体積や形状を定義するデータである。ボクセルとは、3次元の仮想空間を立体格子状に小さく区切った場合の、区切られた1つのブロック領域を示し、各ボクセルは、一定のスカラー値/ベクトル値を有する。ボクセルデータD2は、仮想物体操作部50のボクセル操作部52によってメモリ装置14に書き込まれる。
ツールの種類・大きさ情報D3は、ユーザによって選択されたツールVo2の種類及び/又は大きさを示す情報である。ツールの種類・大きさの情報D3は、キーボードやマウス等より構成される入力装置21に対して行われるユーザの操作に基づいて、変更される。
ツールの位置・姿勢情報D4は、現実空間上の手指の位置を示す3次元座標と、手指の姿勢を示すオイラー角とを含む。これらの情報(制御パラメータ)は、手指動作検出装置部40によってメモリ装置14に書き込まれる。オブジェクトの位置・姿勢情報D5は、オブジェクトVo1の仮想空間上の位置と姿勢とを示す。オブジェクトの位置・姿勢情報D5は、仮想物体操作部50のボクセル操作部52によってメモリ装置14に書き込まれる。
続いて、同じく図23を参照して、仮想物体操作部50を構成する各部の処理について説明する。トリガ判定部51は、メモリ装置14内に格納されたトリガD1を参照して、トリガ入力がオンであるか否かを判定する。そして、トリガ判定部51は、トリガ入力のオンを検出した場合には、その情報をボクセル操作部52に出力し、トリガ入力のオフを検出した場合には、その情報をポリゴン生成部53に出力する。
ボクセル操作部52は、ボクセルの生成操作、又は消滅操作を行う。ボクセル操作部52によるこれらの操作は、トリガ入力がオンになっており、かつ、ツールVo2がオブジェクトVo1に接触しているときに行われる。ツールVo2がオブジェクトVo1に接触しているか否かの判定は、メモリ装置14内に格納されたツールの種類・大きさ情報D3と、ツールの位置・姿勢情報D4と、オブジェクトの位置・姿勢情報D5との内容に基づいて行われる。
例えば、いま、ツールの種類・大きさ情報D3が、ツールVo2として、オブジェクトVo1のボクセルを消滅させる棒状のツールが選択されていることを示す情報である場合を考える。この場合、ボクセル操作部52は、ツールVo2の先端部分と接触する位置にあるボクセルを消滅させる。なお、トリガがオンであっても、所定のツールVo2の仮想空間上における位置がオブジェクトVo1から離れている場合には、ボクセル操作部52はボクセル操作を行わない。
ツールVo2の位置及び姿勢を規定するツールの位置・姿勢情報D4は、手指動作検出装置部40による手指動作検出処理によって、随時書き替えられる。このため、例えばツールVo2によって消滅されるボクセルの位置も、ユーザの手指の位置及び/又は姿勢の変化に応じて、その都度変化する。ボクセル操作部52は、操作したボクセルの情報を、ボクセルデータD2としてメモリ装置14内に書き込む。
また、ツールVo2として、例えばオブジェクトVo1の位置や姿勢を変化させるツールが選択されている場合には、ボクセル操作部52は、ボクセルを消滅又は追加する処理は行わずに、ボクセルの集合体であるオブジェクトVo1の位置・姿勢のみを変化させる。この場合は、ボクセル操作部52は、移動させたボクセルの位置・姿勢の情報を、オブジェクトの位置・姿勢情報D5としてメモリ装置14内に書き込む。
ポリゴン生成部53は、メモリ装置14から読み出したボクセルデータD2からポリゴンデータを生成する。ポリゴンデータ生成処理は、例えば、マーチング・キューブズ法等のアルゴリズムを用いて行われる。マーチング・キューブズ法は、ボクセルデータの可視化方法として一般的な方法であり、詳細には、ボクセル集合の局所的な配置からボクセル集合を覆う面素を推定し、ボクセルの表面を多角形ポリゴンで近似することにより、物体の状面を構成する方法である。
描画処理部54は、ポリゴン生成部53でポリゴンデータに変換されたオブジェクトVo1及びツールVo2を、仮想空間上に3DCGとして描画する。オブジェクトVo1の仮想空間上での位置及び姿勢は、メモリ装置14から読み出したオブジェクトの位置・姿勢情報D5に基づいて決定される。ツールVo2の仮想空間上での位置及び姿勢は、メモリ装置14から読み出したツールの種類・大きさ情報D3と、ツールの位置・姿勢情報D4とに基づいて決定される。3DCGの描画は、例えば、オープンソースとして公開されている、OpenGL(登録商標)等のグラフィックAPI(Application Programming Interface)を用いて行うことができる。
[仮想3次元物体処理手法の詳細]
次に、上記実施形態の仮想3次元物体処理システム1(仮想造形システム)により仮想3次元物体の造形処理を行う際の処理手順を、図24を参照しながら説明する。図24は、上記実施形態の仮想3次元物体処理システム1(仮想造形システム)によって実行される仮想3次元物体の造形処理手法の処理手順を示すフローチャートである。
次に、上記実施形態の仮想3次元物体処理システム1(仮想造形システム)により仮想3次元物体の造形処理を行う際の処理手順を、図24を参照しながら説明する。図24は、上記実施形態の仮想3次元物体処理システム1(仮想造形システム)によって実行される仮想3次元物体の造形処理手法の処理手順を示すフローチャートである。
まず、仮想3次元物体処理システム1の手指動作検出装置部40が、つまみ動作における指先の位置と、手指の姿勢と、トリガ入力のオン/オフ情報(トリガ入力パラメータ)とを取得する(ステップS11)。そして、仮想物体操作部50は、入力装置21に対する操作入力があるかどうかを判断して(ステップS12)、操作入力があった場合には、操作内容に基づいて、ツールVo2の種類の変更、及び/又はツールVo2の設定を行う(ステップS13)。操作入力がなかった場合には、仮想物体操作部50は、ステップS14の処理を行う。
ステップS14では、仮想物体操作部50は、トリガ入力がオンであるか否かの判断を行い、トリガ入力がオンであると判断した場合には、続いて、仮想空間におけるツールVo2の位置とオブジェクトVo1の位置との間の距離が、所定の距離以内であるかを判断する(ステップS15)。仮想空間におけるツールVo2の位置とオブジェクトVo1の位置との間の距離が、所定距離以内である場合、すなわち、ツールVo2がオブジェクトVo1に接触していると判断できる距離である場合は、ボクセル操作部52がボクセル操作を行う(ステップS16)。トリガ入力がオフである場合には、仮想物体操作部50は、ステップS17の処理を行う。
ステップS17では、ポリゴン生成部53がボクセルデータD2からポリゴンデータを生成する。続いて、描画処理部54が、ポリゴンデータに変換されたオブジェクトVo1及びツールVo2を、仮想空間上に3DCGとして描画する(ステップS18)。
図25は、上記実施形態の仮想3次元物体処理システム1(仮想造形システム)によるオブジェクトVo1の生成例を示す図である。図25の例では、オブジェクトVo1として、壺が描かれており、壺の左側の把手の部分に、棒状のツールVo2が配置されている。図25に示す例では、ユーザは、棒状のツールVo2の基端部分を摘むイメージでつまみ動作を行い、つまみ動作を行っている手指の位置や姿勢を変化させることにより、ツールVo2の位置や姿勢を変化させて、オブジェクトVo1である壺の形状を任意の形状に造形する。
上記実施形態では、つまみ動作を行っている指先の接触点Fの現実空間上における位置を、仮想空間上におけるツールVo2の位置に変換する。さらに、手指によって形成される内部領域Aiの重心Oと、指先の位置基準点Pとを通る線Ln3の姿勢を、仮想空間上のツールVo2の姿勢に変換する。それゆえ、上記実施形態では、仮想空間上におけるツールVo2の位置及び姿勢を、現実空間上で実際にツールを摘んだ場合における現実空間上におけるツールの位置及び姿勢と、ほぼ一致させることができる。すなわち、つまみ動作時の指先の細かな動きも、仮想空間上におけるツールVo2の動作に正確に反映させることができる。したがって、上記実施形態における仮想3次元物体処理システム1では、ツールVo2の位置や姿勢をわずかに変更させたり、オブジェクトVo1の自由曲面を造形したりする操作も、ユーザは、意図したとおりに自在に行うことができる。
[評価実験]
ここで、上記実施形態の仮想3次元物体処理技術により得られる各種効果を、実際に行った評価実験の結果に基づいてより具体的に説明する。この評価実験は、本発明が提案するつまみ動作による入力インターフェースの、操作性を評価することを目的として行った。被験者には、ディスプレイ装置の画面上の仮想空間に表示された仮想3次元物体を、つまみ動作により定められた目標位置及び姿勢に設置しなおすという作業を行わせ、その作業時間を計測した。仮想3次元物体の目標位置及び姿勢は、画面上に、半透明の目標物体を描画することにより被験者に示した。
ここで、上記実施形態の仮想3次元物体処理技術により得られる各種効果を、実際に行った評価実験の結果に基づいてより具体的に説明する。この評価実験は、本発明が提案するつまみ動作による入力インターフェースの、操作性を評価することを目的として行った。被験者には、ディスプレイ装置の画面上の仮想空間に表示された仮想3次元物体を、つまみ動作により定められた目標位置及び姿勢に設置しなおすという作業を行わせ、その作業時間を計測した。仮想3次元物体の目標位置及び姿勢は、画面上に、半透明の目標物体を描画することにより被験者に示した。
この評価実験では、操作対象の仮想3次元物体の位置及び姿勢が、目標物体の位置及び姿勢に所定範囲内で近づいた時点で、位置合わせ作業が自動的に完了されるようにし、その後、画面上に次の目標物体を表示した。被験者には、この位置合わせの作業を5つの目標物体に対して行わせ、その合計時間を計測した。被験者には、この流れを1セットとする実験を10セット行わせ、1セット当たりの平均作業時間を求めた。また、比較のため、同様の位置合わせの作業をマウス入力により行わせ、同様に1セット当たりの平均作業時間を求めた。
実験結果を以下の表1に示す。
表1には、上記実施形態による手法と、マウスを用いて操作を行う手法の両方のケースにおける、被験者A、被験者B、被験者Cのそれぞれの平均作業時間(秒)を示す。表1に示されるように、被験者A、被験者B、被験者Cのいずれにおいても、マウスを用いて操作を行った場合よりも、上記実施形態による手法を用いた場合の方が、作業時間が短くなっていることが分かる。
<各種変形例>
本発明に係る手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システムは、上記実施形態で説明した例に限定されない。特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の変形例も本発明に含まれる。例えば、次のような各種変形例及び応用例も本発明に含まれる。
本発明に係る手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システムは、上記実施形態で説明した例に限定されない。特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の変形例も本発明に含まれる。例えば、次のような各種変形例及び応用例も本発明に含まれる。
上記実施形態では、仮想3次元物体を操作するための制御パラメータとして、手指の位置及び姿勢と、トリガ入力パラメータとを用いたが、本発明はこれに限定されない。手指の位置及び姿勢の一方の制御パラメータのみを用いるようにしてもよい。
また、上記実施形態では、つまみ動作として、親指及び人差し指の2本の指の指先同士を接触させる動作を例に挙げたが、つまみ動作は、この動作に限定されない。つまみ動作は、親指と人差し指以外の指(中指等)とを接触させる動作であってもよいし、親指の指先とその他のすべての指の指先とを接触させる動作や、親指以外の他の2本の指の指先同士を接触させる動作(例えば、人差し指と中指とを接触させる動作)であってもよい。
また、上記実施形態では、トリガ入力のオン/オフを、つまみ動作を行う指先の接触/非接触によって切り替える例を挙げたが、本発明はこれに限定されない。例えば、手指の特定の指を動かす等の、閉空間が形成されない動作を、トリガ入力検出用の動作としてもよい。
また、上記実施形態では、指先の位置基準点Pと、内部領域Aiの重心Oとを通る線Ln3を、手指の姿勢ベクトルとして求めたが、本発明はこれに限定されない。指先の位置基準点P、あるいはそれに準ずる特徴点と、内部領域Ai内における重心O以外の特徴点とを通る線を、手指の姿勢ベクトルとして検出してもよい。又は、例えば、上述した重心Oと上述した距離中心点Hとを通る線分、すなわち、指先の位置基準点Pを通らない線を、手指の姿勢ベクトルとして検出してもよい。
また、上記実施形態では、つまみ動作によって仮想空間上のツールVo2の位置及び姿勢を変化させることにより、オブジェクトVo1に対して所定の処理を施す例を挙げたが、本発明はこれに限定されない。例えば、オブジェクトVo1の位置及び姿勢を変化させるツールが選択された場合には、手指の位置及び姿勢に基づいて、オブジェクトVo1の位置及び姿勢を直接操作するようにしてもよい。
また、上記実施形態では、操作対象となる仮想物体が3次元状の仮想物体である例を説明したが、上述した本発明の仮想物体処理(操作)技術は、2次元状及び1次元状の仮想物体に対しても同様に適用可能であり、同様の効果が得られる。
上記実施形態では、本発明の手指動作検出技術を、仮想3次元物体の操作に適用する例を説明したが、本発明はこれに限定されない。例えば、本発明の手指動作検出技術を、ロボットアームの操作にも同様に適用可能である。
1…仮想3次元物体処理システム、10…CPU、11…ドライブ装置、12…記憶媒体、13…補助記憶装置、14…メモリ装置、20…インターフェース装置、21…入力装置、22…ディスプレイ装置、23…画像入力インターフェース、30…深度センサ、40…仮想3次元物体制御パラメータ取得部、41…画像取得部、42…フィルタ処理部、43…内部領域抽出部、44…動作検出部、45…特徴点抽出部、46…パラメータ算出部、50…仮想3次元物体制御部、51…トリガ判定部、52…ボクセル操作部、53…ポリゴン生成部、54…描画処理部
Claims (14)
- 手指の形状及び高さの情報を有する画像を取得する画像取得部と、
前記画像取得部によって取得された前記画像から、前記手指の所定動作に対応する前記手指の第1の形状、又は、前記手指の所定動作以外の動作に対応する前記手指の第2の形状を検出する手指形状検出部と、
前記手指形状検出部で検出された前記第1の形状の情報又は第2の形状の情報に基づいて、前記手指の3次元空間上の位置及び前記手指の姿勢の少なくとも一方の情報と、前記手指形状検出部の検出結果に対応する情報とを検出する手指動作検出部とを備えた
手指動作検出装置。 - 前記手指の所定動作は、前記手指のつまみ動作である
請求項1に記載の手指動作検出装置。 - 前記手指動作検出部は、つまみ動作時には、2本の指同士が接触している位置を前記手指の3次元空間上の位置として検出し、非つまみ動作時には、対向する2本の指の指先間の中間点の位置を前記手指の3次元空間上の位置として検出する
請求項2に記載の手指動作検出装置。 - 前記画像取得部で取得された前記画像内において、周囲を手指領域に囲まれた内部領域を抽出する内部領域抽出部をさらに備え、
前記手指形状検出部は、前記内部領域抽出部で前記内部領域が検出された場合の前記画像内の手指の形状を前記第1の形状として検出し、前記内部領域抽出部で前記内部領域が検出されなかった場合の前記画像内の手指の形状を前記第2の形状として検出する
請求項3に記載の手指動作検出装置。 - 前記手指動作検出部は、前記手指の姿勢として、前記内部領域内の所定の画素、及び前記指先の接触位置に位置する画素を通る第1の線の、前記画像の画像平面内における回転角及び前記画像平面に対する傾き角と、前記第1の線と前記画像の画像平面上で直交する第2の線の、前記画像平面に対する傾き角とを算出する
請求項4に記載の手指動作検出装置。 - 前記内部領域内の所定の画素は、前記内部領域の重心に位置する画素である
請求項5に記載の手指動作検出装置。 - 前記画像の領域を、前記手指の領域を含む前景領域と、それ以外の背景領域とに分離するフィルタ処理部をさらに備え、
前記内部領域抽出部は、前記フィルタ処理部で分離された前記前景領域の情報と前記背景領域の情報とを用いて、前記内部領域を抽出する
請求項6に記載の手指動作検出装置。 - 前記画像内の手指形状に関する所定の特徴点を抽出する特徴点抽出部をさらに備え、
前記特徴点抽出部は、前記前景領域を構成する画素のうち、前記画像の画像平面において前記背景領域との距離が最も大きい画素を距離中心点として抽出し、前記距離中心点と前記内部領域の重心とを結ぶ線分を対角線とする正方形を構成する4つの頂点のうちの、前記距離中心点と前記重心以外の2つの頂点の中から、前記手指の甲側に位置する頂点を距離基準点として抽出し、前記内部領域内にある画素の中から指先の接触点の複数の候補点に対応する画素を抽出して、前記複数の候補点に対応する画素の中から前記距離基準点との距離が最も大きい画素を、指先の位置基準点として抽出し、前記指先の位置基準点と前記重心とを通る前記第1の線上に存在する画素のうち、前記前景領域内の画素であり、前記重心を起点とした場合の前記重心から前記指先の位置基準点に向かう第1の方向において、前記手指の高さが最も高い画素を、前記指先の接触点として抽出し、
前記手指動作検出部は、前記手指の3次元空間上の位置として、前記指先の接触点の3次元空間上の位置座標を検出する
請求項7に記載の手指動作検出装置。 - 前記特徴点抽出部は、前記第1の線上に存在する画素のうち、前記前景領域内に位置する画素であり、前記重心を起点とした場合の前記第1の方向とは反対の第2の方向において、前記手指の高さが最も高い画素を、第1の姿勢基準点として抽出し、前記重心を通り、かつ前記第1の線と直交する第2の線上に存在する画素のうち、前記前景領域内に位置する画素であり、前記第1の線を境に対して一方の側の領域内に位置する画素の中から、前記手指の高さが最も高い画素を第2の姿勢基準点として抽出し、前記第1の線に対して他方の側の領域内に位置する画素の中から、前記手指の高さが最も高い画素を第3の姿勢基準点として抽出し、
前記手指動作検出部は、前記指先の接触点、前記第1の姿勢基準点、前記第2の姿勢基準点、及び前記第3の姿勢基準点の3次元空間上の座標位置に基づいて、前記手指の姿勢を示すオイラー角を算出する
請求項8に記載の手指動作検出装置。 - 前記特徴点抽出部は、前記内部領域抽出部で前記内部領域が抽出されなかった場合には、前記前景領域として抽出された手指領域を細線化し、前記細線化された手指領域の複数の端点の中から、所定の指の端点に対応する第1の端点を抽出し、前記画像の画像平面上において前記第1の端点と最も近い位置に存在する第2の端点を抽出し、前記第1の端点と前記第2の端点とを結ぶ線分の中間点を、仮想接触点として抽出し、
前記手指動作検出部は、前記手指の3次元空間上の位置として、前記仮想接触点の3次元空間上の位置座標を検出する
請求項7に記載の手指動作検出装置。 - 前記特徴点抽出部は、前記第1の端点と前記第2の端点とを結ぶ線分と、前記細線化された手指領域とによって囲われた領域に含まれる前記背景領域を、擬似内部領域として抽出し、
前記手指動作検出部は、前記手指の3次元空間上の位置として、前記仮想接触点の3次元空間上の位置座標を検出し、前記手指の姿勢として、前記擬似内部領域の重心と前記仮想接触点とを通る第3の線の、前記画像の画像平面内における回転角及び前記画像平面に対する傾き角と、前記擬似内部領域の重心を通る線であり、前記第3の線と前記画像の平面上で直交する第4の線の、前記画像の画像平面に対する傾き角とを算出する
請求項10に記載の手指動作検出装置。 - 手指の形状及び高さの情報を有する画像を取得することと、
前記取得された前記画像から、前記手指の所定動作に対応する前記手指の第1の形状、又は、前記手指の所定動作以外の動作に対応する前記手指の第2の形状を検出することと、
前記検出された前記第1の形状の情報又は第2の形状の情報に基づいて、前記手指の3次元空間上の位置及び前記手指の姿勢の少なくとも一方の情報と、前記手指の所定動作の検出結果に対応する情報とを検出することとを含む
手指動作検出方法。 - 手指の形状及び高さの情報を有する画像を取得することと、
前記取得された前記画像から、前記手指の所定動作に対応する前記手指の第1の形状、又は、前記手指の所定動作以外の動作に対応する前記手指の第2の形状を検出することと、
前記検出された前記第1の形状の情報又は第2の形状の情報に基づいて、前記手指の3次元空間上の位置及び前記手指の姿勢の少なくとも一方の情報と、前記手指の所定動作の検出結果に対応する情報とを検出することとを、情報処理装置に実装して実行させる
手指動作検出プログラム。 - 手指の形状及び高さの情報を有する画像を取得する画像取得部と、
前記画像取得部によって取得された前記画像から、前記手指の所定動作に対応する前記手指の第1の形状、又は、前記手指の所定動作以外の動作に対応する前記手指の第2の形状を検出する手指形状検出部と、
前記手指形状検出部で検出された前記第1の形状の情報又は第2の形状の情報に基づいて、前記手指の3次元空間上の位置及び前記手指の姿勢の少なくとも一方の情報と、前記手指形状検出部の検出結果に対応する情報とを検出する手指動作検出部と、
処理対象となる仮想物体を表示するディスプレイ装置と、
前記手指動作検出部で検出された、前記手指の3次元空間上の位置及び前記手指の姿勢の少なくとも一方の情報と、前記手指形状検出部の検出結果に対応する情報とを用いて、前記ディスプレイ装置に表示された前記仮想物体に所定の処理を施す仮想物体処理部とを備えた
仮想物体処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013117690A JP2014235634A (ja) | 2013-06-04 | 2013-06-04 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013117690A JP2014235634A (ja) | 2013-06-04 | 2013-06-04 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014235634A true JP2014235634A (ja) | 2014-12-15 |
Family
ID=52138275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013117690A Pending JP2014235634A (ja) | 2013-06-04 | 2013-06-04 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014235634A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015114762A (ja) * | 2013-12-10 | 2015-06-22 | 国立大学法人 筑波大学 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
JP2016520946A (ja) * | 2014-01-07 | 2016-07-14 | ソフトキネティック ソフトウェア | 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 |
WO2016121034A1 (ja) * | 2015-01-28 | 2016-08-04 | 株式会社ウェアラブルデバイス総合研究所 | ウェアラブル装置、入力方法及びプログラム |
JP2016148901A (ja) * | 2015-02-10 | 2016-08-18 | 嘉泰 小笠原 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
JP2016167268A (ja) * | 2015-03-06 | 2016-09-15 | 国立大学法人 筑波大学 | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム |
WO2017006857A1 (ja) * | 2015-07-08 | 2017-01-12 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
US9864433B2 (en) | 2012-07-13 | 2018-01-09 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
JP2018501570A (ja) * | 2014-12-18 | 2018-01-18 | フェイスブック,インク. | 仮想現実環境においてナビゲートする方法、システム、および装置 |
WO2018074252A1 (ja) * | 2016-10-19 | 2018-04-26 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2020052991A (ja) * | 2018-09-25 | 2020-04-02 | 未來市股▲ふん▼有限公司 | ジェスチャ認識に基づく対話型ディスプレイの方法及び装置 |
WO2022196222A1 (ja) * | 2021-03-16 | 2022-09-22 | ソニーセミコンダクタソリューションズ株式会社 | 検出処理装置、検出処理方法、情報処理システム |
JP2022160533A (ja) * | 2020-11-05 | 2022-10-19 | マクセル株式会社 | 表示装置 |
-
2013
- 2013-06-04 JP JP2013117690A patent/JP2014235634A/ja active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11513601B2 (en) | 2012-07-13 | 2022-11-29 | Sony Depthsensing Solutions Sa/Nv | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
US9864433B2 (en) | 2012-07-13 | 2018-01-09 | Softkinetic Software | Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand |
JP2015114762A (ja) * | 2013-12-10 | 2015-06-22 | 国立大学法人 筑波大学 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
JP2016520946A (ja) * | 2014-01-07 | 2016-07-14 | ソフトキネティック ソフトウェア | 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 |
US11294470B2 (en) | 2014-01-07 | 2022-04-05 | Sony Depthsensing Solutions Sa/Nv | Human-to-computer natural three-dimensional hand gesture based navigation method |
JP2018501570A (ja) * | 2014-12-18 | 2018-01-18 | フェイスブック,インク. | 仮想現実環境においてナビゲートする方法、システム、および装置 |
US9972136B2 (en) | 2014-12-18 | 2018-05-15 | Facebook, Inc. | Method, system and device for navigating in a virtual reality environment |
WO2016121034A1 (ja) * | 2015-01-28 | 2016-08-04 | 株式会社ウェアラブルデバイス総合研究所 | ウェアラブル装置、入力方法及びプログラム |
JP2016148901A (ja) * | 2015-02-10 | 2016-08-18 | 嘉泰 小笠原 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
JP2016167268A (ja) * | 2015-03-06 | 2016-09-15 | 国立大学法人 筑波大学 | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム |
JP2017021461A (ja) * | 2015-07-08 | 2017-01-26 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
CN107710105A (zh) * | 2015-07-08 | 2018-02-16 | 索尼互动娱乐股份有限公司 | 操作输入装置和操作输入方法 |
WO2017006857A1 (ja) * | 2015-07-08 | 2017-01-12 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
WO2018074252A1 (ja) * | 2016-10-19 | 2018-04-26 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US10970916B2 (en) | 2016-10-19 | 2021-04-06 | Sony Corporation | Image processing apparatus and image processing method |
JPWO2018074252A1 (ja) * | 2016-10-19 | 2019-08-08 | ソニー株式会社 | 画像処理装置および画像処理方法 |
CN109844813A (zh) * | 2016-10-19 | 2019-06-04 | 索尼公司 | 图像处理装置和图像处理方法 |
CN109844813B (zh) * | 2016-10-19 | 2023-11-07 | 索尼公司 | 图像处理装置和图像处理方法 |
JP2020052991A (ja) * | 2018-09-25 | 2020-04-02 | 未來市股▲ふん▼有限公司 | ジェスチャ認識に基づく対話型ディスプレイの方法及び装置 |
US10732725B2 (en) | 2018-09-25 | 2020-08-04 | XRSpace CO., LTD. | Method and apparatus of interactive display based on gesture recognition |
JP2022160533A (ja) * | 2020-11-05 | 2022-10-19 | マクセル株式会社 | 表示装置 |
JP7369834B2 (ja) | 2020-11-05 | 2023-10-26 | マクセル株式会社 | 表示装置 |
WO2022196222A1 (ja) * | 2021-03-16 | 2022-09-22 | ソニーセミコンダクタソリューションズ株式会社 | 検出処理装置、検出処理方法、情報処理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014235634A (ja) | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム | |
JP5981990B2 (ja) | 全自動動的有関節モデル較正 | |
KR101761050B1 (ko) | 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법 | |
RU2605370C2 (ru) | Система для распознавания и отслеживания пальцев | |
US9344707B2 (en) | Probabilistic and constraint based articulated model fitting | |
JP5160235B2 (ja) | 画像中の物体の検出及び追跡 | |
JP4608326B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
AU2012268589A1 (en) | System for finger recognition and tracking | |
US20150058782A1 (en) | System and method for creating and interacting with a surface display | |
JP6487642B2 (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6054831B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
TW201322058A (zh) | 手勢辨識系統及方法 | |
CN111862333A (zh) | 基于增强现实的内容处理方法、装置、终端设备及存储介质 | |
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
JP6651388B2 (ja) | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム | |
JP6325659B2 (ja) | 操作画面表示装置、操作画面表示方法およびプログラム | |
JP6425299B2 (ja) | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
Feng et al. | An HCI paradigm fusing flexible object selection and AOM-based animation | |
Jaiswal et al. | Creative exploration of scaled product family 3D models using gesture based conceptual computer aided design (C-CAD) tool | |
Hartmann et al. | A virtual touchscreen with depth recognition | |
Mishra et al. | Development and evaluation of a Kinect based Bin-Picking system | |
JP2017103607A (ja) | 画像処理装置、画像処理方法及びプログラム |