JP6651388B2 - ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム - Google Patents

ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム Download PDF

Info

Publication number
JP6651388B2
JP6651388B2 JP2016043922A JP2016043922A JP6651388B2 JP 6651388 B2 JP6651388 B2 JP 6651388B2 JP 2016043922 A JP2016043922 A JP 2016043922A JP 2016043922 A JP2016043922 A JP 2016043922A JP 6651388 B2 JP6651388 B2 JP 6651388B2
Authority
JP
Japan
Prior art keywords
finger
region
image
fingertip
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016043922A
Other languages
English (en)
Other versions
JP2016167268A (ja
Inventor
聖 星野
聖 星野
慶多 浜松
慶多 浜松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Publication of JP2016167268A publication Critical patent/JP2016167268A/ja
Application granted granted Critical
Publication of JP6651388B2 publication Critical patent/JP6651388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステムに関する。
従来の3DCADや3Dモデリングソフトでは、使用する際に、2次元の入力機器であるコンピュータマウスを使って全ての操作を行う必要があったため、複雑な操作方法や専門的な知識がユーザに要求される。このため、複雑な操作方法や専門的な知識を有していないユーザが使用することは困難であった。
福地健太郎, 佐藤俊樹, 間宮暖子, 小池英樹,"指をつまむジェスチャを認識するテーブルトップエンタテインメントシステム向け入力手法とその応用",日本バーチャルリアリティ学会論文誌, Vol.15, No.2, pp.157-164, 2010 Andrew D. Wilson,"Robust Computer Vision-Based Detection of Pinching for One and Two-Handed Gesture Input", UIST ’06, Proceeding of the 19th annual ACM symposium on User interface software and technology, ACM, ACM Press, pp.255-258, 2006
ジェスチャ認識による入力インターフェースは、人間が現実世界で行うような動きを、特別な入力装置を介することなくコンピュータへ情報入力することを可能にする。具体的な例としては、指先認識による位置入力を採用しているものがある。しかし指先認識によるシステムは、指先の位置と手の姿勢の入力を直観的に行えるものであるが、マウスでいうところのクリック・ドラッグにあたるようなトリガ入力を付与するのは難しく、入力インターフェースとしては不適である。
それに対して、物を片手でつまむ際の手の動作であるつまみ動作は、指先同士の接触の有無が2つの状態を示すものとして定めることにより、トリガ(オン、オフ)入力として適用できる。つまみ動作は、動作そのものが自然であり、その動作による指先の位置や手の姿勢(以下、単に「位置と姿勢」という。)とトリガ入力としてのオン、オフの入力とが独立に行える、オン、オフが明確に区別できる、などの利点を持つと考えられる。
非特許文献2においては、デスクトップ環境でのGUI(Graphical User Interface)操作手法として、RGBカメラを用いたつまみ動作の認識手法を提案している。同手法は親指と示指で閉じられた内部領域の楕円近似を行い、その楕円の長短軸などの情報から位置と姿勢を検出している。しかし、姿勢の検出が相対的変化量のみであり、繊細な入力を行うには不向きである。
非特許文献1においては、テーブルトップエンタテインメントシステムに向けたジェスチャ入力につまみ動作認識を用いており、ここで用いられる手法は指で閉じた内部領域の重心を位置入力の座標に、内部領域の重心と腕領域の重心を結んだ線を姿勢入力としている。同手法は複数人の同時使用を想定しているため処理速度が非常に速く、姿勢も絶対方向が検出できるが、ここで検出している姿勢は腕の方向を近似するものであり、指先の細かな動き対応するものではない。
また、非特許文献1および非特許文献2における手法では、入力インターフェースとしてつまみ動作を認識する上で大きな問題が3つ存在する。1つ目は指で閉じられた内部領域の重心によって位置を定義している点である。指先の位置でなく内部領域の重心を入力座標とする場合、指先位置による入力と比較して、手指の繊細な動きを入力位置に反映させづらいため、結果として必要以上に手を大きく動かさなければならず、ユーザへの負担が大きくなる。
2つ目はつまみ動作が行われていない場合の手指の状態を考慮していない点である。これは指先が接触していない状態では動作中の位置と姿勢の認識ができないことを意味する。指を接触させた状態にあるときの前後で位置の認識が為されない場合、ユーザは指を接触させるまでどの位置が入力として認識されるかを把握することができない。これにより、ユーザの意思が正確に反映された位置・姿勢でクリック・ドラッグ入力を行うことが困難になる。
3つ目は2次元画像上での手指の位置・回転のみを認識しているため、手指の姿勢が3次元的に変化する場合に動作を認識できない点である。非特許文献1および非特許文献2においては、2次元画像上に指で囲まれた背景領域が存在するかどうかでつまみ動作の発生の有無を検出している。この内部領域は手の姿勢が変化すると掌や他の指によって背景が遮蔽されるため抽出が困難になる。上記の3つの問題は、ユーザが実際に空間上で行っている動作に対して、入力として認識される情報が不十分であることを意味する。実際の動作と認識される情報量の乖離はユーザに違和感を与え、入力インターフェースとしての直感性が損なわれる原因となる。
本発明は上記問題に鑑みてなされたものであり、一人のユーザが両手のジェスチャを使ってモデリングを行ったり、複数人のユーザが協調して一つの造形作業をしたりすることができるようにすることができるジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステムを提供することを目的とする。
本発明は、強度の平滑化を適用した深度画像を用いて手指の凹状領域を検出する検出部と、前記検出部により検出された結果に基づいて、利用者のつまみ動作を認識する認識部と、重回帰分析による指領域の平面近似を用いた指先の位置および/または手指の姿勢を定義することで利用者の操作を受け付ける制御部とを備える。これにより、深度センサによって撮像された手指の画像からつまみ動作を認識し、3次元空間上での指先の位置及び手指の姿勢と、指先の接触の有無を同時に認識することが可能になる。
本発明では、一人のユーザが両手のジェスチャを使ってモデリングを行ったり、複数人のユーザが協調して一つの造形作業をしたりすることができるようにすることができる。
人間の手及び指により形成される閉空間を示す斜視図である。 画像の深度値を基準にして手領域と背景領域を2値化した場合における画像上での閉空間を示す図である。 本発明を適用したジェスチャモデリングシステムにおける構成例を示す斜視図である。 つまみ動作中の手指における指先の位置、手の姿勢、及び指先の接触の有無を示す図である。 フィルタリングの適用前後の深度値の様子を示す図である。 深度画像と、強度平滑化画像とを示す図である。 抽象深度勾配画像に対しマッチングを行うためのテンプレートを示す図である。 テンプレートマッチングによって手領域上の凹状領域を抽出する手順に対応した画像を示す図である。 凹状領域の輪郭線付近の手指の深度情報から手の指先付近の形状を3次元上の平面に近似することを説明する画像を示す図である。 手領域に対する指先の方向ベクトルを定めることを説明するための図である。 各手領域における凹状領域を説明するための図である。 凹状領域の統合について説明するための図である。 つまみ動作を利用した入力情報の構築を説明するための図である。 つまみ方の違いを識別し、異なる入力として利用する手法を説明するための図である。 人差し指が立っていると認識することを説明するための図である。 3次元入力インターフェースを利用した3DCGモデリングソフトウェアの様子と仮想空間内で物体を操作している様子を説明するための図である。 3次元入力インターフェースを利用した3DCGモデリングソフトウェアの様子と仮想空間内で物体を操作している様子を説明するための図である。 複数のユーザの協調作業を説明するための図である。 仮想の3D空間を示す図である。 サブジェクトごとの平均パフォーマンス時間を示す図である。 サブジェクトごとの平均パフォーマンス時間を示す図である。 手の本数と、処理速度のとの関係を示す図である。 ジェスチャモデリングシステムを使いジェスチャにより造形した3D形状の例を示す図である。 ジェスチャモデリングシステムを使いジェスチャにより造形した3D形状の例を示す図である。 実施形態のジェスチャモデリングシステムを示す構成図である。 認識部15の構成を示す構成図である。 実施形態のジェスチャモデリングシステムによる認識処理の手順を示すフローチャートである。 実施形態のフィルタリング処理の手順を示すフローチャートである。 実施形態の手領域の抽出処理の手順を示すフローチャートである。 実施形態の勾配の算出処理の手順を示すフローチャートである。 実施形態の凹状領域の検出処理の手順を示すフローチャートである。 実施形態の指先の接触判定処理の手順を示すフローチャートである。 実施形態の重回帰分析による平面近似処理の手順を示すフローチャートである。 実施形態の指先位置及び手指の姿勢の推定処理の手順を示すフローチャートである。 実施形態の複数の手指の識別処理の手順を示すフローチャートである。 実施形態の指の抱え込みを含む手形状に対応する処理の手順を示すフローチャートである。 実施形態のつまみ動作を利用した入力情報の構築処理の手順を示すフローチャートである。 実施形態のつまみ動作を利用した入力情報の構築処理の手順を示すフローチャートである。
以下、本発明を適用した実施形態について、図を適宜参照しながら詳細に説明する。なお、本発明は以下の実施形態に限定されるものではない。
本発明は、以下に述べるようなつまみ動作における指先の形状と画像上の深度値の関係に着目する。人間が手でつまみ動作を行うために指を接触させた場合、図1のように指によって囲まれた閉空間100が発生する。画像上でこのような閉空間を検出する時、つまみ方の違いや手指の姿勢の変化によって閉空間内に他の指や掌等が映りこむことがある。その場合、手領域と背景領域とを判別するために、撮像して得られた手領域と背景領域とを含む画像の2値化処理により得られる画像(以下、2値化画像という。)では、上記の閉空間を正確に検出することは難しい。
そこで、本実施形態では、一例として画像の深度値を用いた検出処理について説明する。画像の深度値を基準にして手領域と背景領域とが含まれる領域を2値化した結果に基づいて得られる画像上での閉空間を図2に示す。図2における左側の列は、2つの手の姿勢(hand pose)を例示し、中央と右側の列は、例示した2つの手の姿勢をそれぞれ検出して得られた深度画像に、本実施形態による処理を適用した結果を示す。
実施形態のジェスチャモデリングシステム1は、上記の問題を解消し、閉空間内の背景領域が手領域で遮蔽されている場合でも閉空間を検出する方法として、閉空間を深度上の窪みとして検出する。以下、その手法について述べる。ジェスチャモデリングシステム1は、閉空間が存在する画像の深度値に対して強度の平滑化を適用する。強度の平滑化とは、処理により得られる画像によって示される面の平滑性を増すようにする処理のことである。
閉空間が存在する画像の深度値に対して強度の平滑化を適用することにより、空間内の背景領域と手領域の細かな位置関係は無視され、閉空間は指周辺から閉空間の中央に向けてなだらかに深度が変化していくような凹状の窪みになる。
図2における中央と右側の列に、上記の強度の平滑化を適用した画像を、判定閾値(thresholdA/thresholdB)が異なる条件で量子化(2値化)した結果を示す。中央の列の判定閾値(thresholdA)は、深度範囲が比較的狭くなるように決定されている。右側の列の判定閾値(thresholdB)は、深度範囲が比較的広くなるように決定されている。この画像の明るさは、深度を示し、明るいほど深度が浅く、暗いほど深度が深いことを示す。上記のように、判定閾値を調整することにより、指周辺から閉空間の中央に向けてなだらかに深度が変化していく凹状の窪みを識別可能な画像を得ることができる。
この窪みは、2値化画像によって抽出される指で閉じられた内部領域とは違い、手指の形状や姿勢の変化による遮蔽の影響に対して堅牢で安定した画像として得ることができる特徴である。また、閉空間を2値化領域として検出する場合、指先が完全に接触した状態でなければ領域として検出ができなかった。これに対し、実施形態のジェスチャモデリングシステム1は、深度上の窪みとして検出することにより、窪みの発生が指先の接触の有無に依存しないため、つまみ形状の認識と指先の接触検出を独立して行うことができる。
つまみ動作における手の姿勢を定義する上で、位置の入力として使用する指先以外の手指の形状と手首や腕の位置は排除すべき情報である。排除すべき情報を除いて、必要とされる情報を得るための方法として、指領域周辺の深度値を利用した重回帰分析を用いる。閉空間を形成する2本の指は輪の形状をしており、3次元空間上の平面で近似することで不必要な手指の情報等を排除し、一意の姿勢情報を安定して定義することができる。以上のことをふまえ、本発明では強度の平滑化を適用した深度画像を用いた手指の凹状領域検出によるつまみ動作の認識と、重回帰分析による指領域の平面近似を用いた指先の位置及び手指の姿勢を定義する。これにより、深度センサによって撮像された手指の画像からつまみ動作を認識し、3次元空間上での絶対的な指先の位置及び手指の姿勢と、指先の接触の有無を同時に認識することを実現する。また、本発明により、撮像されるのが右手と左手のどちらの手でも構わなくなる。さらには、検出対象が両手であったり、複数個の手であったりしても、これらを含むように撮像された画像から、これらを同時に認識できるようになる。それゆえ、一人のユーザが両手を使うジェスチャ造形システムや、複数人のユーザが一緒に共同作業できるジェスチャ造形システムが実現できるようになる。
図25を参照して、実施形態のジェスチャモデリングシステム1について、より具体的な構成の一例について説明する。図25は、実施形態のジェスチャモデリングシステムを示す構成図である。ジェスチャモデリングシステム1は、モニター11(表示装置)と、ジェスチャモデリング装置12とを備える。
モニター11は、各種情報を含む画像及びユーザの操作を検出した結果を示す画像を表示する。
ジェスチャモデリング装置12は、CPUと、ROM(Read Only Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、HDD(Hard Disk Drive)の不揮発性の記憶装置と、RAM(Random Access Memory)レジスタ等の揮発性の記憶装置と、を含むコンピュータであり、実行するプログラムにより検出対象の深度画像に対する処理を実行する。ジェスチャモデリング装置12は、深度センサ13と、記憶部14と、認識部15と、制御部16と、処理部17とを備える。
深度センサ13は、ユーザの手を撮像する。例えば、深度センサ13は、深度センサとして構成される。深度センサ13をTOF(Time Of Flight)方式の深度センサとして構成した場合、例えば、320×240ピクセルの画像サイズの深度画像を最大60[fps(frame per sec)]の速さで撮影可能である。深度センサ13は、検出した深度画像を実時間で記憶部14に順次書き込む。ジェスチャモデリングシステム1における演算装置への入力となる深度画像には、画素の位置情報が座標、奥行きが画素値で表現されている。
記憶部14は、ROM、EEPROM、HDD等の不揮発性の記憶装置と、RAMレジスタ等の揮発性の記憶装置によって実現される。記憶部14は、ジェスチャモデリングシステム1を機能させるためのプログラム、深度センサ13による検出結果である深度画像、凹状領域及び凸状領域を抽出するためのテンプレート、及び、深度画像に基づいて生成される各種画像情報等を格納する。深度画像に基づいて生成される各種画像情報の詳細は後述する。
認識部15は、深度センサ13により検出されたユーザの手の深度画像のデータを取得して、深度センサ13により検出された結果に基づいて、ユーザのつまみ動作を認識する。
図26は、認識部15の一例を示す構成図である。認識部15は、フィルタリング部1501と、手領域抽出部1502と、抽象深度勾配画像生成部1503と、凹状領域検出部1504と、指先接触判定部1505と、平面近似部1506と、指先位置推定部1507と、手指姿勢推定部1508と、複数手指識別部1509と、手形状認識部1510と、入力情報構築部1520と、を備える。認識部15の各部の詳細については後述する。
制御部16は、重回帰分析による指領域の平面近似を用いた指先の位置および/または手指の姿勢を定義することで利用者の操作を受け付ける。
処理部17は、制御部16が受け付けた利用者の操作に基づいて、操作に対応付けられた所望の処理を実施する。例えば、処理部17は、深度センサ―13で検出されて、制御部16により定義された指先の位置および/または手指の姿勢の少なくとも一方の情報を用いて、モニター11に表示された操作物体に所定の処理を施すように構成してもよい。
図3は、ジェスチャモデリングシステムの構成例を示す。図4は、検出対象のつまみ動作中の手指を示す。
本発明を適用したジェスチャモデリングシステム1では、例えば、図3に示すように、モニター11の上部に固定された1台の深度センサ13を下向きに設置する。深度センサ13は、深度センサ13からの深度がその検出範囲にある手Hを、手Hの上方から撮像する。
ジェスチャモデリングシステム1におけるジェスチャモデリング装置12は、図4(a)および(b)に示すように手Hの手指を検出し、その結果から、図4(a)および(b)に示すような、つまみ動作中の手指における指先の位置(P)、手の姿勢(D、N)、及び指先の接触の有無(ON/OFF)を、出力(Y)として得る。なお、指先の位置を示すPは、位置情報又はベクトルであり、手の姿勢を示すDとNは、ベクトルである。ジェスチャモデリングシステム1は、上記の指先の位置(P)、手の姿勢(D、N)、及び指先の接触の有無(ON/OFF)を、線形に加算する式(1)により出力(Y)を得るようにしてもよい。指先の位置(P)、手の姿勢(D、N)、及び指先の接触の有無(ON/OFF)の算出方法については、後述する。
Y=(R,D,N)+(ON/OFF) ・・・(1)
以下、本発明を適用したジェスチャモデリングシステム1における演算装置により実行される処理を説明する。図27は、実施形態のジェスチャモデリングシステムによる認識処理の手順を示すフローチャートである。
ジェスチャモデリングシステム1は、フィルタリング処理(S10)、手領域の抽出と抽象深度勾配画像の生成を実施する処理(S20)、凹状領域の検出(S30)、指先接触の判定処理(S40)、重回帰分析による平面近似処理(S50)、指先位置と手指の姿勢を推定する処理(S60)、複数の手指の識別処理(S70)、手形状の認識(S80)、つまみ動作を利用した入力情報の構築(S90)等の各処理を順に実施する。以下、上記の各処理の一例について、順に説明する。
1.フィルタリング
深度センサ13から直接取得できる画像の深度値には多量のノイズが発生しているので、ジェスチャモデリングシステム1は、事前処理として3種類のフィルタを重ねがけすることでノイズの除去と平滑化を行う。フィルタリングの適用前後の深度値の様子を図5に示す。
図28は、実施形態のフィルタリング処理の手順を示すフローチャートである。
ジェスチャモデリングシステム1のフィルタリング部1501は、一又は複数の手法のフィルタ処理を、一段又は複数段に分けて、深度センサ13から取得した画像(図5(a))に適用して、その画像を平滑化して、図5(b)に示すような連続した滑らかな面を示す画像を生成する。
例えば、まず初めに、フィルタリング部1501は、深度センサ13から取得した画像(図5(a))に対し2次元のメディアンフィルタを適用する(S11)。例えば、メディアンフィルタのマスクサイズを、5×5ピクセルにする。このメディアンフィルタは3次元空間上にある対象物を示す値に対する局所的な外れ値をとる画像特有のショットノイズに対して大きなノイズ低減効果があるものにする。
次に、フィルタリング部1501は、式(2)で表されるような適応型移動平均フィルタを、S11のメディアンフィルタを適用した後の画像に適用してフィルタする(S12)。
y[n]=αy[n−1]+(1−α)x[n] ・・・ (2)
式(2)において、x[n]は入力深度値、y[n]は出力深度値、nはフレームの識別番号、αは0から1までの整数値(0≦α≦1)をとる係数である。フィルタリング部1501は、係数αを、画像に応じて、0から1までの範囲でフレーム毎に変動させてもよい。適応型移動平均フィルタでは、時間軸上のノイズを低減する。フィルタリング部1501は、時間軸上のノイズと見なせるような小さな変動を深度値が示す場合には、そのノイズの影響を低減するためにαの値を大きくして強い平滑化をかけ、画像の平滑化の程度を高める。フィルタリング部1501は、深度値が大きく変動した場合にはαの値を小さくして弱い平滑化をかけ、応答性を高めることで遅延を解消し、残像を抑える。例えば、フィルタリング部1501は上記の判定を、連続するフレーム間に生じた入力深度値x[n]の変化量に基づいて決定してもよい。フィルタリング部1501による適応型移動平均フィルタは、通常の移動平均と比較して保持する情報の段数が少なく、nフレームより1フレーム前のフレーム、すなわち(n−1)フレームの情報のみであるためメモリ効率が高く、計算コストも低い。
最後に、ジェスチャモデリングシステム1におけるフィルタリング部1501は、S12の適応型移動平均フィルタ後の画像に対して、2次元のガウシアンフィルタを複数回、S12の適応型移動平均フィルタ後の画像に対して、適用してフィルタする(S13)。例えば、上記のガウシアンフィルタのマスクサイズを5×5ピクセルとし、そのフィルタを適用する回数を2回とする。これにより、フィルタリング部1501は、前述したメディアンフィルタと適応型移動平均フィルタのフィルタで除去しきれなかった面の細かな凹凸を、平滑化して連続した滑らかな面にする。図5(b)は、その結果の画像の一例を示すものである。ガウシアンフィルタは、比較的大きなマスクサイズのフィルタであっても処理コストが比較的低いという特徴を有する。そのため、フィルタリング部1501は、ガウシアンフィルタを重ねがけしても、その処理コストがネックになることを抑制できる。
2.手領域の抽出と抽象深度勾配画像の生成
図29は、実施形態の手領域の抽出処理の手順を示すフローチャートであり、図30は、実施形態の勾配の算出処理の手順を示すフローチャートである。
つまみ動作の検出に移る前に、ジェスチャモデリングシステム1の手領域抽出部1502は、手領域のシルエット画像と以下で述べる強度の平滑化をかけた画像の深度勾配を計算する(S21)。手領域抽出部1502は、フィルタリング部1501によって1.のフィルタリングを施した画像(図5(b))とは別に、上記のフィルタリングを施した画像にさらに2次元のガウシアンフィルタを複数回適用した、強度の平滑化画像である手領域のシルエット画像を生成する(S22)。例えば、手領域抽出部1502は、上記のガウシアンフィルタのマスクサイズを11×11ピクセルとし、そのフィルタを適用する回数を8回とする。手領域抽出部1502は、ガウシアンフィルタのマスクサイズを、前述のガウシアンフィルタのマスクサイズに比べ演算対象範囲が広くなるように決定することにより、より平滑化の程度を高めることができる。
以後、便宜上の区別のために通常のフィルタリングを適用したものを深度画像(図6(a))、通常のフィルタリング後に追加の平滑化を施したものを強度平滑化画像(図6(b))と定義する。
次に、抽象深度勾配画像生成部1503は、この2種類の画像(図6(a)、図6(b))に対し、2次元のScharrフィルタなどを用いてx方向の勾配およびy方向の勾配をそれぞれ計算する(S23)。例えば、上記のScharrフィルタのマスクサイズを3×3ピクセルとする。抽象深度勾配画像生成部1503は、深度画像の方に対しては、2方向の勾配ベクトルの絶対値を勾配強度として計算する(S231)。そして、抽象深度勾配画像生成部1503は、画素の深度値および勾配強度がともに一定以内となる画素を2値化処理することで手領域のシルエット画像(強度平滑化画像)を作成する(S232、図6(c))。次に、抽象深度勾配画像生成部1503は、強度平滑画像に対しては2方向のベクトルから画像上での勾配方向を計算する(S233)。
次に、勾配画像生成部1503は、上記の勾配強度と勾配方向を含む情報を格納した画像を生成し、生成した画像を抽象深度勾配画像として定義する(S24、図6(d))。
3.凹状領域の検出
図31は、実施形態の凹状領域の検出処理の手順を示すフローチャートである。
ジェスチャモデリングシステム1は、抽象深度勾配画像の勾配情報に基づいて、つまみ動作中の手領域に発生する凹状の窪みを抽出する。ジェスチャモデリングシステム1の凹状領域検出部1504は、抽象深度勾配画像に対し、図7のようなテンプレートを用いてマッチングを行う(S31)。図7に示すテンプレートは、その中心を最も凹んだ地点とし、中心から放射状に遠のくほど、中心より高さが単調に高くなる勾配をモデル化したものである。例えば、その勾配のモデルは、注目画素を中心とする周辺の画素が、放射状の勾配を有する面に位置することを示す。ジェスチャモデリングシステム1は、図7に示すテンプレートを用いることにより、注目画素の周辺の複数の画素が放射状の勾配になっているかを判定する。例えば、注目画素の周辺の複数の画素は、同図に示すように中心から等距離にある8画素であってもよい。
このテンプレートマッチングによって手領域上の凹状領域を抽出する手順に対応した画像を図8に示す。凹状領域検出部1504は、図8(a)に示す画像の全ての画素に対してマッチングを行った後、テンプレートに対する類似度の高い画素に対し複数の閾値で3値以上の階調を示す画像を得るように量子化する(S32)。図8(b)は、その結果を示す一例である。図8(b)中の灰色が類似画素、白色がさらに高い類似画素である。
次に、凹状領域検出部1504は、この領域に対しオープニング処理を施し(S33)、その後、灰色の類似画素が存在する領域をラベリング処理によって領域分けを行い、その領域中で白色の高い類似画素が存在する領域(高類似画素領域)のみを抽出する(S34)。図8(c)は、その結果を示す一例である。
次に、凹状領域検出部1504は、抽出された画素(図8(c))の中で最も面積の大きな領域を検出し、その領域にガウシアン平滑化を後、凸包で領域抽出したものをつまみ動作による凹状領域と判断して、凹状領域を抽出する(S35)。図8(d)は、その結果を示す一例である。図8(d)に示す、凹状領域は抽象深度勾配画像を元に検出されているので、つまみ動作において指同士が完全に接触する前の段階でも、凹状領域検出部1504は、つまみ動作における指同士の接触の検出が可能である。
4.指先の接触判定
図32は、実施形態の指先の接触判定処理の手順を示すフローチャートである。
ジェスチャモデリングシステム1の指先接触判定部1505は、凹状領域を利用して、指先の接触状態からつまみ動作の有無を検出する。例えば、指先接触判定部1505は、3.凹状領域の抽出において検出した凹状領域に対し、ガウシアン平滑化を行い(S41)、ガウシアン平滑化を行った後、凸包によって凹状領域の輪郭線を抽出する(S42)。次に、指先接触判定部1505は、2.手領域の抽出と抽象深度勾配画像の生成において生成した手のシルエット領域に輪郭線を重ね合わせる(S43)。指先接触判定部1505は、輪郭線を形成する画素が全てシルエット領域上あるか否かを判定する(S44)。指先接触判定部1505は、輪郭線を形成する画素が全てシルエット領域上ある場合、指が閉じていると判定する(S45)。つまり、ジェスチャモデリングシステム1は、つまみ動作が発生していると判断する。逆に輪郭線が1画素でも手の領域外に存在する場合は、ジェスチャモデリングシステム1は、指が開いていて、つまみ動作が発生していないと判断する(S46)。
5.重回帰分析による平面近似
図33は、実施形態の重回帰分析による平面近似処理の手順を示すフローチャートである。
手の姿勢を推定するために、ジェスチャモデリングシステム1の平面近似部1506は、3.凹状領域の抽出において述べた凹状領域(図9(a))の輪郭線付近の手指の深度情報から手の指先付近の形状を3次元空間上の平面に近似する。例えば、平面近似部1506は、輪郭線の画素とその画素の周辺8近傍の画素のうち、手領域上の画素を近似のサンプリング点として抽出し(S51)、そのサンプリング点を以下の処理で使用する。この領域中の各画素は3次元座標を持った点群であり、最小二乗法を用いた重回帰分析によって点群を3次元空間上の平面103に近似することができる(図9(b))。3次元空間上の平面は以下の式(3)により定義され、係数a、b、cはn個のサンプリング点(xi、yi、zi)を元に式(4)に基づいて定義される。
z=ax+by+c ・・・ (3)
平面近似部1506は、n個のサンプリング点(xi、yi、zi)を元に式(4)に基づいて係数a、b、cを決定し、式(3)に基づいて近似平面を算出する(S52)。
6.指先位置及び手指の姿勢の推定
図34は、実施形態の指先位置及び手指の姿勢の推定処理の手順を示すフローチャートである。
ジェスチャモデリングシステム1は、5.重回帰分析による平面近似で求めた指領域周辺の近似平面103をもとに手指の3次元空間上の姿勢を定義する。3次元空間上の手の姿勢は近似平面103の法線ベクトルと近似平面103上の指先の位置によって一意に定められる。
上記の3.凹状領域の検出において検出された凹状領域の輪郭周辺は、指の領域である。指先位置推定部1507は、近似平面である平面103上の凹状領域の輪郭周辺の指領域の中で、その幅が相対的に狭くなる位置を検出し、検出した位置を深度画像の凹状領域上の指先の位置として決定する(S61)。具体的には、手指姿勢推定部1508は、凹状領域の輪郭線画素に対して、2.手領域の抽出と抽象深度勾配画像の生成において生成した強度平滑化画像と深度画像の差分値を計算する(S611)。そして手指姿勢推定部1508は、輪郭線上で差分値の二乗和の重心を求める(S612)ことで深度画像上での指先位置を定義する。平滑化画像の深度差分値で指領域の幅が相対的に狭くなる部分を検出できるのは、領域の幅が狭い部分と広い部分では、平滑化によって受ける周辺画素の深度値の影響が異なり、強度平滑化後の深度値の変化量に大きな差が生まれるためである。
次に、ジェスチャモデリングシステム1は、3次元空間上において指先位置と手の姿勢を算出する(S62)。例えば、手指姿勢推定部1508は、S61において決定した深度画像の凹状領域における指先位置を、5.重回帰分析による平面近似で算出した近似平面103上に射影して、その位置を3次元空間上での指先位置として決定する。手指姿勢推定部1508は、前述の図9(a)と同様の凹状領域を含む画像(例えば、図10(a))上での指先位置を近似平面103上に射影して、その位置を空間上での指先位置として算出し(S621)、同じようにして凹状領域の重心を近似平面103上に射影する(S622)。次に、手指姿勢推定部1508は、近似平面103上の指先位置と凸状領域の重心の2点から求められる3次元ベクトル104を、手領域に対する指先の方向ベクトルとして算出する(S623、図10(b))。このベクトル104と近似平面103の法線ベクトルと3次元空間上で直交しているので、この2つを基底ベクトルとすることで空間上での手の姿勢は一意に定まる。このように、手指姿勢推定部1508は、3次元空間上における手の姿勢を推定して、3次元ベクトル104によってその姿勢を示す。
7.複数の手指の識別
図35は、実施形態の複数の手指の識別処理の手順を示すフローチャートである。
画像上で複数手指が撮像されている場合、3.凹状領域の検出の結果によるような凹状領域を、つまみ動作が行われている手指の本数分だけを適切に抽出する必要がある。以下、複数の手指で同時につまみ動作が行われている状態を示す画像から、複数の手指のつまみ動作による凹状領域をそれぞれ抽出する方法について述べる。
まず、ジェスチャモデリングシステム1の複数手指識別部1509は、事前に2.手領域の抽出と抽象深度勾配画像の生成における手領域画像に対してラベリング処理を行い、領域ごとにラベルを割り当てる(S71)。複数手指識別部1509は、3.凹状領域の検出により画像全体から凹状領域の候補となる領域(候補領域)を検出し(S72)、その検出の後、その各領域が帰属している手領域のラベルをひとつ定める。例えば、各領域が帰属している手領域のラベルは、候補領域と手領域が重複する画素を走査し、その候補領域中で最も重複した画素の多い手領域のラベルを選択することで決定される。
複数手指識別部1509は、全ての候補領域について、それぞれが帰属する手領域を求めた後、手領域ごとに帰属されている候補領域中で面積最大の領域を抽出し(S73)、その領域を各手領域における凹状領域と定義する(図11(a)〜(f))。また、複数手指識別部1509は、凹状領域が存在する手領域の数が、つまみ動作が行われている手の本数として算出する(S74)。
8.指の抱え込みを含む手形状への対応
図36は、実施形態の指の抱え込みを含む手形状に対応する処理の手順を示すフローチャートである。
複数の凹状領域を同一の領域と見なすことで、人差し指と親指以外の指を手に抱え込んで動作を行う場合等でも、ジェスチャモデリングシステム1はつまみ動作の認識が行える。
この処理は組み込まれなくともつまみ動作の認識は可能であるが、組み込むことでより多くの形態のつまみ方に対応することができる。例えば、つまみ動作の多くの形態として、図4(a)に示したような片手の中指、薬指、小指を握らずに軽く曲げた状態にして、親指と示指とによるつまみ動作、図4(b)に示したような片手の中指、薬指、小指を握り、親指と示指とによるつまみ動作などが挙げられる。上記は例示に過ぎず、上記以外の動作を検出対象の動作に決定してもよい。
この処理において、手形状認識部1510は、抽象深度勾配画像上で抽出される凸状領域を使用する。凸状領域とは、凹状領域抽出の場合と同様の手法により、凸状領域を抽出するためのテンプレートを用いてマッチングをすることで抽出される領域のことである。例えば、手形状認識部1510は、凸状領域を抽出するためのテンプレートを用いた、テンプレートマッチングを実施して(S81)、その結果に対する量子化処理を実施して(S82)、凸状領域を抽出する(S83)。そのテンプレートは、図7に示すテンプレートに対し、重みづけの値の大小を逆にしたものであり、凹部から凸部に向かう矢印の方向を逆向きにしたものである。なお、凸状領域はデプスマップ上における手の稜線を意味する。
複数の凹状領域が同一の領域に含まれる場合であれば、凹状領域の候補となる各領域の間に、デプスマップ上における手の稜線を示す凸状領域が存在することはない。凹状領域を統合すべきか否かは、凹状領域の候補となる各領域が、主要な凸状領域を跨ぐか跨がないかで判定される。具体的な手順を以下に示す。
まず、手形状認識部1510は、マッチングと2値化によって抽出された凸状領域に対してラベリング処理を行い(S84)、前述の図11(f)のような面積が最大の凸状領域のみを抽出する(S85)。この処理はつまみ動作中に輪を成した指における、その輪の稜線のみを抽出することを意図している。そして、現在のつまみ動作検出のアルゴリズムに沿って、凹状領域の候補から面積が最大の領域を抽出した後、手形状認識部1510は、面積が最大の領域の重心から各候補領域の重心へ線を引く(S86)。
最後に、手形状認識部1510は、線上の各画素のうち、上記の最大凸状領域と重複する画素があるかないかを判定する(S87)。重複画素がない(稜線を跨がない)場合、その候補領域は凹状領域と同一であると判定し、ラベリング番号を凹状領域と同じにして領域を統合する(S88、図12)。重複画素がある(稜線を跨ぐ)場合、その候補領域は凹状領域と異なる同一であると判定し、別の凹状領域として扱う(S89)。
9.つまみ動作を利用した入力情報の構築
つまみ動作を利用した入力情報の構築について説明する。
図37は、実施形態のつまみ動作を利用した入力情報の構築処理の手順を示すフローチャートである。
つまみ動作認識で抽出できる独立した入力制御量のひとつとして、指で囲まれた輪の大きさを例示して、その入力制御量を利用するための第1の手法について述べる。画像上での輪の大きさは、深度センサ13からの手Hの見え方が変化することによって、意図せずに変化してしまう。そこで、ジェスチャモデリングシステム1は、つまみ動作認識で定義される近似平面を利用することで、手Hの見え方の変化による影響を低減する。
具体的には、ジェスチャモデリングシステム1の入力情報構築部1520は、凹状領域の輪郭線上の画素を、近似平面の座標に変換する(S91)。次に、入力情報構築部1520は、変換した座標の高さ成分を除去して2次元データに変換する(S92)。最後に、入力情報構築部1520は、輪郭線上の画素に対応する近似平面上の各点と近似平面の中心点との距離を求め(S93)、その平均値を輪の大きさとする(図13)。
もうひとつ、つまみ方の違いを識別し、異なる入力として利用する第2の手法を述べる。
図38は、実施形態のつまみ動作を利用した入力情報の構築処理の手順を示すフローチャートである。
この第2の手法を用いることで図14に示すような通常のつまみ動作(図14(a))と、図15に示すような人差し指を立てたつまみ動作を識別できる。この違いは、指が接触した時の凹状領域の輪郭線105(図14(b)、(c)および図15(b)、(c))の状態によって判断する。
具体的には、入力情報構築部1520は、凹状領域の輪郭線上の各画素に対して、隣り合う両隣の輪郭線画素との深度差を計算する(S191)。例えば、人差し指を立てている場合、人差し指と中指の根元付近に段差ができる。入力情報構築部1520は、その段差を、先ほどの深度差によって検出する。例えば、入力情報構築部1520は、先ほどの深度差が一定以上の値をとる画素が存在するか否かを判定する(S192)。
入力情報構築部1520は、先ほどの深度差が一定以上値をとる画素が存在する場合、人差し指が立っていると認識する(S193、図15(a))。一方、入力情報構築部1520は、先ほどの深度差が第1閾値以上の値をとる画素が存在しない場合、人差し指が親指に接触していると認識する(S194、図14(a))。
なお、S192の判定の際に、指先付近の画素が深度差のある画素として検出されることがある。これに対し、入力情報構築部1520は、6.指先位置及び手指の姿勢の推定において求めた平滑化差分の値が第2閾値以上の値をとる画素を除外することで、指先付近の画素が抽出されることを防ぐ。なお、第2閾値は、上記の第1閾値より大きな値にするとよい。
以上の判定で、ジェスチャモデリングシステム1は、指先接触時に摘み動作の違いを識別できる。この識別によって、通常のつまみ形状の場合はAの動作、人差し指が立った状態の形状ではBの動作などの切り替えを、アプリケーション上で実現できる。
次に、本発明における実施例として、3次元入力インターフェースを利用した3DCGモデリングソフトウェアの様子と仮想空間内で物体を操作している様子を以下に示す。図16は、3次元入力インターフェースを利用した3DCGモデリングソフトウェアの様子と仮想空間内で物体を操作している様子を説明するための図である。モニター11には、3次元表示されたキャラクターが表示されている。ジェスチャモデリングシステム1は、ユーザの手Hの動きを検出して、このキャラクターの動作を制御する。
図17は、3次元入力インターフェースを利用した3DCGモデリングソフトウェアの様子と仮想空間内で物体を操作している様子を説明するための図である。同図には、突出した部分と凹みを有する球体が表示されている。同図は、球体から突出した部分の先端を、球体に設けられた凹みに挿入するという操作を行う場合の表示画面を例示するものである。
また、複数人のユーザが協調して一つの造形作業をする様子を以下に示す。図18は、複数のユーザの協調作業を説明するための図である。ジェスチャモデリングシステム1は、各ユーザの手Hと、その手Hが示すつまみ動作とを検出する。ジェスチャモデリングシステム1によれば、8人程度のユーザの協調作業であるならば、処理速度を落とさずに、すなわち単位時間に処理するフレーム数を、リアルタイム処理に適した60[fps]を維持したままで実行できる。
[評価]
(被験者実験)
本発明における入力インターフェースとしての有用性を評価するために、被験者による比較実験を行った。各被験者にはジェスチャモデリングシステム1を用いた本発明による入力方法と既存の入力デバイス(比較例)による入力方法の2種類の方法で同じ作業を行ってもらい、その作業時間を計測する。比較例となる入力デバイスには3Dconnexion社の3Dマウス(SpaceNavigator)を用いる。比較例の入力デバイスは3DCADや3Dモデリングソフトで使用されることがその利用方法として想定された専用デバイスであり、位置・姿勢の6自由度を同時に入力することができるものである。
実験では、被験者の前に設けられたモニター11の画面上に表示された仮想空間上の物体を操作し、定められた位置・姿勢に、その物体を設置するという作業を、被験者に繰り返し行わせた。モニター11の画面上には図19のような仮想の3次元空間が表示され、その仮想の3次元空間中に動作物体と半透明な目標物体とが表示されている。本発明による入力方法では、被験者は動作物体の方を、つまみ動作によるドラッグアンドドロップの操作で操作して、動作物体の位置および姿勢を目標物体に合わせる。比較例による3Dマウスによる入力方法ではスティック操作により、相対的に位置および姿勢を調整する操作を入力する。
以上の本発明と比較例の2種類の方法で動作物体を操作した場合を比較する。動作物体を操作する場合、動作物体の位置と姿勢が目標物体の位置と姿勢に合うことで作業が完了され、次の目標物体が現れる。この物体合わせの作業を3回行い、その合計時間を計測する。これを1セットの試行とし、被験者には本発明と比較例の2種類の入力方法でそれぞれ30セットずつこの試行を行なってもらう。目標物体の位置および姿勢はランダムに出題されるが、30セットの試行で出題される90回分の目標物体は、2種類の入力方法で同じ問題が同じ順番で出題される。また、被験者間でも出題される問題は同じで、被験者は全員、本発明による入力方法での実験を先に行い、3Dマウスでの実験は後に行っている。この実験を20代の被験者10名(男性7名、女性3名)に対して行った。
(実験結果)
サブジェクト(SubjectAからSubjectJ)として示す被験者10名による実験の結果を図20および図21に示す。図20と図21は、サブジェクト(被験者)ごとの平均パフォーマンス時間(performance time)を示す図である。双方の図に示すように、多くの被験者で3Dマウスによる入力方法(Mouse)よりも提案手法による入力方法(Pinch)の方が、平均作業時間が短くなることが確認された。2種類の入力における平均作業時間でt検定を行ったところ、入力方法の違いによる有意差(p<0.05)が認められ、本発明による入力方法によって作業時間が短縮できることが確認できた。
全体の傾向としては、同一被験者では作業時間の平均は、3Dマウスによる入力方法よりも本発明による入力方法の方が短くなる傾向があり、作業時間の分散は、3Dマウスによる入力方法よりも本発明による入力方法の方が少なくなる傾向がある。なお、上記の傾向と異なる傾向を示す被験者も存在した。また、入力方法による作業時間の違いよりも、被験者間での作業時間の違いが大きく現れた。これは、今回の実験のような作業においては、入力方法の違いよりも作業内容への適応に個人差が大きく影響したためと思われる。
(認識性能及び処理速度)
本発明において同時に認識可能である手の本数とその時の認識処理速度を計測した結果を図22に示す。図22は、手の本数(number of hands)と、処理速度(processing speed)との関係を示す図である。認識処理に使用したCPUはIntel社製Corei7-3770K (3.50GHz)である。計測の結果、一台の深度センサ13で最大25本の手指の動作を同時に認識できることが確認でき、その場合の処理速度は35[fps]であった。また、手指が1つの場合の最高処理速度は106[fps]であった。センサの撮像速度は60[fps]なので、図22より、同時に認識される手指が9本までは認識速度を全く低下させることなく、つまみ動作を認識することができる。一台の深度センサ13で複数の手指の動作を同時に認識する処理の詳細は、前述の図18を参照する。
複数の手指の動作を同時に認識できるということは、単純に、一度に入力できる情報量が増えることにつながり、一台のデバイスでは実現できない複雑な入力操作を行えるようになり、インターフェースとしての有用性が高いものであることを意味する。また、複数人で同時に認識できるためユーザ間でのインタラクションシステムに応用することも容易になる。図23(a)、(b)、(c)および(d)と、図24(a)、(b)、(c)および(d)は、ジェスチャモデリングシステム1を使いジェスチャにより造形した3D形状の一例を示したものである。
以上のように、本発明は、仮想的な3次元空間での入力操作を行うためのジェスチャインターフェースとして手指のつまみ動作に着目し、非接触のセンサによるつまみ動作の認識手法を提案した。
従来の画像上でのつまみ動作検出には、指先位置を検出できないこと、位置と姿勢の認識が指先の接触時のみに限られること、手指の姿勢の変化に対して認識が不安定になること、空間上での絶対的な姿勢を検出できないこと等の問題が存在した。
この問題を解消するために、本発明のジェスチャモデリングシステム1は、つまみ動作における指先の形状と画像上での深度値の関係性に着目し、強度の平滑化を適用した深度画像を用いた手指の凹状領域検出によるつまみ動作の認識と、重回帰分析による指領域の平面近似を用いて指先の位置及び手指の姿勢を定義する。これにより、ジェスチャモデリングシステム1は、3次元上での位置と姿勢情報が入力できるので、複雑な操作や専門知識がなくとも、現実世界で粘土細工や工作をするのと同じ感覚で簡単に3次元コンピュータグラフィックス(3DCG)等の作成ができる。
また、ジェスチャモデリングシステム1は、つまみ動作の映像から指先の接触状態が取得できるので、マウスのクリックボタンのようなオン、オフのスイッチ入力が行なうことができる。これによって、ジェスチャモデリングシステム1は、マウスドラッグやマウスオーバー等の入力が実現でき、マウスで行なえる作業は全て手のジェスチャによって行なうことができる。
さらに、ジェスチャモデリングシステム1は、複数の手指が映った映像から別々に手を認識し、同時に複数の手によるつまみ動作を認識することができる。これにより、ジェスチャモデリングシステム1は、両手を使った作業が可能なアプリケーションの構築や、複数人で使用するゲームアプリケーションへの利用が容易に行なえる。
なお、上述したとおり、10名の被験者に仮想的な3次元空間上での物体操作による作業を、本発明による入力インターフェースと既存デバイスの2種類の方法で行わせる実験を行い、その作業時間を比較することで本発明を評価した。実験の結果、平均作業時間において入力方法の違いによる本発明の有意性が認められ、本発明によって作業時間が短縮できることを示した。また、本発明では9本の手指を60[fps]以上の処理速度で、最大25本の手指を30[fps]以上の処理速度で同時に認識できた。このことは、本発明によれば、一人のユーザが両手を使う手指ジェスチャ造形のみならず、複数人のユーザが一緒に共同作業できる手指ジェスチャ造形が実現できることを示唆している。
さらに、ジェスチャモデリングシステム1によれば、以下の効果も奏する。
(1)深度センサ(デプスカメラ)1台で撮像された手指の映像から、3次元的な指先の位置・手指の姿勢、指先の接触によるオン、オフのトリガ入力を正確に取得できる。
(2)つまみ動作という、日常で慣れ親しんだ指先動作により、3次元物体操作やCGモデリング等のアプリケーションに利用することができる。
(3)1台のセンサで両手の動作を認識できることから、片手で物体を持ち、もう片手で道具を持って作業行なう等、現実世界と同等の感覚で作業ができる。
(4)1台の深度センサで複数の手を認識できることから、多人数で行なうインタラクティブなゲーム等のアプリケーションに利用することができる。
(5)指の輪のよる入力やつまみ方の違いの識別と複数手指の認識を組み合わせることで、多量の独立した入力情報を構築できるため、マウスやキーボード等の補助を一切必要とせずに様々なアプリケーションの操作が行なえる。
以上、本発明の好ましい実施の形態について詳述したが、本発明は特定の実施の形態に限定されるものではなく、特許請求の範囲内に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
本発明が活かされる用途としては、(1)ジェスチャによる3Dモデリングソフト、3DCAD、(2)複数人よるインタラクティブなゲームアプリケーション、(3)街頭などでデジタルサイネージを操作するための非接触な入力インターフェース等が挙げられる。特に(1)では、3次元空間上の絶対位置として入力できる高精度な指先位置入力や両手を使った作業が実現できるため、アプリケーション側の対応によっては他に類を見ないアプリケーションが構築可能で、産業上の用途は爆発的に拡大される。現状の実装レベルでも、以下に例示するように繊細な3Dモデル(図23および図24)も製作可能である。
1…ジェスチャモデリングシステム、11…モニター、12…ジェスチャモデリング装置、13…深度センサ、14…記憶部、15…認識部、16…制御部、17…処理部、100…閉空間、103…近似平面、104…ベクトル、105…輪郭線

Claims (4)

  1. 強度の平滑化を適用した深度画像を用いて手指の凹状領域を検出する検出部と、
    前記検出部により検出された結果に基づいて、利用者のつまみ動作を認識する認識部と、
    重回帰分析による指領域の平面近似を用いた指先の位置および/または手指の姿勢を定義することで利用者の操作を受け付ける制御部と
    を備えることを特徴とするジェスチャモデリング装置。
  2. 強度の平滑化を適用した深度画像を用いて手指の凹状領域を検出する処理と、
    記検出された結果に基づいて、利用者のつまみ動作を認識する処理と、
    重回帰分析による指領域の平面近似を用いた指先の位置および/または手指の姿勢を定義することで利用者の操作を受け付ける処理とを含む
    ジェスチャモデリング方法。
  3. 情報処理装置のコンピュータに、
    強度の平滑化を適用した深度画像を用いて手指の凹状領域を検出する処理と、
    記検出された結果に基づいて、利用者のつまみ動作を認識する処理と、
    重回帰分析による指領域の平面近似を用いた指先の位置および/または手指の姿勢を定義することで利用者の操作を受け付ける処理と、を実行させる、
    ジェスチャモデリングシステム用のプログラム。
  4. 処理対象となる操作物体を表示する表示装置と、
    強度の平滑化を適用した深度画像を用いて手指の凹状領域を検出する検出部と、
    前記検出部により検出された結果に基づいて、利用者のつまみ動作を認識する認識部と、
    重回帰分析による指領域の平面近似を用いた指先の位置および/または手指の姿勢を定義することで利用者の操作を受け付ける制御部と、
    前記検出部で検出されて、前記制御部により定義された前記指先の位置および/または手指の姿勢の少なくとも一方の情報を用いて、前記表示装置に表示された前記操作物体に所定の処理を施す処理部と、
    を備えるジェスチャモデリングシステム。
JP2016043922A 2015-03-06 2016-03-07 ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム Active JP6651388B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015045162 2015-03-06
JP2015045162 2015-03-06

Publications (2)

Publication Number Publication Date
JP2016167268A JP2016167268A (ja) 2016-09-15
JP6651388B2 true JP6651388B2 (ja) 2020-02-19

Family

ID=56897632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016043922A Active JP6651388B2 (ja) 2015-03-06 2016-03-07 ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム

Country Status (1)

Country Link
JP (1) JP6651388B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018184233A1 (zh) * 2017-04-07 2018-10-11 深圳市柔宇科技有限公司 一种手势识别方法及相关装置
CN109923583A (zh) * 2017-07-07 2019-06-21 深圳市大疆创新科技有限公司 一种姿态的识别方法、设备及可移动平台
JP7203436B2 (ja) * 2020-11-13 2023-01-13 ディープインサイト株式会社 ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム
WO2022209220A1 (ja) * 2021-03-31 2022-10-06 ソニーグループ株式会社 画像処理装置および画像処理方法、並びに記録媒体
CN113111844B (zh) * 2021-04-28 2022-02-15 中德(珠海)人工智能研究院有限公司 一种作业姿态评估方法、装置、本地终端及可读存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9135503B2 (en) * 2010-11-09 2015-09-15 Qualcomm Incorporated Fingertip tracking for touchless user interface
US9424645B2 (en) * 2011-06-06 2016-08-23 Panasonic Intellectual Property Management Co., Ltd. Calibration device and calibration method for a stereo camera without placing physical markers
JP5961945B2 (ja) * 2011-08-18 2016-08-03 株式会社リコー 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP5834615B2 (ja) * 2011-08-18 2015-12-24 株式会社リコー プロジェクタ、その制御方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP2014029656A (ja) * 2012-06-27 2014-02-13 Soka Univ 画像処理装置および画像処理方法
JP2014235634A (ja) * 2013-06-04 2014-12-15 国立大学法人 筑波大学 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
JP2015022489A (ja) * 2013-07-18 2015-02-02 富士ゼロックス株式会社 情報処理装置及びプログラム
JP6248462B2 (ja) * 2013-08-08 2017-12-20 富士ゼロックス株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
JP2016167268A (ja) 2016-09-15

Similar Documents

Publication Publication Date Title
JP6360050B2 (ja) 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
US8897491B2 (en) System for finger recognition and tracking
JP3863809B2 (ja) 手の画像認識による入力システム
JP6651388B2 (ja) ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム
Oka et al. Real-time tracking of multiple fingertips and gesture recognition for augmented desk interface systems
AU2012268589A1 (en) System for finger recognition and tracking
JPH10214346A (ja) ハンドジェスチャ認識システムおよび方法
JP6066093B2 (ja) 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム
JP2014165660A (ja) バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
JP2014235634A (ja) 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
Vishwakarma et al. Hand gesture recognition in low-intensity environment using depth images
Vivek Veeriah et al. Robust hand gesture recognition algorithm for simple mouse control
KR102052449B1 (ko) 가상 마우스 시스템 및 그 제어 방법
Augustauskas et al. Robust hand detection using arm segmentation from depth data and static palm gesture recognition
Hartanto et al. Real time hand gesture movements tracking and recognizing system
JP6425299B2 (ja) 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
KR101085536B1 (ko) 제스처 인식을 이용한 인터페이스 구성방법
Feng et al. An HCI paradigm fusing flexible object selection and AOM-based animation
Annabel et al. Design and Development of Multimodal Virtual Mouse
Verma et al. 7 Machine vision for human–machine interaction using hand gesture recognition
Prabhakar et al. AI And Hand Gesture Recognition Based Virtual Mouse
Babu et al. Touchless User Interface for Sketching Using Hand Gesture Recognition
Muhammad et al. LPI: learn postures for interactions
Yuan et al. Virtual programming with bare-hand-based interaction
Hsieh et al. Robust visual mouse by motion history image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200122

R150 Certificate of patent or registration of utility model

Ref document number: 6651388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250