JP2016143077A - 指先位置推定装置、指先位置推定方法、及び、プログラム - Google Patents

指先位置推定装置、指先位置推定方法、及び、プログラム Download PDF

Info

Publication number
JP2016143077A
JP2016143077A JP2015015933A JP2015015933A JP2016143077A JP 2016143077 A JP2016143077 A JP 2016143077A JP 2015015933 A JP2015015933 A JP 2015015933A JP 2015015933 A JP2015015933 A JP 2015015933A JP 2016143077 A JP2016143077 A JP 2016143077A
Authority
JP
Japan
Prior art keywords
fingertip
area
image
fingertip position
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015015933A
Other languages
English (en)
Other versions
JP6455186B2 (ja
Inventor
一樹 長村
Kazuki Nagamura
一樹 長村
村瀬 太一
Taichi Murase
太一 村瀬
松田 高弘
Takahiro Matsuda
高弘 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015015933A priority Critical patent/JP6455186B2/ja
Priority to US15/005,146 priority patent/US9916042B2/en
Publication of JP2016143077A publication Critical patent/JP2016143077A/ja
Application granted granted Critical
Publication of JP6455186B2 publication Critical patent/JP6455186B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

【課題】ネイルをしている指先の位置を推定することを可能とする指先位置推定装置、指先位置推定方法、及び、プログラムを提供する。【解決手段】指先位置特定部13Bは、手指の色を定義した色領域モデルに基づいて、画像に含まれる手指の第1の指先位置を特定する。領域面積算出部13Cは、第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、画像の背景とは異なる領域の面積を算出する。先端位置推定部13Eは、面積が所定の閾値より大きい場合に、第1の指先位置より指先が指し示す方向に離れた位置にある第2の指先位置(ネイル先端の位置)を推定する。【選択図】図2

Description

本発明は、指先位置推定装置、指先位置推定方法、及び、プログラムに関する。
近年、現実の物体にプロジェクタなどを用いて仮想画像を投影し、現実の物体に関連付けられた注釈やメニューなどを提示する拡張現実技術の研究開発が盛んに行われている。
また、近年、パーソナルコンピュータやスマートフォンなどの情報端末装置の使いやすさを向上させるために、人間にとってより自然で、より直感的な動作による操作を可能とするナチュラルユーザインターフェースの研究開発が盛んに行われている。例えば、手のジェスチャー操作による画面操作や音声対話が実用化され、キーボード、マウス、タッチパネルに代わる新しいユーザインターフェースとして活用され始めている。
また、よりリアルなユーザインターフェースを実現する試みとして、実物に触る、動かすなどの動作を用いることも提案されている。例えば、手指やその他の道具を利用して、プロジェクタなどにより投影表示された表示物を直接制御しているように扱うユーザインターフェース技術が実現されている。
手指を利用して、表示物を直接制御しているように扱うユーザインターフェース技術などでは、撮像素子により撮像された画像から手指の領域(以下、手指領域という)を検出することで、手指の認識が行われている。手指領域を検出する技術として、例えば、撮像された画像から肌色領域を抽出し、抽出した形状の特徴に基づいて、手指領域を検出する方法が知られている(例えば、特許文献1)。
特許文献1で提案されている方法では、撮像された画像をHSV(Hue,Saturation,Value)表色系の画像(以下、HSV画像という)に変換し、肌色抽出及び二値化処理を行うことで、手指領域の検出を行うものである。
肌色抽出は、HSV表色系において定義された肌色領域に含まれる画素を肌色として抽出する。しかしながら、爪に着色や付け爪などの装飾を施している場合には、爪領域の色分布が肌色領域から外れてしまうことがある。そのため、爪先までの手指領域の正確な検出が困難となってしまう。以下、着色や付け爪などの装飾を施している爪を、ネイルを施している爪と称することとする。
手指を利用して、表示物を直接制御しているように扱うユーザインターフェース技術では、指先位置にしたがって表示物を制御することから、指先位置の正確な検出は非常に重要である。
これに対して、ネイルを施している爪の色分布を包含するように、手指領域として検出する色領域を調整する方法が提案されている(例えば、特許文献2又は3)。しかしながら、色領域を調整する方法では、ネイルの色は多種多様であることから、必ずしもネイル先端までの手指領域を検出できるとは限らない。また、ネイルをしている爪の色分布を包含するように色領域を広げるため、背景を手指領域として誤検出してしまう可能性が増大してしまう。
特開2003−346162号公報 特開2002−209082号公報 特開2009−265809号公報
一つの側面では、本発明は、ネイルをしている指先の位置を推定することを可能とする指先位置推定装置、指先位置推定方法、及び、プログラムを提供することを課題とする。
一態様における指先位置推定装置は、手指の色を定義した色領域モデルに基づいて、画像に含まれる手指の第1の指先位置を特定する第1特定手段と、第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、画像の背景とは異なる領域の面積を算出する第1算出手段と、面積が所定の閾値より大きい場合に、第1の指先位置より指先が指し示す方向に離れた位置にある第2の指先位置を推定する推定手段と、を備えることを特徴としている。
一態様における指先位置推定方法は、画像に含まれる手指の指先位置を推定する指先位置推定装置の指先位置推定方法であって、手指の色を定義した色領域モデルに基づいて、画像に含まれる手指の第1の指先位置を特定し、第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、画像の背景とは異なる領域の面積を算出し、面積が所定の閾値より大きい場合に、第1の指先位置より指先が指し示す方向に離れた位置にある第2の指先位置を推定する、ことを特徴としている。
一態様におけるプログラムは、画像に含まれる手指の指先位置を推定する指先位置推定装置のコンピュータに、手指の色を定義した色領域モデルに基づいて、画像に含まれる手指の第1の指先位置を特定し、第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、画像の背景とは異なる領域の面積を算出し、面積が所定の閾値より大きい場合に、第1の指先位置より指先が指し示す方向に離れた位置にある第2の指先位置を推定する、処理を実行させることを特徴としている。
一つの側面では、ネイルをしている指先の位置を推定することが可能となる。
実施形態におけるインターフェースシステムの構成例を示す図である。 実施形態における情報処理装置の構成例を示す機能ブロック図である。 AとBは、いずれも、肌色定義領域について説明するための図である。 AとBは、いずれも、ネイルをしていない場合の指先位置について説明するための図である。 AとBは、いずれも、ネイルをしている場合の指先位置について説明するための図である。 実施形態におけるネイルウィンドウについて説明するための図である。 二値化し、ノイズ除去した後のネイルウィンドウ画像の例を示す図である。 傾き角度について説明するための図である。 回転角度について説明するための図である。 直線CLと、手指の重心と指先位置とを結ぶ直線がなす角の角度について説明するための図である。 実施形態における指先追跡処理のフローを説明するためのフローチャートの例である。 実施形態におけるオフセット値算出処理のフローを説明するためのフローチャートの例である。 実施形態における指先検出処理のフローを説明するためのフローチャートの例である。 実施形態における情報処理装置のハードウェア構成の例を示す図である。
以下に本発明の実施の形態について図面を参照しながら詳細に説明する。
図1は、本実施形態におけるインターフェースシステム100の構成例を示す図である。インターフェースシステム100は、作業台PL上に画像を投影表示するプロジェクタ20と、作業台PL上の投影表示を撮像するカメラ30と、プロジェクタ20とカメラ30とが接続されている情報処理装置10とを含んでいる。なお、手指の三次元位置情報を必要とする場合には、インターフェースシステム100が2台のカメラ30を備えるようにし、2台のカメラ30がほぼ同じ場所をステレオで撮像するようにすればよい。
図2は、本実施形態における情報処理装置10の構成例を示す機能ブロック図である。本実施形態における情報処理装置10は、接続されているカメラ30により撮像された画像IMGに基づいて、投影表示に対する手指の位置やタッチなどの操作を検出するインターフェース装置である。また、本実施形態における情報処理装置10は、接続されているカメラ30により撮像された画像IMGに基づいて、ユーザの爪にネイルNが施されている場合に、ネイル先端の位置を推定する指先位置推定装置でもある。本実施形態における情報処理装置10は、図2に示すように、入力部11と、記憶部12と、制御部13と、を備えている。
入力部11は、例えば、カメラインターフェース、あるいは、通信モジュールなどを備えており、接続されている撮像装置(本実施形態においては、カメラ30)から投影表示が撮像された画像IMGを順次受け付ける。そして、入力部11は、受け付けた画像IMGをフレームメモリ(不図示)に一時的に格納する。フレームメモリに格納された画像IMGは、画像取得部13A(詳しくは後述)により、処理のタイミングに合わせて順次取得される。なお、画像IMGの入力のタイミングと取得のタイミングを同期させるようにしてもよい。
記憶部12は、例えば、Random Access Memory(RAM)、Read Only Memory(ROM)、Hard Disk Drive(HDD)などを備えている。記憶部12は、制御部13が備える、例えば、Central Processing Unit(CPU)のワークエリア、情報処理装置10全体を制御するための動作プログラムなどの各種プログラムを格納するプログラムエリア、手指がない状態の投影表示を撮像した背景画像などの各種データを格納するデータエリアとして機能する。
制御部13は、例えば、CPUなどを備えており、記憶部12のプログラムエリアに格納されている動作プログラムを実行して、図2に示すように、画像取得部13Aと、指先位置特定部13Bと、領域面積算出部13Cと、オフセット値算出部13Dと、先端位置推定部13Eとしての機能を実現する。また、制御部13は、動作プログラムを実行して、情報処理装置10全体を制御する制御処理や詳しくは後述の指先追跡処理などの処理を実行する。
画像取得部13Aは、入力部11に順次入力される画像IMGを、処理のタイミングに合わせて順次取得する。
指先位置特定部13Bは、画像処理部13Aにより取得された画像IMGの手指領域を抽出し、指先位置FTを特定する。より具体的には、指先位置特定部13Bは、画像IMGの色情報がHSV表色系以外の表色系で定義されている場合には、画像IMGをHSV画像IMGに変換する。HSV画像IMGへの変換は、一般的な変換式を用いることで可能である。
そして、指先位置特定部13Bは、HSV表色系において定義されている肌色定義領域FCに基づいて、HSV画像IMGの肌色領域を抽出する。より具体的には、指先位置特定部13Bは、画素の色が肌色定義領域FCに含まれるか否かをそれぞれ判定し、画素の色が肌色定義領域FCに含まれる場合には、当該画素を肌色領域の画素として抽出する。
図3Aと図3Bは、いずれも、肌色定義領域FCについて説明するための図である。肌色定義領域FCは、図3に示すように、色相(H)と彩度(S)と明度(V)のそれぞれに対して下限閾値と上限閾値とを設定することで、肌色(手指の色)として抽出する色の領域を定義したものである。つまり、肌色定義領域FCは、以下の式1にしたがって、定義されている。
Figure 2016143077
肌色定義領域FCの一例として、Hmin=25、Hmax=175、Smin=45、Smax=200、Vmin=45、Vmax=255と定義することができる。このように、肌色定義領域FCは、爪にネイルNが施されている場合を考慮することなく、肌色を抽出するように定義されている。
そして、指先位置特定部13Bは、例えば、肌色定義領域FCに含まれる画素に対して、“1(白)”を設定し、肌色定義領域FCに含まれない画素に対して、“0(黒)‘を設定することで、HSV画像IMGを二値化する。このようにして、指先位置特定部13Bは、入力された画像IMGから手指領域を抽出する。以下、二値化された画像IMGを二値化画像IMGと称することとする。
そして、指先位置特定部13Bは、抽出した手指領域の形状に基づいて、指先位置FTを特定する。より具体的には、指先位置特定部13Bは、例えば、抽出した手指領域の特徴点を抽出し、二値化画像IMGにおける各特徴点に対応する画素の座標(x,y)を取得する。この際、指先位置特定部13Bは、指の先端形状モデルと、抽出した手指領域の形状とをパターンマッチングすることで、指先位置FTの画素の座標(x、y)を取得する。
手指領域を抽出するための肌色定義領域FCは、上述したように、爪にネイルNが施されている場合を考慮していないため、手指位置特定部13Bにより特定された指先位置FTは、爪にネイルNが施されている場合には、実際の指先位置FTと異なってしまうことがある。図4Aと図4Bは、いずれも、ネイルNをしていない場合の指先位置FTについて説明するための図である。図5Aと図5Bは、いずれも、ネイルNをしている場合の指先位置FTについて説明するための図である。
図4Aに示すように、ユーザの爪にネイルNが施されていない場合には、指先位置特定部13Bは、図4Bに示すように、爪の先端を指先位置FTとして特定することができる。一方、図5Aに示すように、ユーザの爪にネイルNが施されている場合には、指先位置特定部13Bは、図5Bに示すように、ネイルNにおける指の付け根側の端(下端)を指先位置FTとして特定する。
図2に戻り、領域面積算出部13Cは、ネイルNの領域の面積を算出する。より具体的には、領域面積算出部13Cは、HSV画像IMGに対して、図6に示すような所定サイズのネイルウィンドウNWを設定し、ネイルウィンドウNW内の画像を切り出して、ネイルウィンドウ画像NIMGを生成する。そして、領域面積算出部13Cは、記憶部12のデータエリアに格納されている背景画像における、HSV画像IMGに設定されたネイルウィンドウNWに対応する領域の画像と、ネイルウィンドウ画像NIMGとの差分画像NIMGを生成する。そして、領域面積算出部13Cは、差分画像NIMGを二値化し、更に、例えば、オープニング・クロージング処理によりノイズを除去する。この際、領域面積算出部13Cは、例えば、差分部分の領域の画素に“1(白)”を設定し、背景と同じ領域の画素に“0(黒)”を設定することで、二値化を行う。
そして、領域面積算出部13Cは、ノイズ除去後の二値化画像NIMGの“1(白)”の画素の領域の面積を算出することにより、ネイルNの領域の面積を算出する。ネイルNの領域の面積は、“1(白)”の画素数を求めることで算出することができる。
図6は、本実施形態におけるネイルウィンドウNWについて説明するための図である。ネイルウィンドウNWは、図6に示すように、指先位置特定部13Bにより特定された指先位置FTを通る、指(人差し指)が指し示す方向を表す直線CLがネイルウィンドウNWを左右に2等分し、下端が指先位置FTになるように設定される。図7は、二値化し、ノイズ除去した後のネイルウィンドウ画像NIMGの例を示す図である。
図2に戻り、オフセット値算出部13Dは、領域面積算出部13Cにより算出されたネイルNの領域の面積が所定の面積閾値Thより大きい場合に、指先による操作を開始する前の手指の画像(例えば、最初のフレームの画像)IMGに基づいて、オフセット値VOSを算出する。オフセット値VOSは、手指が基準姿勢P1(詳しくは後述)の状態にある際のネイル先端と指先位置FTとの間の距離である。操作を開始する前の手指の画像IMGに基づいて、オフセット値VOSを算出するのは、操作を開始する前の手指は基準姿勢P1に近いと考えられるからである。なお、ユーザの手指が基準姿勢P1の状態の画像を、操作開始前に登録させ、その基準姿勢P1の状態の画像に基づいて、オフセット値VOSを算出するようにしてもよい。
より具体的には、オフセット値算出部13Dは、領域面積算出部13Cにより生成されたノイズ除去後の二値化画像NIMGにおけるネイルNの領域のy軸方向(指が指し示す方向)の高さDyを、オフセット値VOSとして算出する。高さDyは、図7を参照して、ノイズ除去後の二値化画像NIMGの“1(白)”が設定されている画素の内でyの値が最小の画素と指先位置FTに対応する画素との距離である。
なお、平均的な人差し指の爪の基準姿勢P1時の長さLが、オフセット値VOSとして、用いられてもよい。
図2に戻り、先端位置推定部13Eは、領域面積算出部13Cにより算出されたネイルNの領域の面積が面積閾値Thより大きい場合に、操作中の手指の画像(例えば、2番目以降のフレームの画像)IMGに基づいて、処理対象の画像IMGにおけるネイル先端の位置(Nx,Ny)を推定する。より具体的には、先端位置推定部13Eは、処理対象の画像IMGにおける基準姿勢P1に対する傾き角度θ1を算出する。
図8は、傾き角度θ1について説明するための図である。手指の基準姿勢P1は、図8に示すように、作業台PLの上面(投影面)に対してネイルNが水平となる手指の姿勢である。しかしながら、投影表示のアイコンをタッチするなどの操作を行う際には、手指の姿勢は、姿勢P2のように、基準姿勢P1から傾いた状態となる。
そこで、先端位置推定部13Eは、以下の式2にしたがって、基準姿勢P1に対する実際の手指の傾き角度θ1を算出する。なお、式2中のDは基準姿勢P1における指先位置FTと手指の重心Gとの距離である。また、式2中のD’は実際の手指を上方から見た場合の指先位置FTと手指の重心Gとの距離、つまり、処理対象の画像IMGにおける指先位置FTと手指の重心Gとの距離である。なお、手指の重心Gは、手指位置特定部13Bにより抽出された手指領域に基づいて、特定することが可能である。また、基準姿勢P1の距離Dは、予め登録したユーザの手指が基準姿勢P1の状態の画像に基づいて算出するようにしてもよい。また、操作を開始する前の手指は基準姿勢P1に近いと考えられることから、例えば、最初のフレームの画像IMGにおける指先位置FTと手指の重心Gとの距離D’を距離Dとみなしてもよい。
Figure 2016143077
そして、先端位置推定部13Eは、画像IMGの測辺をy軸とした場合における、y軸に対する指(人差し指)が指し示す方向を表す直線CLとなす角の角度θ2、つまり、直線CLのy軸に対する回転角度θ2を算出する。より具体的には、図9を参照して、先端位置推定部13Eは、処理対象の画像IMGにおける直線CLの傾きに基づいて、回転角度θ2を算出する。直線CLの傾きを“m”とした場合、先端位置推定部13Eは、以下の式3にしたがって、回転角度θ2を算出ことができる。ここで、図9は、回転角度θ2について説明するための図である。なお、図9中の角度θ3とθ4については後述する。
Figure 2016143077
そして、先端位置推定部13Eは、算出した傾き角度θ1と回転角度θ2とに基づいて、オフセット値算出部13Dにより算出されたオフセット値VOSを補正する。つまり、先端位置推定部13Eは、オフセット値VOSに処理対象の画像IMGにおける手指の傾きと回転とを反映させることで、処理対象の画像IMGにおける指先位置FTを基準(原点)とした場合のネイル先端の座標(Vx,Vy)を、以下の式4にしたがって、算出する。
Figure 2016143077
そして、先端位置推定部13Eは、傾き角度θ1と回転角度θ2とに基づいて補正したオフセット値(Vx,Vy)と指先位置FTとに基づいて、処理対象の画像IMGにおけるネイル先端の位置(Nx,Ny)を推定する。より具体的には、先端位置推定部13Eは、処理対象の画像IMGにおける指先がy軸に対して、左側に傾いている姿勢P4の場合、つまり、直線CLの傾きが正(m>0)の場合には、以下の式5にしたがって、処理対象の画像IMGにおけるネイル先端の位置(Nx,Ny)を推定する。
Figure 2016143077
一方、処理対象の画像IMGにおける指先がy軸に対して、右側に傾いている姿勢P5の場合、つまり、直線CLの傾きが負(m<0)の場合には、先端位置推定部13Eは、以下の式7にしたがって、処理対象の画像IMGにおけるネイル先端の位置(Nx,Ny)を推定する。
Figure 2016143077
このようにして、先端位置推定部13Eは、爪にネイルが施されている場合に、手指の傾き角度θ1と回転角度θ2を求め、処理対象の画像IMGにおける実際の手指の姿勢に対応したネイル先端の位置(Nx,Ny)を推定することができる。
なお、指が指し示す方向を表す直線CLが画像IMGのy軸に平行であって、手指の姿勢が基準姿勢P1の状態の画像を予め登録することで、先端位置推定部13Eは、角度θ3と角度θ3とに基づいて、以下の式7にしたがって、回転角度θ2を算出することも可能である。ここで、図9を参照して、角度θ3は、処理対象の画像IMGにおける、指が指し示す方向を表す直線CLと、手指の重心Gと指先位置FTとを結ぶ直線がなす角の角度である。角度θ4は、処理対象の画像IMGにおける、画像IMGのy軸と、手指の重心Gと指先位置FTとを結ぶ直線がなす角の角度である。つまり、直線CLがy軸と平行の場合には、角度θ3と角度θ4は等しくなる。
Figure 2016143077
角度θ3は、手指の傾き度合いにより変化する。そのため、予め登録されている画像における、指が指し示す方向を表す直線CL(y軸と平行)と、手指の重心Gと指先位置FTとを結ぶ直線がなす角の角度を、手指の傾き角度θ1を考慮して補正することで、角度θ3を算出する。以下において、予め登録されている画像における、指が指し示す方向を表す直線CL(y軸と平行)と、手指の重心Gと指先位置FTとを結ぶ直線がなす角の角度を角度θ5と称することとする。
図10は、処理対象の画像IMGにおける、直線CLと、手指の重心Gと指先位置FTとを結ぶ直線がなす角の角度θ3について説明するための図である。図10中のFT1は、直線CLがy軸に平行であって、手指の姿勢が基準姿勢P1の状態の画像(予め登録されている画像)における指先位置FTを表している。また、図10中のFT2は、処理対象の画像IMGの指先位置FTを表している。この場合、図10に示すように、処理対象の画像IMGにおける指先位置FT2は、手指の傾きの影響で、より指の付け根方向にある直線CL上の点に移動する。
そこで、先端位置推定部13Eは、以下の式8にしたがって、処理対象の画像IMGにおける角度θ3を算出する。なお、式8中のR2は、図10に示すように、点Zが重心Gを通る直線CLに直交する直線と直線CLとの交点であるとすると、点Zと処理対象の画像IMGにおける指先位置FT2との間の距離である。また、式8中のSは、図10に示すように、点Zと重心Gとの間の距離である。
Figure 2016143077
先端位置推定部13Eは、距離R2は手指が傾き角度θ1だけ傾いている場合の点Zと指先位置FT2との間の距離であることから、以下の式9にしたがって、距離R2を算出することができる。式9中のR1は、図10に示すように、点Zと予め登録されている画像における指先位置FT1との間の距離である。
Figure 2016143077
先端位置推定部13Eは、図10に示すように、予め登録されている画像における指先位置FT1と重心Gとの間の距離をTとすると、距離Tと角度θ5とに基づいて、以下の式10にしたがって、距離R1を算出することができる。
Figure 2016143077
また、先端位置推定部13Eは、距離Tと角度θ5とに基づいて、以下の式11にしたがって、距離Sを算出することができる。
Figure 2016143077
したがって、予め登録されている画像の距離Tと角度θ5を算出することで、先端位置推定部13Eは、処理対象の画像IMGにおける角度θ3を算出することができる。先端位置推定部13Eは、予め登録されている画像における指先位置FT(図10中ではFT1)の座標と重心Gの座標とに基づいて、距離Tを算出することができる。また、先端位置推定部13Eは、予め登録されている画像の指が指し示す方向を表す直線CLはy軸と平行であることから、指先位置FTから重心Gへのベクトルに基づいて、以下の式12にしたがって、角度θ5を算出することができる。なお、予め登録されている画像における指先位置FTの座標は(x1,y1)であり、予め登録されている画像における重心Gの座標は(x2,y2)であるものとする。
Figure 2016143077
次に、角度θ4の求め方を説明する。角度θ4は、上述したように、処理対象の画像IMGにおける指先位置FTと重心Gとを結ぶ直線とy軸とがなす角の角度である。したがって、先端位置推定部13Eは、処理対象の画像IMGにおける指先位置FTから重心Gへのベクトルに基づいて、以下の式13にしたがって、角度θ4を算出することができる。なお、処理対象の画像IMGにおける指先位置FTの座標は(x3,y3)であり、処理対象の画像IMGにおける重心Gの座標は(x4,y4)であるものとする。
Figure 2016143077
次に、図11を参照して、本実施形態における指先追跡処理の流れについて説明する。図11は、本実施形態における指先追跡処理のフローを説明するためのフローチャートの例である。なお、以下の説明においては、全フレームの画像IMGに手指領域が含まれているものとして説明する。
画像取得部13Aは、カメラ30により撮像された画像IMGを取得する(ステップS001)。そして、画像取得部13Aは、取得した画像IMGが最初のフレームの画像か否かを判定する(ステップS002)。画像取得部13Aにより、取得した画像IMGが最初のフレームの画像であると判定された場合には(ステップS002;YES)、指先位置特定部13Bは、オフセット値算出部13Dなどと連係して、オフセット値算出処理を行う(ステップS003)。
そして、画像取得部13Aは、全てのフレームを取得したか否かを判定することで、全てのフレームが処理されたか否かを判定する(ステップS004)。画像取得部13Aにより、全てのフレームが処理されたと判定された場合には(ステップS004;YES)、本処理は終了する。一方、画像取得部13Aにより、全てのフレームが処理されていないと判定された場合には(ステップS004;NO)、処理はステップS001の処理へと戻り、前述の処理を繰り返す。
ステップS002の処理において、画像取得部13Aにより、取得した画像IMGが最初のフレームの画像ではないと判定された場合には(ステップS002;NO)、指先位置特定部13Bは、先端位置推定部13Eと連係して、指先検出処理を行う(ステップS005)。そして、処理は前述のステップS004の処理へと進む。
次に、図12を参照して、本実施形態におけるオフセット値算出処理の流れについて説明する。図12は、本実施形態におけるオフセット値算出処理のフローを説明するためのフローチャートの例である。本オフセット値算出処理は、前述の指先追跡処理のステップS003の処理に対応する処理である。
指先位置特定部13Bは、取得された画像IMGの色情報がHSV表色系以外の表色系で定義されている場合には、画像IMGをHSV画像に変換する(ステップS101)。そして、指先位置特定部13Bは、HSV表色系で定義されている肌色定義領域FCに基づいて、肌色領域を抽出し(ステップS102)、抽出した肌色領域に基づいて、処理対象の画像IMGから手指領域を抽出する(ステップS103)。
そして、指先位置特定部13Bは、抽出した手指領域に基づいて、指先位置FTを算出する(ステップS104)。そして、領域面積算出部13Cは、HSV画像上にネイルウィンドウNWを設定して、差分画像NIMGを生成する(ステップS105)。そして、領域面積算出部13Cは、生成した差分画像NIMGを二値化し(ステップS106)、ノイズを除去する(ステップS107)。そして、領域面積算出部13Cは、ノイズ除去後の二値化画像NIMGにおけるネイル領域の面積を算出する(ステップS108)。
そして、オフセット値算出部13Dは、算出されたネイル領域の面積が面積閾値Thより大きいか否かを判定する(ステップS109)。オフセット値算出部13Dにより、ネイル領域の面積が面積閾値Th以下であると判定された場合には(ステップS109;NO)、本処理は終了し、前述の指先追跡処理のステップS004の処理へと移行する。
一方、ネイル領域の面積が面積閾値Thより大きいと判定した場合には(ステップS109;YES)、オフセット値算出部13Dは、処理対象の画像IMG、つまり、ノイズ除去後の二値化画像NIMGにおけるネイル領域の高さDy(=オフセット値VOS)を算出する(ステップS110)。そして、本処理は終了して、前述の指先追跡処理のステップS004の処理へと移行する。
次に、図13を参照して、本実施形態における指先検出処理の流れについて説明する。図13は、本実施形態における指先検出処理のフローを説明するためのフローチャートの例である。本指先検出処理は、前述の指先追跡処理のステップS005の処理に対応する処理である。
指先位置特定部13Bは、取得された画像IMGの色情報がHSV表色系以外の表色系で定義されている場合には、画像IMGをHSV画像に変換する(ステップS201)。そして、指先位置特定部13Bは、HSV表色系で定義されている肌色定義領域FCに基づいて、肌色領域を抽出し(ステップS202)、抽出した肌色領域に基づいて、処理対象の画像IMGから手指領域を抽出する(ステップS203)。
そして、指先位置特定部13Bは、抽出した手指領域に基づいて、指先位置FTを算出する(ステップS204)。そして、先端位置推定部13Eは、オフセット値算出部13Dによりオフセット値VOSが算出されたか否かを判定する(ステップS205)。先端位置推定部13Eにより、オフセット値VOSは算出されなかったと判定された場合には(ステップS205;NO)、本処理は終了して、前述の指先追跡処理のステップS004の処理へと移行する。
一方、オフセット値VOSが算出されたと判定した場合には(ステップS205;YES)、先端位置推定部13Eは、基準姿勢P1に対する手指の傾き角度θ1を算出すると共に(ステップS206)、手指の回転角度θ2を算出する(ステップS207)。そして、先端位置推定部13Eは、算出した手指の傾き角度θ1と回転角度θ2とに基づいて、オフセット値VOSを補正する(ステップS208)。
そして、先端位置推定部13Eは、処理対象の画像IMGの指先位置FTと補正後のオフセット値(Vx,Vy)とに基づいて、処理対象の画像IMGにおけるネイル先端の位置(Nx,Ny)を推定する(ステップS209)。そして、本処理は終了して、前述の指先追跡処理のステップS004の処理へと移行する。
上記実施形態によれば、情報処理装置10は、手指の色を定義した肌色定義領域FCに基づいて、撮像された画像に含まれる手指の指先位置FTを特定する。そして、情報処理装置10は、指先位置に接し、且つ指先が指し示す方向に位置するネイルウィンドウNW内の領域における、投影表示とは異なる領域の面積を算出する。そして、情報処理装置10は、面積が面積閾値Thより大きい場合に、指先位置FTより指先が指し示す方向に離れた位置にあるネイル先端の位置を推定する。このようにすることで、ネイルをしている指先の位置を推定することが可能となる。
また、上記実施形態によれば、情報処理装置10は、爪にネイルが施されている場合を考慮せずに手指の色を定義した肌色定義領域FCに基づいて、撮像された画像に含まれる手指の指先位置FTを特定する。このようにすることで、背景の誤検出を抑制しつつ、ネイルをしている指先の位置を推定することが可能となる。
また、上記実施形態によれば、情報処理装置10は、ネイルウィンドウNW内の領域における投影表示とは異なる領域の指先が指し示す方向の長さに基づいて、ネイル先端の位置を推定する。このようにすることで、ネイルをしている指先の位置を、より正確に推定することが可能となる。
また、上記実施形態によれば、情報処理装置10は、基準姿勢P1に対する処理対象の画像IMGにおける手指の姿勢の傾き角度θ1を考慮して、ネイル先端の位置を推定する。このようにすることで、ネイルをしている指先の位置の推定精度を、更に向上させることができる。
図14は、実施形態における情報処理装置10のハードウェア構成の例を示す図である。図2に示す情報処理装置10は、例えば、図14に示す各種ハードウェアにより実現されてもよい。図14の例では、情報処理装置10は、CPU201、RAM202、ROM203、HDD204、プロジェクタ20やカメラ30を接続するための機器インターフェース205、通信モジュール206、読取装置207を備え、これらのハードウェアはバス208を介して接続されている。
CPU201は、例えば、HDD204に格納されている動作プログラムをRAM202にロードし、RAM202をワーキングメモリとして使いながら各種処理を実行する。CPU201は、動作プログラムを実行することで、図2に示す制御部13の各機能部を実現することができる。
なお、上記動作を実行するための動作プログラムを、フレキシブルディスク、Compact Disk−Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Magneto Optical disk(MO)などのコンピュータで読み取り可能な記録媒体209に記憶して配布し、これを情報処理装置10の読取装置207で読み取ってコンピュータにインストールすることにより、上述の処理を実行するようにしてもよい。さらに、インターネット上のサーバ装置が有するディスク装置等に動作プログラムを記憶しておき、通信モジュール206を介して、情報処理装置10のコンピュータに動作プログラムをダウンロード等するものとしてもよい。
なお、実施形態に応じて、RAM202、ROM203、HDD204以外の他の種類の記憶装置が利用されてもよい。例えば、情報処理装置10は、Content Addressable Memory(CAM)、Static Random Access Memory(SRAM)、Synchronous Dynamic Random Access Memory(SDRAM)などの記憶装置を有してもよい。
なお、実施形態に応じて、情報処理装置10のハードウェア構成は図14とは異なっていてもよく、図14に例示した規格・種類以外のその他のハードウェアを情報処理装置10に適用することもできる。
例えば、図2に示す情報処理装置10の制御部13の各機能部は、ハードウェア回路により実現されてもよい。具体的には、CPU201の代わりに、Field Programmable Gate Array(FPGA)などのリコンフィギュラブル回路や、Application Specific Integrated Circuit(ASIC)などにより、図2に示す制御部13の各機能部が実現されてもよい。もちろん、CPU201とハードウェア回路の双方により、これらの機能部が実現されてもよい。
以上において、いくつかの実施形態及びその変形例について説明した。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態及び代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨及び範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態を成すことができることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して又は置換して、或いは実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。
以上の実施形態及びその変形例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
手指の色を定義した色領域モデルに基づいて、画像に含まれる手指の第1の指先位置を特定する第1特定手段と、
前記第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、前記画像の背景とは異なる領域の面積を算出する第1算出手段と、
前記面積が所定の閾値より大きい場合に、前記第1の指先位置より前記指先が指し示す方向に離れた位置にある第2の指先位置を推定する推定手段と、
を備える、
ことを特徴とする指先位置推定装置。
(付記2)
前記推定手段は、平均的な大きさの爪のサイズに基づいて、前記第2の指先位置を推定する、
ことを特徴とする付記1に記載の指先位置推定装置。
(付記3)
前記推定手段は、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さに基づいて、前記第2の指先位置を推定する、
ことを特徴とする付記1に記載の指先位置推定装置。
(付記4)
手指を含まない前記背景のみを予め撮像した背景画像における前記所定サイズの領域に対応する領域と前記所定サイズの領域との差分画像を生成する第1生成手段と、
前記差分画像に基づいて、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さを算出する第2算出手段と、
を、更に、備える、
ことを特徴とする付記3に記載の指先位置推定装置。
(付記5)
前記差分画像を二値化して二値化画像を生成する第2生成手段を、更に、備え、
前記第2算出手段は、前記二値化画像に基づいて、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さを算出する、
ことを特徴とする付記4に記載の指先位置推定装置。
(付記6)
前記二値化画像のノイズを除去する除去手段を、更に、備え、
前記第2算出手段は、前記ノイズが除去された後の二値化画像に基づいて、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さを算出する、
ことを特徴とする付記5に記載の指先位置推定装置。
(付記7)
前記長さは、指先による操作を開始する前に撮像された前記手指を含む画像における、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さである、
ことを特徴とする付記3乃至6のいずれか一に記載の指先位置推定装置。
(付記8)
前記面積が所定の閾値より大きい場合に、前記指先が指し示す方向を特定する第2特定手段を、更に、備える、
ことを特徴とする付記1乃至7のいずれか一に記載の指先位置推定装置。
(付記9)
前記第2特定手段は、画像の縦軸と当該画像中の前記指先が指し示す方向がなす角の角度を算出することにより、前記指先が指し示す方向を特定する、
ことを特徴とする付記8に記載の指先位置推定装置。
(付記10)
前記画像は、投影表示を撮像した画像である、
ことを特徴とする付記1乃至9のいずれか一に記載の指先位置推定装置。
(付記11)
前記投影表示を投影する投影面に略水平な手指の第1姿勢に対する、撮像時の手指の姿勢の傾き角度に基づいて、前記第2の指先位置を補正する補正手段を、更に、備える、
ことを特徴とする付記10に記載の指先位置推定装置。
(付記12)
前記色領域モデルは、前記手指の爪にネイルが施されている場合を考慮せずに手指の色を定義したものである、
ことを特徴とする付記1乃至11のいずれか一に記載の指先位置推定装置。
(付記13)
画像に含まれる手指の指先位置を推定する指先位置推定装置の指先位置推定方法であって、
手指の色を定義した色領域モデルに基づいて、前記画像に含まれる手指の第1の指先位置を特定し、
前記第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、前記画像の背景とは異なる領域の面積を算出し、
前記面積が所定の閾値より大きい場合に、前記第1の指先位置より前記指先が指し示す方向に離れた位置にある第2の指先位置を推定する、
ことを特徴とする指先位置推定方法。
(付記14)
画像に含まれる手指の指先位置を推定する指先位置推定装置のコンピュータに、
手指の色を定義した色領域モデルに基づいて、前記画像に含まれる手指の第1の指先位置を特定し、
前記第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、前記画像の背景とは異なる領域の面積を算出し、
前記面積が所定の閾値より大きい場合に、前記第1の指先位置より前記指先が指し示す方向に離れた位置にある第2の指先位置を推定する、
処理を実行させる、
ことを特徴とするプログラム。
(付記15)
画像に含まれる手指の指先位置を推定する指先位置推定装置のコンピュータに、
手指の色を定義した色領域モデルに基づいて、前記画像に含まれる手指の第1の指先位置を特定し、
前記第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、前記画像の背景とは異なる領域の面積を算出し、
前記面積が所定の閾値より大きい場合に、前記第1の指先位置より前記指先が指し示す方向に離れた位置にある第2の指先位置を推定する、
処理を実行させることを特徴とするプログラムを記憶した記録媒体。
100 インターフェースシステム
10 情報処理装置
11 入力部
12 記憶部
13 制御部
13A 画像取得部
13B 指先位置特定部
13C 領域面積算出部
13D オフセット値算出部
13E 先端位置推定部
20 プロジェクタ
30 カメラ
PL 作業台
FC 肌色定義領域
FT 指先位置
ING 画像
N ネイル
CL 指先位置を通り指(人差し指)が指し示す方向を表す直線
NW ネイルウィンドウ
Dy 背景以外の領域のy軸方向の高さ
G 手指の重心
P1 手指の基準姿勢
P2〜5 手指の姿勢
θ1 傾き角度
θ2 回転角度
201 CPU
202 RAM
203 ROM
204 HDD
205 機器インターフェース
206 通信モジュール
207 読取装置
208 バス
209 記録媒体

Claims (14)

  1. 手指の色を定義した色領域モデルに基づいて、画像に含まれる手指の第1の指先位置を特定する第1特定手段と、
    前記第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、前記画像の背景とは異なる領域の面積を算出する第1算出手段と、
    前記面積が所定の閾値より大きい場合に、前記第1の指先位置より前記指先が指し示す方向に離れた位置にある第2の指先位置を推定する推定手段と、
    を備える、
    ことを特徴とする指先位置推定装置。
  2. 前記推定手段は、平均的な大きさの爪のサイズに基づいて、前記第2の指先位置を推定する、
    ことを特徴とする請求項1に記載の指先位置推定装置。
  3. 前記推定手段は、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さに基づいて、前記第2の指先位置を推定する、
    ことを特徴とする請求項1に記載の指先位置推定装置。
  4. 手指を含まない前記背景のみを予め撮像した背景画像における前記所定サイズの領域に対応する領域と前記所定サイズの領域との差分画像を生成する第1生成手段と、
    前記差分画像に基づいて、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さを算出する第2算出手段と、
    を、更に、備える、
    ことを特徴とする請求項3に記載の指先位置推定装置。
  5. 前記差分画像を二値化して二値化画像を生成する第2生成手段を、更に、備え、
    前記第2算出手段は、前記二値化画像に基づいて、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さを算出する、
    ことを特徴とする請求項4に記載の指先位置推定装置。
  6. 前記二値化画像のノイズを除去する除去手段を、更に、備え、
    前記第2算出手段は、前記ノイズが除去された後の二値化画像に基づいて、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さを算出する、
    ことを特徴とする請求項5に記載の指先位置推定装置。
  7. 前記長さは、指先による操作を開始する前に撮像された前記手指を含む画像における、前記所定サイズの領域における前記背景とは異なる領域の前記指先が指し示す方向の長さである、
    ことを特徴とする請求項3乃至6のいずれか一に記載の指先位置推定装置。
  8. 前記面積が所定の閾値より大きい場合に、前記指先が指し示す方向を特定する第2特定手段を、更に、備える、
    ことを特徴とする請求項1乃至7のいずれか一に記載の指先位置推定装置。
  9. 前記第2特定手段は、画像の縦軸と当該画像中の前記指先が指し示す方向がなす角の角度を算出することにより、前記指先が指し示す方向を特定する、
    ことを特徴とする請求項8に記載の指先位置推定装置。
  10. 前記画像は、投影表示を撮像した画像である、
    ことを特徴とする請求項1乃至9のいずれか一に記載の指先位置推定装置。
  11. 前記投影表示を投影する投影面に略水平な手指の第1姿勢に対する、撮像時の手指の姿勢の傾き角度に基づいて、前記第2の指先位置を補正する補正手段を、更に、備える、
    ことを特徴とする請求項10に記載の指先位置推定装置。
  12. 前記色領域モデルは、前記手指の爪にネイルが施されている場合を考慮せずに手指の色を定義したものである、
    ことを特徴とする請求項1乃至11のいずれか一に記載の指先位置推定装置。
  13. 画像に含まれる手指の指先位置を推定する指先位置推定装置の指先位置推定方法であって、
    手指の色を定義した色領域モデルに基づいて、前記画像に含まれる手指の第1の指先位置を特定し、
    前記第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、前記画像の背景とは異なる領域の面積を算出し、
    前記面積が所定の閾値より大きい場合に、前記第1の指先位置より前記指先が指し示す方向に離れた位置にある第2の指先位置を推定する、
    ことを特徴とする指先位置推定方法。
  14. 画像に含まれる手指の指先位置を推定する指先位置推定装置のコンピュータに、
    手指の色を定義した色領域モデルに基づいて、前記画像に含まれる手指の第1の指先位置を特定し、
    前記第1の指先位置に接し、且つ指先が指し示す方向に位置する所定サイズの領域における、前記画像の背景とは異なる領域の面積を算出し、
    前記面積が所定の閾値より大きい場合に、前記第1の指先位置より前記指先が指し示す方向に離れた位置にある第2の指先位置を推定する、
    処理を実行させる、
    ことを特徴とするプログラム。
JP2015015933A 2015-01-29 2015-01-29 指先位置推定装置、指先位置推定方法、及び、プログラム Expired - Fee Related JP6455186B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015015933A JP6455186B2 (ja) 2015-01-29 2015-01-29 指先位置推定装置、指先位置推定方法、及び、プログラム
US15/005,146 US9916042B2 (en) 2015-01-29 2016-01-25 Fingertip position estimation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015015933A JP6455186B2 (ja) 2015-01-29 2015-01-29 指先位置推定装置、指先位置推定方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2016143077A true JP2016143077A (ja) 2016-08-08
JP6455186B2 JP6455186B2 (ja) 2019-01-23

Family

ID=56553101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015015933A Expired - Fee Related JP6455186B2 (ja) 2015-01-29 2015-01-29 指先位置推定装置、指先位置推定方法、及び、プログラム

Country Status (2)

Country Link
US (1) US9916042B2 (ja)
JP (1) JP6455186B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388378B2 (ja) 2021-03-01 2023-11-29 カシオ計算機株式会社 印刷システム及び印刷制御方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185400B2 (en) * 2016-01-11 2019-01-22 Antimatter Research, Inc. Gesture control device with fingertip identification
TWI626423B (zh) * 2016-09-12 2018-06-11 財團法人工業技術研究院 手觸偵測裝置、手觸偵測方法及應用其之智慧投影系統
CN110674728B (zh) * 2019-09-20 2022-05-10 重庆商勤科技有限公司 基于视频图像识别玩手机方法、装置、服务器及存储介质
CN113052148B (zh) * 2021-05-10 2023-09-29 读书郎教育科技有限公司 一种改善平板指尖定位抖动的方法
KR102373961B1 (ko) * 2021-09-10 2022-03-15 (주)웅진씽크빅 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265809A (ja) * 2008-04-23 2009-11-12 Kddi Corp 情報端末装置
JP2014154049A (ja) * 2013-02-12 2014-08-25 Axell Corp 指先検出方法及び指先検出ユーザーインターフェースモジュール
JP2014165660A (ja) * 2013-02-25 2014-09-08 Univ Of Tsukuba バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
JP2014203174A (ja) * 2013-04-02 2014-10-27 富士通株式会社 情報操作表示システム、表示プログラム、および、表示方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209082A (ja) 2001-01-12 2002-07-26 Minolta Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記録したコンピュータ読取可能な記録媒体
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265809A (ja) * 2008-04-23 2009-11-12 Kddi Corp 情報端末装置
JP2014154049A (ja) * 2013-02-12 2014-08-25 Axell Corp 指先検出方法及び指先検出ユーザーインターフェースモジュール
JP2014165660A (ja) * 2013-02-25 2014-09-08 Univ Of Tsukuba バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
JP2014203174A (ja) * 2013-04-02 2014-10-27 富士通株式会社 情報操作表示システム、表示プログラム、および、表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388378B2 (ja) 2021-03-01 2023-11-29 カシオ計算機株式会社 印刷システム及び印刷制御方法

Also Published As

Publication number Publication date
JP6455186B2 (ja) 2019-01-23
US9916042B2 (en) 2018-03-13
US20160224191A1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
JP6455186B2 (ja) 指先位置推定装置、指先位置推定方法、及び、プログラム
US9756265B2 (en) Information processing apparatus recognizing certain object in captured image, and method for controlling the same
JP6079832B2 (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
JP6007497B2 (ja) 画像投影装置ならびに画像投影制御装置およびプログラム
US10082879B2 (en) Head mounted display device and control method
JP5205187B2 (ja) 入力システム及び入力方法
KR20100138602A (ko) 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
JP2015153046A (ja) 画像処理装置、画像処理方法およびプログラム
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
US9727776B2 (en) Object orientation estimation
JP6141108B2 (ja) 情報処理装置およびその方法
US10269136B2 (en) System and method for processing depth images which capture an interaction of an object relative to an interaction plane
KR20120044484A (ko) 이미지 처리 시스템에서 물체 추적 장치 및 방법
US10042426B2 (en) Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP5887264B2 (ja) 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6229554B2 (ja) 検出装置および検出方法
US11340706B2 (en) Gesture recognition based on depth information and computer vision
JP6273686B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2013190949A (ja) 歩行者検出装置及びプログラム
JP6521481B2 (ja) 画像補正装置、及び画像補正方法、プログラム
JP7452120B2 (ja) 画像処理方法、画像処理プログラムおよび画像処理装置
JP6361332B2 (ja) ジェスチャ認識装置およびジェスチャ認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181203

R150 Certificate of patent or registration of utility model

Ref document number: 6455186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees