JP5077956B2 - 情報端末装置 - Google Patents

情報端末装置 Download PDF

Info

Publication number
JP5077956B2
JP5077956B2 JP2008112416A JP2008112416A JP5077956B2 JP 5077956 B2 JP5077956 B2 JP 5077956B2 JP 2008112416 A JP2008112416 A JP 2008112416A JP 2008112416 A JP2008112416 A JP 2008112416A JP 5077956 B2 JP5077956 B2 JP 5077956B2
Authority
JP
Japan
Prior art keywords
nail
region
terminal device
information terminal
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008112416A
Other languages
English (en)
Other versions
JP2009265809A5 (ja
JP2009265809A (ja
Inventor
晴久 加藤
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2008112416A priority Critical patent/JP5077956B2/ja
Priority to US12/428,087 priority patent/US8259064B2/en
Publication of JP2009265809A publication Critical patent/JP2009265809A/ja
Publication of JP2009265809A5 publication Critical patent/JP2009265809A5/ja
Application granted granted Critical
Publication of JP5077956B2 publication Critical patent/JP5077956B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image

Description

本発明は、撮影画像を取り込む機能を備えた情報端末装置に係り、特に、撮影画像内で被写体の動きを検出し、各動作に割り当てられた固有の制御を実行する情報端末装置に関する。
電子機器回路の高集積化に伴って情報端末装置の小型・軽量化が進み、キーボードやマウスなどの入力操作部の設置スペースを十分に確保することができなった結果、利用者が煩雑な入力操作を強いられることがある。キーボードやマウスなどの従来の入力操作部に代わる直感的な入力操作部として、手や指の動きを検知するインターフェースが開発されている。
特許文献1には、カメラで撮像された画像から手のエッジラインを抽出し、これをHough変換することによって指の向きを検出する技術が開示されている。
特許文献2には、手の色の範囲に入っている領域の外接矩形を求め、その全体に対してHough変換を施すことで指の候補となる直線を検出する技術が開示されている。
特許文献3には、赤外線カメラによる画像から体温に基づいて手領域を抽出し、抽出された手領域から、予め用意したパターンとのパターン・マッチングにより指先を特定する技術が開示されている。
特許文献4には、赤、青、黄の3色のマーカを備えた指サックをユーザの指に装着してカメラで撮影し、この撮影画像からマーカを検出することで指の動きを識別する技術が開示されている。
特開平6−20055号公報 特開平9−35066号公報 特開2001−282456号公報 特開2002−269567号公報
特許文献1、2に開示された技術では、直線検出に計算量の多いHough 変換を利用するため、携帯電話のように処理能力の低い情報端末では、操作するアプリケーションの実行速度を低下させてしまうという問題がある。また、指の画像は必ずしも直線のみで構成されておらず、特に関節やしわの部分は曲線を多く含むので、直線を検出するだけでは指を精度良く検出できない。さらに、背景に存在する直線と指の直線との区別については何ら触れられていない。
特許文献3では、撮影に赤外線カメラが用いられる。しかしながら、赤外線カメラは情報端末装置に内蔵されるカメラとしては普及していないので当該赤外線カメラを新たに組み込まなければならず、その追加に伴う消費電力の増加も問題となる。
特許文献4では、特別なセンサを必要とせずに、一般的なカメラだけを用いて直感的な操作を実現できる。しかしながら、操作のたびに指サックをはめる必要があるために煩わしいという問題がある。
本発明の目的は、上記した従来技術の課題を解決し、赤外線カメラのような付加的なハードウェアや指サックなどの附属品を必要とせず、少ない計算量で指先の動作を正確に識別し、各動作に割り当てられた制御を実行する情報端末装置を提供することにある。
上記の目的を達成するために、本発明は、被写体を連続的に撮影する撮影部および表示部を備えた情報端末装置において、以下のような手段を講じた点に特徴がある。
(1)撮影画像から特徴量を抽出する第1特徴量抽出手段と、前記抽出された特徴量を第1の学習モデルに適用して第1領域を抽出する第1領域抽出手段と、前記第1領域の特徴量を第2の学習モデルに適用して、当該第1領域の一部である第2領域を抽出する第2領域抽出手段と、前記第2領域の動きを検出する動き検出手段と、前記動きの検出結果に基づいて情報端末装置を制御する制御手段とを含む特徴とする。
(2)前記動き検出手段が、第2領域の個数を検出する個数検出手段、第2領域の拡大縮小を検出する拡縮検出手段、第2領域の移動を検出する移動検出手段、および第2領域の向きを検出する向き検出手段の少なくとも一つを含むことを特徴とする。
本発明によれば、以下のような効果が達成される。
(1)動き検出の対象となる第2領域を撮影画像からいきなり検出するのではなく、初めに第2領域を含む第1領域を抽出し、次いで、この第1領域のみを対象として第2領域を抽出するので、例えば、爪領域の動きを検出する場合、指や手などの肌領域を第1領域として初めに抽出し、この肌領域のみを対象に爪領域を抽出すれば、爪領域を少ない計算量で精度良く検出できるようになる。
(2)第2領域の移動、向きおよび拡縮といった動きのみならず個数も検出し、この個数をパラメータに加えて制御が実行されるので、第2領域の動きだけでは難しい複雑な制御を行えるようになる。
以下、図面を参照して本発明の最良の実施の形態について詳細に説明する。図1は、本発明を適用した携帯電話の主要部の構成を示した機能ブロック図であり、ここでは、本発明の説明に不用な構成は図示が省略されている。
撮像部1は、所定のサンプリング周期で被写体を連続的に撮影して、その撮影画像を出力する。この撮像部1としては携帯電話に標準装備されるデジタルカメラを用いることができる。本実施形態では被写体が手の甲側であり、特に指の爪が写るように撮影される。操作推定部2は、撮影された爪や指の動き、向き、個数等に基づいて入力操作を推定する。制御部3は、前記入力操作の推定結果に基づいて、表示部4の表示内容や実行中のアプリケーションを制御する。
前記操作推定部2は、撮影画像から爪領域(第2領域)を含む肌領域(第1領域)を抽出する肌領域抽出部21と、抽出された肌領域から爪領域を抽出する爪領域抽出部22と、抽出された爪領域の時間的な変化を追跡して当該爪領域の動きを検出する動き検出部23とを含み、当該動き検出部23の検出結果に基づいて入力操作を推定する。
このように、本実施形態では動き検出の対象となる爪領域を撮影画像からいきなり検出するのではなく、初めに爪領域を含む肌領域を抽出し、次いで、この肌領域のみを対象として爪領域を抽出するようにしている。これにより、指や手の甲と同様の色調である爪領域を、少ない計算量で精度良く検出できるようになる。
図2は、前記肌領域(第1領域)抽出部21の構成を示した機能ブロック図であり、撮影画像の特徴量を学習モデルに適用して肌領域を抽出する。したがって、本実施形態では当該肌領域抽出部21による肌領域抽出に先立って辞書データベース(DB)55が予め構築される。
本実施形態では、肌領域を含む学習用画像を正例51として用意すると共に、肌領域を含まない非肌の学習用画像を負例52として用意し、これら学習用画像から肌領域および非肌領域を手動で抽出し、抽出された各領域から特徴量抽出部53により肌および非肌の特徴量を抽出する。学習部54は、抽出された肌および非肌の各特徴量を用いて、肌領域と非肌領域とを区別する尺度をそれぞれモデル化して辞書DB55に登録しておく。このモデル化にはGMM(Gaussian Mixture Model) やSVM(Support Vector Machine)など任意の識別器を用いることができる。
前記正例および負例の各学習用画像51,52、特徴量抽出部53および学習部54は携帯電話に実装する必要はなく、学習結果としての辞書DB55のみを実装すれば良い。前記学習部54がGMM (Gaussian Mixture Model)を利用する場合、肌および非肌の分布確P(x)は次式(1)で与えられる複数のガウス分布の和として求められる。
Figure 0005077956
ここで、xおよびDは、それぞれ特徴量抽出部53で抽出された特徴量およびその次数を表し、Nはガウス分布の数を表す。各ガウス分布には重み係数wiが設定され、μiおよびΣiは、それぞれ平均値および共分散行列を表す。ガウス分布のパラメータは、EMアルゴリズムなどの最尤推定法を利用して決定できる。
前記学習部54は、手動で肌領域が抽出された一般的な学習用画像について、肌であって特徴量xが発生する確率P(x|skin)を上式(1)に基づいて算出する。同様に、非肌であって特徴量xが発生する確率P(x|¬skin)を上式(1)に基づいて算出する。そして、それぞれの確率算出関数のパラメータ、すなわちガウス分布の数Nおよびそれぞれの平均値μi、共分散行列Σi、および重み係数wi が学習モデルの情報として辞書DB55に登録される。
なお、利用者の肌を利用して学習する場合は、前記学習データとは別に利用者の肌領域から抽出した特徴量で確率を算出する。そして、前記学習データで学習した肌確率をPg(x|skin)、非肌確率をPg(x|¬skin) とし、利用者の肌で学習した肌確率をPu(x|skin)、非肌確率をPu(x|¬skin)とすれば、利用者の肌情報を反映した肌確率および非肌確率は、それぞれ次式(2),(3)で与えられる。
Figure 0005077956
Figure 0005077956
本実施形態では、後に詳述するように、撮影画像から抽出された特徴量を前記学習モデルに適用して肌確率P(x|skin)および非肌確率P(x|¬ skin)を算出し、別途に与えられた閾値TH1を用いて、前記肌確率P(x|skin)と非肌確率P(x|¬ skin)との比率Lが次式(4)を満足する画素が肌領域とされる。
Figure 0005077956
なお、肌確率の比率Lに関しては、画素値すべてに対する値を予め算出できるので、算出結果をモデル情報とすることもできる。この場合、モデル情報をテーブル、画素値を索引として参照するだけで高速な処理を実行できる。
一方、前記学習部54がSVMを利用する場合は、予め用意された学習用データセットからMPEG-7 で規定された特徴量を抽出し、学習用肌領域の特徴量と学習用非肌領域の特徴量とを分離するマージンを最大化するような写像および超平面を構築し、これをモデル情報として出力する。
本実施形態では、後に詳述するように、撮影画像から抽出された特徴量をSVM上に写像し、これがSVMの超平面に対してどこに位置するかによって当該入力画像が正例コンテンツであるか負例コンテンツであるかを識別できる。すなわち、撮影画像から抽出された肌特徴量が、モデル情報の分離超平面に対して学習用肌領域の特徴量が多数存在する領域に位置する画素が肌領域とされる。
なお、利用者の肌を利用して学習する場合は、利用者の肌領域から抽出した特徴量を前記学習データに追加し、利用者の肌特徴量に予め設定した重みを付けて学習する。このようなSVMについては、V.N.Vapnik,「Statistical Learning Theory」, John Wiley & Sons(1998)などに記載されている。
図2へ戻り、前記肌領域抽出部21において、第1画像補正部21aは、撮影画像の露光条件やホワイトバランスが適切に設定されおらず、肌が肌色として撮影されていない場合などに当該画像の色調を補正する。本実施形態では、コントラスト調整やホワイトバランス調整といった周知の技術を用いて色調が調整される。ホワイトバランス調整では、一般的な画像にはRGBが均等に存在するという仮定や最大値が白であるという仮定を利用できる。前者の場合、RGBの成分毎に平均値を求め、さらに平均値の平均に対する比を各成分に乗算することでホワイトバランスが調整される。すなわち、画素のRGB 成分を(ri, gi, bi) とし、それぞれの平均値を(Rave,Gave,Bave) とすれば、ホワイトバランス調整後の画素(r'i , g'i , b'i) は次式(5)で算出できる。
Figure 0005077956
後者の場合は、各成分の最大値(rmax, gmax, bmax)を白と仮定し、ホワイトバランス調整後の画素(r''i , g''i , b''i)は次式(6)で算出される。
Figure 0005077956
第1特徴量算出部21bは、撮影画像から所定の単位領域(例えば、画素単位)ごとに画像特徴量を算出する。この特徴量算出には、MPEG-7 で規定されたColor Layout 、Color Histogram、Scalable Color、Dominant ColorおよびEdge Histogram などを利用できる。あるいは、HSV など各種色空間に変換した色情報そのものを利用しても良い。
第1領域特定部21cは、撮像画像の特徴量と前記辞書DB55に登録されている学習モデル情報とに基づいて撮影画像から肌領域を抽出すると共に、この肌領域の重心位置および平均画素値を算出する。重心位置の座標(xp, yp) は肌領域の各画素の位置情報(xi, yi) を用いて次式(7)で求められる。このようにして算出された肌領域の位置情報、重心位置および平均色は、肌領域情報として後段の爪領域抽出部22へ出力される。
Figure 0005077956
図3は、前記爪領域(第2領域)抽出部22の構成を示した機能ブロック図であり、前記肌領域抽出部21で抽出された肌領域の画像およびその特徴量、ならびに学習モデルに基づいて、当該肌領域から爪領域を抽出する。したがって、本実施形態でも爪領域抽出に先立って辞書データベース(DB)65が予め構築される。
すなわち、爪領域を含む学習用画像を正例61として用意すると共に、爪領域を含まない非肌の学習用画像を負例62として用意し、これら学習用画像から爪領域および非爪領域を手動で抽出し、特徴量抽出部63において爪および非爪の特徴量を抽出する。学習部64は、抽出された爪および非爪の各特徴量を用いて、爪領域と非爪領域とを区別する尺度をそれぞれモデル化して辞書DB65に登録しておく。
なお、学習モデルの構築方法は前記肌領域と非肌領域とを区別する学習モデルの構築方法と同一なので、ここでは説明を省略する。また、前記正例および負例の各学習用画像61,62、特徴量抽出部63および学習部64も携帯電話に実装する必要はなく、学習結果としての辞書DB65のみを実装すれば良い。
第2画像補正部22aは、後段の処理において識別対象を検出しやすくするために、前記肌領域抽出部21で抽出された肌領域情報を用いて撮影画像を補正する。前記第1画像補正部21aでは、一般的な画像の特性を利用して補正が行われるのに対して、この第2画像補正部22aでは、前記肌領域抽出部21で抽出された肌領域情報の特性を利用して画像を補正する。特に、適切なホワイトバランスが設定されていない場合は色相がずれているため、第2画像補正部22aは、HSV色空間において前記肌領域の平均色の色相と前記正例51の色相との差を補正情報として算出し、これを第2特徴量算出部22bへ出力する。
第2特徴量算出部22bは、前記肌領域抽出部21で抽出された肌領域内部およびその近傍領域の各画素値に、前記第2画像補正部22aで算出された補正情報を加算する。さらに、補正後の各画素値を対象にして、前記第1特徴量算出部21bと同様に、MPEG-7 で規定されたColor Layout、Color Histogram、Scalable Color、Dominant ColorあるいはEdge Histogramを適用して爪特徴量を算出する。あるいは、前記第1特徴量算出部21bで算出された肌特徴量に前記第2画像補正部22aで算出された補正情報を加算し、これを爪特徴量として良く、このようにすれば特徴量算出の処理を簡略化できる。
なお、爪領域には肌領域には無い固有の特徴として光沢があるので、この光沢を爪領域の特徴量として利用しても良い。すなわち、爪は肌と比較して光の反射率が高いため、肌領域近傍の最大画素値は爪である可能性が高い。また、爪は適度に丸みを帯びているために光源から撮像部に対して直接反射する面を持つ場合が多い。そこで、肌領域抽出部21で抽出された肌領域内部およびその近傍領域から画素の最大値を選択し、この最大値に対して所定の閾値(<1)倍以上の画素値を有する画素を爪領域の画素としても良い。
第2領域特定部22cは、前記第2徴量算出部22bで算出された特徴量を、前記辞書DB65に登録されている学習モデル情報に適用して爪領域を抽出する。本実施形態では、図4に一例を示したように、爪領域(斜線のハッチング部分)の重心位置(xp,yp)および爪領域と判断された画素を含む外接矩形の位置(x1,y1),(x2,y2)が算出され、これらが爪領域情報として前記動き検出部23へ通知される。複数の爪領域が抽出された場合には、爪領域ごとに重心位置および外接矩形位置が算出される。
なお、複数の爪領域が隣接していると各爪領域が結合することが多い。このような場合には、各爪領域を分離するために爪領域の重心位置と肌領域の重心位置とを結ぶ方向へ爪領域を射影し、射影の最大値に予め設定した定数α(0<α<1)を乗じた値以下の極小値をとる軸で分離できる。
図5は、前記動き検出部23の構成を示したブロック図であり、個数検出部23aは、撮影画像内の爪領域の個数を検出する。拡縮検出部23bは、時刻t-1における爪領域の大きさと時刻tにおける爪領域の大きさとを比較して、爪領域の拡大または縮小を検知する。本実施形態では、爪領域の外接矩形の面積が変化した比率に基づいて拡縮の有無およびその割合が検出される。
移動検出部23cは、爪領域の動きを検出する。本実施形態では、時刻tにおける爪領域iの重心位置pi および時刻t-1における爪領域jの重心位置pjに基づいて爪領域の動きが検出される。
なお、複数の爪領域が存在する場合には、時刻tにおける爪領域iおよび時刻t-1における爪領域jに関して、次式(8),(9)に示したように、それぞれの重心位置pi ,pjの差、平均色ci,cjの差、および大きさsi,sjの差に、予め設定した重みwp,wc,wsをそれぞれ乗じた和を距離dij とし、その合計Σdijを最小化する組み合わせを両者の対応関係として求め、この対応関係に基づいて爪の動きを検出する。
Figure 0005077956
Figure 0005077956
すなわち、時刻t-1で2つの爪領域j1,j2が検出され、時刻tでも2つの爪領域i1,i2が検出されており、爪領域j1,i1間の距離dj1i1および爪領域j2,i2間の距離dj2i2の総和が最小値を示せば、爪領域j1がi1へ移動し、爪領域j2がi2へ移動したと推定される。そして、各爪領域の対応関係を推定できれば、各爪領域の座標位置は既知なので、その軌跡に基づいて各爪領域の動きを検出できる。
向き検出部23dは、爪領域の重心位置と肌領域の重心位置とに基づいて爪の方向を算出する。本実施形態では、爪領域の重心位置から肌領域の重心位置を減算することで爪が指し示す方向ベクトルが算出される。なお、複数の爪領域が検出されている場合には、各爪領域の重心位置の平均値で爪の重心位置が代表される。
追跡データベース(DB)23eでは、爪情報の個数や拡縮に対して所定の入力操作が対応付けられている。また、爪領域の上下左右方向への連続した動きや○印、△印、□印などの一筆書きの動きに対しても所定の入力操作が対応付けられている。さらに、爪領域の向きについても、上下左右方向に対して所定の入力操作が対応付けられている。
操作推定部23fは、前記各検出部23a,23b,23c,23dで検出された爪領域の個数、拡縮、動きおよび向きをパラメータとして追跡DB23eを検索し、これらの検出結果と対応付けられた入力操作を読み出して前記制御部3へ出力する。制御部3は、前記入力操作の推定結果に基づいて携帯電話を制御する。
図6は、撮影画像内での爪領域の上下左右方向への移動[同図(a)]に応じて表示部4の表示内容が制御される実施形態の一例[同図(b)]を示した図であり、本実施形態では、爪領域の動きが表示部4に表示されている物体60の移動に割り当てられており、撮影画像内で爪領域を上下左右方向へ動かすと、これに同期して表示部4に表示されている物体60が同様に上下左右方向へ移動する。
図7は、撮影画像内での爪領域の面積変化[同図(a)]に応じて表示部4の表示内容が制御される実施形態の一例[同図(b)]を示した図であり、本実施形態では、爪領域の面積が表示部4に表示されている物体60の拡大縮小に割り当てられており、爪領域を撮影部1に接近させると、これに同期して表示部4に表示されている物体60の表示が拡大される。同様に、爪領域を撮影部1から離間させると、これに同期して表示部4に表示されている物体60の表示が縮小される。
図8は、爪領域の回動[同図(a)]に応じて表示部4の表示内容が制御される実施形態の一例[同図(b)]を示した図であり、本実施形態では、爪領域の回動が仮想的な視線移動に割り当てられており、撮影画像内で爪領域を回動させると、これに同期して表示部4に表示されている物体60を見込む視線が移動する。
なお、前記図6,7,8を参照して説明した実施形態では爪領域が一つであったが、いずれのタイミングにおいても、2つ目の爪領域が検出されると、これをクリック操作と認識して所定の制御へ移行するようにしても良い。
図9,10,11は、表示部4に表示されている物体を、そのx軸,y軸およびz軸のいずれかを中心に回転させる操作の入力方法を示した図であり、爪領域の動きが物体の動きに割り当てられ、爪領域の個数が回転軸に割り当てられている。
本実施形態では、爪領域を円形に移動させることで物体の回転が指示され、爪領域が1個であればx軸、2個であればy軸、3個であればzが、回転の基準となる軸として指示される。したがって、図9に示したように、1つの爪領域G1を円形に移動させると、図12に一例を示したように、表示部4の物体60が基準姿勢[同図(a)]から、3次元空間をx軸中心で回転(ピッチ)する。このとき、物体60の回転角度は爪領域G1の移動量に依存し、例えば爪領域G1を1周させれば45°[同図(b)]だけ回転し、2周させれば90°[同図(c)]だけ回転する。
また、図10に示したように、2つの爪領域G1,G2を円形に移動させると、図13に一例を示したように、物体60が基準姿勢[同図(a)]からy軸中心で回転(ヨー)する。このときも、物体60の回転角度は爪領域G1,G2の移動量に依存し、例えば爪領域G1,G2を45°回転させれば45°[同図(b)]だけ回転し、90°回転させれば90°[同図(c)]だけ回転する。
さらに、図11に示したように、3つの爪領域G1,G2,G3を円形に移動させると、図14に一例を示したように、物体60が基準姿勢[同図(a)]からz軸中心で回転(ロール)する。このときも、物体60の回転角度は爪領域G1,G2,G3の移動量に依存し、例えば爪領域G1,G2,G3を10°回転させれば45°[同図(b)]だけ回転し、20°回転させれば90°[同図(c)]だけ回転する。
図15,16,17は、他の入力方法を示した図であり、ここでは、爪領域を回転させることで物体の回転角が指示され、爪領域が1個でx軸、2個でy軸、3個でzが指示される。したがって、図15に示したように、1つの爪領域G1を回転させると、前記図12に関して説明したように、表示部上の物体60がx軸中心で回転(ピッチ)する。このときも、物体60の回転角度は爪領域G1の回転量に依存し、例えば爪領域を10°回転させれば45°[同図(b)]だけ回転し、20°回転させれば90°[同図(c)]だけ回転する。
同様に、図16に示したように、2つの爪領域G1,G2を回転させると、前記図13に関して説明したように、物体60がy軸中心で回転(ヨー)する。また、図17に示したように、3つの爪領域G1,G2,G3を回転させると、前記図14に関して説明したように、物体60がz軸中心で回転(ロール)する。
なお、上記の実施形態では、爪領域の個数を回転軸に割り当て、爪領域の移動量や回転角度を物体の回転角度に割り当てるものとして説明したが、本発明はこれのみに限定されるものではなく、例えば爪領域の個数を色の成分に割り当て、表示部4に表示されている画像の色調を爪領域の動きで制御できるようにしても良い。すなわち、1つの爪領域G1を回転させると、その回転角度に応じてR成分が制御され、2つの爪領域G1,G2を回転させると、その回転角度に応じてG成分が制御され、3つの爪領域G1,G2,G3を回転させると、その回転角度に応じてB成分が制御されるようにすれば、爪領域を移動させるだけで表示部4の色調を簡単に調整できるようになる。
さらには、表示部4の色調はR,G,B等の色成分のみならず、コントラストや明るさにも依存するので、これらのパラメータ選択用に第2領域の個数を割り当てても良い。
あるいは、爪領域の個数を音の周波数帯域に割り当て、情報端末のスピーカから出力される音の音質を爪領域の動きで制御できるようにしても良い。すなわち、1つの爪領域G1を回転させると、その回転角度に応じて低周波数成分の増幅率が制御され、2つの爪領域G1,G2を回転させると、その回転角度に応じて低周波数成分の増幅率が制御され、3つの爪領域G1,G2,G3を回転させると、その回転角度に応じて音量が制御されるようにすれば、爪領域を移動させるだけで音質や音量を簡単に調整できるようになる。
また、上記の実施形態では、本発明の情報端末装置を携帯電話への適用を例にして説明したが、本発明はこれのみに限定されるものではなく、撮影機能を備えたPDAやコンピュータにも同様に適用できる。また、撮影機能は情報端末装置に一体化されている必要はなく、撮影機能を備えた装置と情報端末装置とが有線または無線で接続されているシステムにも同様に適用できる。
本発明を適用した携帯電話の主要部の構成を示した機能ブロック図である。 肌領域(第1領域)抽出部の構成を示した機能ブロック図である。 爪領域(第2領域)抽出部の構成を示した機能ブロック図である。 爪領域を特定する爪領域情報を説明するための図である。 動き検出部の構成を示したブロック図である。 撮影画像内での爪領域の上下左右方向への移動に応じて表示部の表示内容が制御される実施形態の一例を示した図である。 撮影画像内での爪領域の面積変化に応じて表示部の表示内容が制御される実施形態の一例を示した図である。 爪領域の回動に応じて表示部の表示内容が制御される実施形態の一例を示した図である。 1つの爪領域を円形に移動させたときに表示部の表示内容が制御される実施形態の一例を示した図である。 2つの爪領域を円形に移動させたときに表示部の表示内容が制御される実施形態の一例を示した図である。 3つの爪領域を円形に移動させたときに表示部の表示内容が制御される実施形態の一例を示した図である。 1つの爪領域を移動させたときの表示部における物体の動きの一例を示した図である。 2つの爪領域を移動させたときの表示部における物体の動きの一例を示した図である。 3つの爪領域を移動させたときの表示部における物体の動きの一例を示した図である。 1つの爪領域を回動させたときに表示部の表示内容が制御される実施形態の一例を示した図である。 2つの爪領域を回動させたときに表示部の表示内容が制御される実施形態の一例を示した図である。 3つの爪領域を回動させたときに表示部の表示内容が制御される実施形態の一例を示した図である。
符号の説明
1…撮像部,2…操作推定部,3…制御部,4…表示部,21…肌領域抽出部,22…爪領域抽出部,23…動き検出部

Claims (10)

  1. 被写体を連続的に撮影する撮影部および表示部を備えた情報端末装置において、
    撮影画像から特徴量を抽出する第1特徴量抽出手段と、
    前記抽出された特徴量を第1の学習モデルに適用して領域を抽出する第1領域抽出手段と、
    前記領域の特徴量を第2の学習モデルに適用して、当該領域の一部である全ての爪領域を抽出する第2領域抽出手段と、
    前記爪領域の個数を検出する個数検出手段と、
    前記各爪領域の動きを検出する動き検出手段と、
    前記爪領域の個数およびその動きの検出結果に基づいて情報端末装置を制御する制御手段とを具備し、
    前記第2の学習モデルは、爪領域を含む学習用画像を正例、爪領域を含まない学習用画像を負例として抽出された爪および非爪の特徴量を用いて、爪領域と非爪領域とを区別する尺度をそれぞれモデル化して構築されることを特徴とする情報端末装置。
  2. 前記動き検出手段が、領域の拡大縮小を検出する拡縮検出手段、領域の移動を検出する移動検出手段、および領域の向きを検出する向き検出手段の少なくとも一つを含むことを特徴とする請求項1に記載の情報端末装置。
  3. 前記制御手段は、前記領域の動きに応じて、前記表示部に表示されている物体を移動させることを特徴とする請求項1または2に記載の情報端末装置。
  4. 前記領域の個数が、前記物体を移動させる際の基準となる軸に割り当てられていることを特徴とする請求項3に記載の情報端末装置。
  5. 前記領域の第1の個数がx軸に割り当てられ、第2の個数がy軸に割り当てられ、第3の個数がz軸に割り当てられていることを特徴とする請求項4に記載の情報端末装置。
  6. 前記制御手段は、前記領域の動きに応じて、前記表示部の色調を制御することを特徴とする請求項1または2に記載の情報端末装置。
  7. 前記領域の個数が、制御対象の色成分に割り当てられていることを特徴とする請求項6に記載の情報端末装置。
  8. 情報端末装置がスピーカを具備し、
    前記制御手段は、前記領域の動きに基づいて、前記スピーカから出力される音を制御することを特徴とする請求項1または2に記載の情報端末装置。
  9. 前記領域の個数が、制御対象の周波数帯域に割り当てられていることを特徴とする請求項8に記載の情報端末装置。
  10. 前記領域の第1の個数が音量に割り当てられていることを特徴とする請求項9に記載の情報端末装置。
JP2008112416A 2008-04-23 2008-04-23 情報端末装置 Expired - Fee Related JP5077956B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008112416A JP5077956B2 (ja) 2008-04-23 2008-04-23 情報端末装置
US12/428,087 US8259064B2 (en) 2008-04-23 2009-04-22 Terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008112416A JP5077956B2 (ja) 2008-04-23 2008-04-23 情報端末装置

Publications (3)

Publication Number Publication Date
JP2009265809A JP2009265809A (ja) 2009-11-12
JP2009265809A5 JP2009265809A5 (ja) 2011-03-17
JP5077956B2 true JP5077956B2 (ja) 2012-11-21

Family

ID=41214520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008112416A Expired - Fee Related JP5077956B2 (ja) 2008-04-23 2008-04-23 情報端末装置

Country Status (2)

Country Link
US (1) US8259064B2 (ja)
JP (1) JP5077956B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8525847B2 (en) * 2009-06-01 2013-09-03 Apple Inc. Enhancing images using known characteristics of image subjects
CN102446032B (zh) * 2010-09-30 2014-09-17 中国移动通信有限公司 基于摄像头的信息输入方法及终端
US8558759B1 (en) 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
US9076257B2 (en) * 2013-01-03 2015-07-07 Qualcomm Incorporated Rendering augmented reality based on foreground object
KR101807249B1 (ko) * 2013-06-27 2017-12-08 주식회사 퓨처플레이 사용자의 손톱이나 발톱에 관한 시각적인 정보에 기초하여 사용자 입력을 결정하는 방법 및 장치
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016131008A (ja) * 2014-07-30 2016-07-21 まるおかディジタル株式会社 入力装置
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) * 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
TWI680747B (zh) 2014-11-12 2020-01-01 日商新力股份有限公司 資訊處理裝置、資訊處理方法及資訊處理程式
JP6455186B2 (ja) * 2015-01-29 2019-01-23 富士通株式会社 指先位置推定装置、指先位置推定方法、及び、プログラム
US9424458B1 (en) 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) 2015-02-06 2022-03-01 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6971788B2 (ja) * 2017-11-09 2021-11-24 シャープ株式会社 画面表示制御方法および画面表示制御システム
WO2020096999A1 (en) * 2018-11-05 2020-05-14 Emory University Systems and methods for quantitative diagnosis of anemia
KR102373961B1 (ko) * 2021-09-10 2022-03-15 (주)웅진씽크빅 독서 지원 장치 및 이를 이용한 사용자 입력 감지 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5548667A (en) * 1991-05-24 1996-08-20 Sony Corporation Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data
JP3182876B2 (ja) 1991-05-24 2001-07-03 ソニー株式会社 画像信号処理方法とその装置
JP3355708B2 (ja) * 1993-06-29 2002-12-09 カシオ計算機株式会社 コマンド処理装置
JPH07288875A (ja) * 1994-04-14 1995-10-31 Matsushita Electric Ind Co Ltd 人体動作認識センサ及び非接触型操作装置
JP3458543B2 (ja) 1995-07-25 2003-10-20 株式会社日立製作所 手形状認識機能付き情報処理装置
JP2001028046A (ja) * 1999-07-15 2001-01-30 Sharp Corp 画像認識装置
JP3834766B2 (ja) * 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 マンマシーン・インターフェース・システム
JP2002269567A (ja) 2001-03-13 2002-09-20 Canon Inc 動き検出方法
US20030048260A1 (en) * 2001-08-17 2003-03-13 Alec Matusis System and method for selecting actions based on the identification of user's fingers
JP4479194B2 (ja) * 2003-08-29 2010-06-09 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
WO2006109476A1 (en) * 2005-04-05 2006-10-19 Nissan Motor Co., Ltd. Command input system
JP2006350844A (ja) * 2005-06-17 2006-12-28 Nissan Motor Co Ltd コマンド入力装置
KR100643470B1 (ko) * 2005-09-29 2006-11-10 엘지전자 주식회사 휴대용 단말기의 그래픽 신호 표시장치 및 방법
US8085243B2 (en) * 2006-02-03 2011-12-27 Panasonic Corporation Input device and its method
JP5526465B2 (ja) * 2007-06-22 2014-06-18 国立大学法人 筑波大学 爪位置データ検出装置及び爪位置データ検出方法、並びに爪位置データ検出プログラム

Also Published As

Publication number Publication date
US20090267893A1 (en) 2009-10-29
JP2009265809A (ja) 2009-11-12
US8259064B2 (en) 2012-09-04

Similar Documents

Publication Publication Date Title
JP5077956B2 (ja) 情報端末装置
US8655021B2 (en) Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9330307B2 (en) Learning based estimation of hand and finger pose
US8830312B2 (en) Systems and methods for tracking human hands using parts based template matching within bounded regions
JP5297530B2 (ja) 画像処理装置、及びインターフェース装置
JP5205187B2 (ja) 入力システム及び入力方法
US8659547B2 (en) Trajectory-based control method and apparatus thereof
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US9443325B2 (en) Image processing apparatus, image processing method, and computer program
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
KR100862349B1 (ko) 제스처 인식 기능을 이용한 반투과 거울 기반 사용자인터페이스 시스템
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
US9727776B2 (en) Object orientation estimation
KR20120035604A (ko) 영상 기반의 손 검출 장치 및 그 방법
KR100692526B1 (ko) 시스템 자동제어용 제스처 인식 장치 및 그 방법
WO2010144050A1 (en) Method and system for gesture based manipulation of a 3-dimensional image of object
TW201317843A (zh) 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
CN108227923A (zh) 一种基于体感技术的虚拟触控系统和方法
CN115951783A (zh) 一种基于手势识别的计算机人机交互方法
JP5464661B2 (ja) 情報端末装置
CN106406507B (zh) 图像处理方法以及电子设备
KR102216124B1 (ko) 영상 처리 방법 및 영상 처리 장치
Zhang et al. Hand tracking algorithm based on superpixels feature
KR101200009B1 (ko) 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법
Wagner et al. Framework for a portable gesture interface

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120801

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120822

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5077956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees