WO2012176315A1 - 情報処理装置、入力制御方法及び入力制御プログラム - Google Patents

情報処理装置、入力制御方法及び入力制御プログラム Download PDF

Info

Publication number
WO2012176315A1
WO2012176315A1 PCT/JP2011/064457 JP2011064457W WO2012176315A1 WO 2012176315 A1 WO2012176315 A1 WO 2012176315A1 JP 2011064457 W JP2011064457 W JP 2011064457W WO 2012176315 A1 WO2012176315 A1 WO 2012176315A1
Authority
WO
WIPO (PCT)
Prior art keywords
determined
hand
determination unit
reference line
pressed
Prior art date
Application number
PCT/JP2011/064457
Other languages
English (en)
French (fr)
Inventor
村瀬 太一
藤本 克仁
丈裕 中井
伸之 原
小澤 憲秋
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2011/064457 priority Critical patent/WO2012176315A1/ja
Priority to EP11868196.4A priority patent/EP2725458B1/en
Publication of WO2012176315A1 publication Critical patent/WO2012176315A1/ja
Priority to US14/105,537 priority patent/US9418285B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Abstract

 情報処理装置は、手を撮影する撮影部により入力される画像から手領域を抽出する抽出部と、手領域に基づき、画像内の所定線を押下基準線に決定する基準線決定部と、手領域の最下部が押下基準線を超える場合に押下と判定する判定部と、判定部により押下と判定された場合の手領域の縦横比に基づき、奥行き方向の位置を決定する第1位置決定部と、判定部により押下と判定された場合の手領域の最下部の位置に基づき、横方向の位置を決定する第2位置決定部と、決定された奥行き方向の位置及び横方向の位置により入力キーを決定する入力キー決定部と、を備える。

Description

情報処理装置、入力制御方法及び入力制御プログラム
 本発明は、物理的なキーボードを用いずにキー入力を制御する情報処理装置、入力制御方法及び入力制御プログラムに関する。
 近年、スマートフォンやスレートPC(Personal Computer)/iPad(登録商標)をはじめとしたタブレット型デバイスなど、キーボードレスデバイスが急拡大している。しかし、キーボードレスデバイスでは、QWERTY型物理キーボードに匹敵する操作感を有する文字入力インターフェースは実現されておらず,特に長文入力を必要とするユーザの最大のデメリットの一つとなっている。
 スマートフォンをはじめとした携帯端末では、タッチパネル式および物理的なテンキーを使った入力インターフェースが多く用いられる。画面に表示をするキー数よりも入力対象の文字種類が多い場合、1つのキーに複数の文字種類が割り当てられ、複数回キーを押下して文字が選択される。例えば、画面にテンキーが表示され、テンキーの「2」の位置のキーに「A」「B」「C」が割り当てられ、押下された回数により何れかの文字が選択される。
 また、iPhone(登録商標)は、フリック式と呼ばれるインターフェースを備えている。フリック式は、所定キーが押下されると、そのキーに割り当てられている文字を、上下左右に表示する。
 例えば、画面にテンキーが表示され、テンキーの「2」の位置にある「A」のキーが押下されると、その左側に「B」、その上側に「C」が表示される。それらの何れかのキーの位置で指が離されると、その位置の文字種類が選択される。キーを複数回押下して、入力をする文字種類を選択する方法に比べて、キー押下回数を削減することができる。
 上記の入力方式は、片手での入力が可能であり、電車内など移動中の入力や短文入力に適している。しかし、携帯端末の小型化により、文字入力領域が小さくなっているため、キーの操作性が良くなく、長文入力については適していない。
 また、タブレット型デバイスは、10型程度の比較的大きなタッチパネル式ディスプレイの採用が多く、QWERTY型フルキーボードを画面上に表示させるソフトウェアキーボードの搭載が主流である。
 タブレット型デバイスで、ソフトウェアキーボードを実用可能なサイズで表示させると、表示領域に占めるキーボードの表示面積が大きくなり、アプリケーション表示が見にくくなるといった課題がある。
 これに対し、仮想キーボードに対する指先の位置を検出してキー入力を行う技術がある。例えば、2台のカメラを用いて操作者の指先を撮影し、撮影した映像から指先の3次元位置を検出して、その位置に対応する仮想キーボードのキーを決定する技術がある(特許文献1、2)。
特開2001-282428号公報 特開2003-288156号公報
 従来技術では、物理的なキーボード(物理キーボードとも言う)が必要ない代わりに、2台のカメラが必要になる。そもそも、物理キーボードがない端末(物理キーボードレス端末とも言う)は、物理キーボードを搭載しないことで、薄型化、小型化を目指している。
 しかし、従来技術では、2台のカメラを搭載し、この2台のカメラは3次元の動きを検出するため、操作者の指の正面及び上面から撮影しなければならず、2台のカメラの設置位置が限られる。よって、設置位置が限られる2台のカメラを搭載する1つのデバイスを実装することは、コスト増であるとともに携帯性に優れるものではない。
 そこで、開示の技術は、1台のカメラによる1方向からの撮影画像に基づき推定した指の3次元位置に応じて入力コマンドを決定することができる情報処理装置、入力制御方法及び入力制御プログラムを提供することを目的とする。
 開示の一態様の情報処理装置は、手を撮影する撮影部により入力される画像から手領域を抽出する抽出部と、前記手領域に基づき、前記画像内の所定線を押下基準線に決定する基準線決定部と、前記手領域の最下部が前記押下基準線を超える場合に押下と判定する判定部と、前記判定部により押下と判定された場合の前記手領域の縦横比に基づき、奥行き方向の位置を決定する第1位置決定部と、前記判定部により押下と判定された場合の前記手領域の最下部の位置に基づき、横方向の位置を決定する第2位置決定部と、決定された前記奥行き方向の位置及び前記横方向の位置により入力キーを決定する入力キー決定部と、を備える。
 開示の技術によれば、1台のカメラによる1方向からの撮影画像に基づき推定した指の3次元位置に応じて入力コマンドを決定することができる。
実施例における情報処理装置の利用形態の一例を示す図。 情報処理装置のハードウェアの一例を示す図。 情報処理装置の機能の一例を示すブロック図。 抽出された手領域の一例を示す図。 仮想キーボードの一例を示す図。 押下基準線の一例を示す図。 キー押下の一例を示す図。 等分に分割した手領域の一例を示す図。 各閾値の一例を示す図。 上段を操作するときの手領域の一例を示す図。 中段を操作するときの手領域の一例を示す図。 下段を操作するときの手領域の一例を示す図。 入力キー決定の一例を示す図。 実施例1におけるキャリブレーション処理の一例を示すフローチャート図。 実施例1におけるキー入力処理の一例を示すフローチャート。 手領域抽出処理の一例を示すフローチャート。 実施例3におけるキー入力処理の一例を示すフローチャート。
10 情報処理装置
101 制御部
102 主記憶部
103 補助記憶部
104 カメラ
105 表示部
201 キー入力部
202 撮影部
203 記憶部
211 抽出部
212 基準線決定部
213 判定部
214 横方向位置決定部
215 奥行き方向位置決定部
216 入力キー決定部
 まず、実施例における情報処理装置の利用形態について説明する。図1は、実施例における情報処理装置10の利用形態の一例を示す図である。図1に示す例では、例えば、情報処理装置10のカメラ104を下部にし、情報処理装置10を平面に対して立てた状態にする。このとき、ユーザは、カメラ104から撮影できる範囲内に両手を置き、キーボードを操作する動作を行う。このとき、ユーザは、タッチタイピングをすることができることが望ましい。
 カメラ104は、ユーザの両手の動きを撮影する。情報処理装置10は、カメラ104の撮影画像から手の指先の3次元位置を推定、検出する。情報処理装置10は、検出した3次元位置に応じてキーを決定し、キー入力を行う。
 情報処理装置10は、物理キーボードレス端末であり、例えば、スマートフォンや、スレートPC、タブレット型デバイスなどである。以下、図面に基づいて各実施例について説明する。
 [実施例1]
 <ハードウェア>
 図2は、情報処理装置10のハードウェアの一例を示す図である。図1に示す情報処理装置10は、制御部101、主記憶部102、補助記憶部103、カメラ104、表示部105を有する。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
 制御部101は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置である。また、制御部101は、入力されたデータを演算、加工した上で、表示部105や補助記憶部103などに出力する。
 主記憶部102は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部101が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
 補助記憶部103は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
 カメラ104は、例えばCCD(Charge Coupled Device)センサ又はCMOS(Complementary Metal Oxide Semiconductor)センサを有し、例えば、ユーザの手を撮影する。
 表示部105は、LCD(Liquid Crystal Display)等により構成され、制御部101から入力される表示データに応じた表示が行われる。
 なお、実施例では、情報処理装置10にカメラ104を内蔵する例について説明するが、カメラ104は必ずしも情報処理装置10に必要な構成ではない。情報処理装置10は、外部にあるカメラに接続して、制御部101がカメラから撮影画像を取得すればよい。
 また、情報処理装置10は、さらに記録媒体とのインターフェースとなるドライブ装置や、他の機器と通信を行うためのネットワークI/F部などを有してもよい。
 例えば、ドライブ装置は、記録媒体(例えばフレキシブルディスク)からプログラムを読み出し、補助記憶部103などにインストールする。
 また、記録媒体に、所定のプログラムを格納し、この記録媒体に格納されたプログラムはドライブ装置を介して情報処理装置10にインストールされる。インストールされた所定のプログラムは、情報処理装置10により実行可能となる。
 ネットワークI/F部は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と情報処理装置10とのインターフェースである。
 <機能>
 図3は、情報処理装置10の機能の一例を示すブロック図である。図3に示す例では、情報処理装置10は、キー入力部201、撮影部202、記憶部203を有する。
 キー入力部201は、例えば制御部101やワークメモリとしての主記憶部102により実現され、撮影部202は、例えばカメラ104により実現され、記憶部203は、例えば主記憶部102又は補助記憶部103により実現されうる。
 撮影部202は、例えば、ユーザの手を含む範囲を撮影する。キー入力部201は、撮影部202から撮影画像を取得し、この撮影画像から指の3次元位置を検出し、この指の3次元位置に基づき入力コマンドを決定する。入力コマンドは、例えば文字コードである。入力コマンドは記憶部203に記憶される。
 記憶部203は、キー入力部201から取得したデータ、例えば入力コマンドなどを記憶する。
 次に、キー入力部201について詳細に説明する。キー入力部201は、抽出部211、基準線決定部212、判定部213、横方向位置決定部214、奥行き方向位置決定部215、入力キー決定部216を有する。
 なお、実施例1における情報処理装置10では、入力制御処理として、キャリブレーション処理と、キー入力処理とを行うため、各処理についての各部の機能を説明する。
 (キャリブレーション処理)
 このキャリブレーション処理は、入力制御処理を開始し、ユーザが、両手をホームポジションの形にしてカメラ104の前に置いたときに行われる。例えば、ユーザが机上に両手を置くことが考えられる。
 抽出部211は、撮影部202から入力される撮影画像から手の領域(手領域とも言う)を抽出する。手領域の抽出については、ユーザの手の肌色抽出による抽出や、あらかじめ登録した手の形状の特徴量を基に、撮影画像内から手領域を抽出する方法などがある。
 また、抽出部211は、後述するように、手領域から手のひらを削除する処理を行ってもよい。手のひらを削除するためには、例えば、指のエッジを抽出すればよい。以下に示す例では、手のひらを削除した領域を手領域とする例について説明するが、必ずしも手のひらを削除する必要はない。手領域の抽出については、公知の技術のいずれかを用いればよい。
 抽出部211は、左右の手領域の縦横比Rを算出する。縦横比Rは、式(1)、(2)により求められる。例えば、抽出部211は、手領域の縦横比を算出する際、手領域の外接矩形を求め、この外接矩形の縦横比を算出すればよい。
=H(Right)/W(Right) ・・・式(1)
=H(Left)/W(Left) ・・・式(2)
:右手の縦横比
H(Right):右手の縦(高さ)
W(Right):右手の横(幅)
:左手の縦横比
H(Left):左手の縦(高さ)
W(Left):左手の横(幅)
 なお、抽出部211は、RとRとの平均値を算出し、この平均値を使用してもよい。
 図4は、抽出された手領域の一例を示す図である。図4に示すように、撮影部202により撮影された画像に対し、抽出部211により手領域が抽出され、抽出された左右の手領域に対して縦横比が算出される。
 なお、図4に示す例では、左手の親指が他の指の後ろに隠れていて検出されていないが、親指は英数字のキー押下にはあまり影響しないので問題はない。
 また、抽出部211は、縦横比Rを用いて、奥行き方向の位置を判定するのに用いる閾値を算出する。抽出部211は、例えば、各手の縦横比Rに対し、所定の係数を乗算することで閾値THを算出する。閾値THは、次の式(3)~(6)により求められる。閾値THは、下記の各閾値の総称である。
THUR=R×X1 ・・・式(3)
THDR=R×X2 ・・・式(4)
THUL=R×X1 ・・・式(5)
THDL=R×X2 ・・・式(6)
THUR:上段(Up)、右手(Right)の閾値
THDR:下段(Down)、右手(Right)の閾値
THUL:上段(Up)、左手(Left)の閾値
THDL:下段(Down)、左手(Left)の閾値
X1:1より小さい値(X1<1.0)
X2:1より大きい値(X2>1.0)
ただし、画像左上を原点とする。
 ここで、X1、X2は、奥行き方向の手指の移動量に比例する値であり、ユーザの使用感に合わせて調整されてもよいし、あらかじめ設定されていてもよい。予め設定される場合は、X1が例えば0.8、X2が例えば1.2とする。
 抽出部211は、算出した各閾値を奥行き方向位置決定部215に出力する。なお、各閾値の算出は、抽出部211が行うのではなく、抽出部211から縦横比を取得した奥行き方向位置決定部215が行うようにしてもよい。
 図3に戻り、基準線決定部212は、キーの押下を判定するための基準を決定する。この基準の位置を押下基準線と呼ぶ。基準線決定部212は、押下基準線について、抽出部211により抽出された手領域に基づいて決定する。
 基準線決定部212は、例えば、抽出された手領域から、各指先を検出し、各指先を結ぶ近似直線を押下基準線にしてもよい。これは、ユーザが机上に指を置いた位置が押下基準線となるので、ユーザは机をキーボードのように操作できるので操作感が向上する。
 図5は、仮想キーボードの一例を示す図である。図5に示す例では、QWERTY型のキーボードの3段を示すが、3段に限らず、4段、5段などでもよい。
 基準線決定部212は、ユーザから見て手前側のキー(例えば、図5に示すZ,Xなど)を入力するときの位置が、撮影画像の2次元画像上では指先が最も高い(上の)位置にくるので、この位置を押下基準線としてもよい。
 図6は、押下基準線の一例を示す図である。図6に示す押下基準線は、画像の上端からの距離Mで表されている。図6に示す例では、ホームポジション時(図5に示す中段のキーに指先があると想定した場合)の指先の位置を押下基準線としている。
 なお、基準線決定部212は、図5に示すような3段の仮想キーボードがある場合、中段の入力時の手の位置(M)を検出し、下段時の縦横比Rの大きさに応じた係数αをMに乗算した値を押下基準線として使用してもよい。
 また、図6に示す例では、左右の手で同じ押下基準線を用いるが、左右の手で、異なる押下基準線を用いるようにしてもよい。この場合、基準線決定部212は、左右の手それぞれで、指先を結び近似直線を求めればよい。
 縦横比R(下段時)は、奥行き方向(ユーザの手前側)の距離を表す値であるため、Rの値が大きければ押下基準線がより奥行き方向側になり、下段のキーの押下を適切に検出できるようになる。
 基準線決定部212は、決定した押下基準線の位置(例えば画像上端からの距離M)を判定部213に通知する。
 以上で、キャリブレーション処理が終了する。キャリブレーション処理は、キー入力処理に必要な押下基準線となるMと、閾値THとを設定するための処理である。なお、キャリブレーション処理は、ユーザの指紋などのユーザ識別情報に、Mと閾値THとを関連付けて記憶部203に記憶させておけば、毎回キャリブレーション処理を行う必要はない。
 (キー入力処理)
 撮影部202は、ユーザの手の動作を撮影し、抽出部211に出力する。抽出部211は、キャリブレーション処理と同様にして、撮影部202から入力された画像から手領域を抽出する。また、抽出部211は、抽出した手領域の縦横比R'(現在の縦横比)を算出する。
 抽出部211は、抽出した手領域を判定部213、横方向位置決定部214に出力し、算出した縦横比R'を奥行き方向位置決定部215に出力する。
 図3に示す判定部213は、基準線決定部212により通知された押下基準線と、抽出部211により抽出された手領域の最下部とを比較し、最下部の方が押下基準線よりも低い位置にあれば、キー押下と判定する。また、最下部が押下基準線よりも低い位置にあるとは、最下部が押下基準線を画像の下側に超えることを意味する。
 なお、撮影画像に対し、左上の位置を原点とし、下方向に値が増加する座標の場合、判定部213は、最下部の縦方向の座標がMよりも大きければ、キー押下と判定する。
 判定部213は、最下部の縦方向の座標がMよりも小さければ(最下部が押下基準線を超えていなければ)、キー押下はないと判定する。
 判定部213は、次のキー押下を判定する条件として、一度押下基準線を超えた最下部が押下基準線よりも上に移動することを条件とする。例えば、判定部213は、押下基準線より下にあった最下部が、一度押下基準線よりも上にきた場合に、次のキー押下の判定を開始する。
 図7は、キー押下の一例を示す図である。図7に示す例では、ユーザの右手の人差し指が、押下基準線を超えており、判定部213は、キー押下を判定する。この場合、人差し指の縦方向の座標がMよりも大きな値となっている。
 判定部213は、キー押下を判定した場合、横方向位置決定部214、奥行き方向位置決定部215にキー押下された旨を通知する。
 図3に戻り、横方向位置決定部214は、キー押下を通知されると、抽出部211により抽出された手領域の最下部の位置に基づいて、横方向位置を決定する。
 例えば、横方向位置決定部214は、手領域の幅に対する最下部の相対位置を算出する。図5に示すキー入力を行う場合には、横方向に10種類のキーがあるため、各手に5種類のキーを割り当てる。
 横方向位置決定部214は、各手領域の幅を5分割し、分割された領域に1つずつキーを割り当てる。横方向位置決定部214は、最下部の位置が、5分割されたどの領域に該当するかを決定する。
 なお、分割方法については、等分に分割されてもよいし、ユーザの指の特性に合った割合に分割されてもよい。ユーザの特性に合った割合とは、例えば、ユーザの指の位置や大きさに応じて、人差し指と中指の領域を他の領域よりも広くするなどが考えられる。また、分割方法は、ユーザによりどのように分割するかを設定されていてもよい。
 図8は、等分に分割した手領域の一例を示す図である。図8に示すように、各手領域の幅を5等分にし、各領域にキーが割り当てられる。これにより、横方向位置決定部214は、押下された指の横方向の位置を決定する。
 押下された指の横方向の位置が決まると、入力キーの列候補が決定される。横方向位置決定部214は、決定された横方向の位置を入力キー決定部216に出力する。図7を例にすれば、横方向位置決定部214は、右手の左から2番目の領域が横方向の位置であると決定し、uの列を入力キー決定部216に出力する。
 図3に戻り、奥行き方向位置決定部215は、キャリブレーション処理で、抽出部211が算出した閾値THを取得しておく。
 図9は、各閾値の一例を示す図である。図9に示すように、仮想キーボードの奥行き方向を判定するため、各閾値が用いられる。図9に示す仮想キーボードは、Z、Nの段がユーザから見て手前の段(撮影画像では下段)、A、Hの段がユーザから見て中段(撮影画像では中段)、Q、Yの段がユーザから見て奥の段(撮影画像では上段)になる。
 奥行き方向位置決定部215は、判定部213により押下が判定された手領域の縦横比R'(現在の縦横比)と、押下が判定された同じ手の閾値とを比較する。例えば、右手で押下が判定されたとする。このとき、奥行き方向位置決定部215は、
'>THDR であれば、下段
THUR≦R'≦THDR であれば、中段
'<THUR であれば、上段
と判定する。
 上記のように判断できる理由について図10を用いながら説明する。仮想キーボードの上段のキーを入力するときは、指を前方のカメラ104方向に伸ばすため、手の領域が上下方向につぶれる形状となる。よって、縦横比(H(高さ)/W(幅))が小さくなる。
 図10Aは、上段を操作するときの手領域の一例を示す図である。図10Aに示すように、縦横比Rが小さくなる。図10Aに示す例では、左手のみ、高さ(H)と幅(W)との表示を行う。図10B、Cについても同様である。
 仮想キーボードの中段のキーを入力するときは、ホームポジション時の位置と同様であるため、この場合の縦横比は、押下基準線を決定する際のRと同様である。
 図10Bは、中段を操作するときの手領域の一例を示す図である。図10Bに示すように、この場合の縦横比は、キャリブレーション時の縦横比と同様である。
 仮想キーボードの下段を入力するときは、指がユーザ側(手前側)に移動するため、指が立つ形状となる。よって、縦横比が大きくなる。
 図10Cは、下段を操作するときの手領域の一例を示す図である。図10Cに示すように、縦横比が大きくなる。
 図10A~Cに示すように、発明者らは、入力キー(ユーザが押下したとされるキー)の奥行き方向の位置により、ユーザの手領域が変化することを発見した。この発見に基づき、ユーザの手領域の縦横比を用いることで、奥行き方向の手の位置を推定することができる。
 奥行き方向位置決定部215は、決定した奥行き方向(例えば、上段(Q、Yの段)、中段(A、Hの段)、下段(Z、Nの段)のいずれか)を入力キー決定部216に出力する。
 入力キー決定部216は、横方向位置決定部214から取得した横方向の位置と、奥行き方向位置決定部215から取得した奥行き方向の位置とにより、ユーザが押下したとされるキー(入力キー)を一意に決定することができる。
 図11は、入力キー決定の一例を示す図である。図11に示す例では、左手による入力であり、横方向の位置がE列を表し、奥行き方向の位置がA列(中段)を現すとき、入力キーは、「D」であると決定される。
 入力キー決定部216は、決定された入力キーに対応する入力コマンドを記憶部203に記憶する。この場合の入力コマンドは文字コードである。記憶部203に記憶された文字コードは、文字列として表示部105に出力されてもよい。
 <動作>
 次に、実施例1における情報処理装置10の動作について説明する。
 (キャリブレーション処理)
 図12は、実施例1におけるキャリブレーション処理の一例を示すフローチャートである。図12に示すステップS101で、撮影部202は、ユーザの手の撮影を行う。このとき、例えば、ユーザの手は、ホームポジション時の手の形をしている。
 ステップS102で、抽出部211は、撮影部202により撮影された画像から手領域を抽出する。
 ステップS103で、抽出部211は、抽出された手領域を用いて、基準となる縦横比を算出する。抽出部211は、この縦横比を用いて閾値THを算出し、奥行き方向位置決定部215に出力しておくとよい。
 ステップS104で、基準線決定部212は、抽出された手領域に基づいて、押下判定に用いられる押下基準線を算出する。基準線決定部212は、例えば、画像上端からの距離Mを算出して、画像上端からの距離Mの位置を押下基準線とする。これにより、キャリブレーション処理が終了する。
 (キー入力処理)
 図13は、実施例1におけるキー入力処理の一例を示すフローチャートである。図13に示すキー入力処理は、1フレームに対する処理である。
 ステップS201で、撮影部202は、ユーザの手の撮影を行う。この場合、ユーザは、例えば机上をキーボードに見立てて、キー入力の動作を行う。
 ステップS202で、抽出部211は、撮影部202により撮影された画像から手領域を抽出する。
 ステップS203で、判定部213は、抽出された手領域の最下部と、押下基準線とを比較し、最下部が押下基準線を超えているか否かを判定する。最下部が押下基準線を超えて押下されていると判定された場合(ステップS203-YES)ステップS204に進み、最下部が押下基準線を超えておらず押下されていないと判定された場合(ステップS203-NO)次のフレームに移る。
 ステップS204で、横方向位置決定部214は、抽出された手領域の最下部の位置に基づいて、入力キーの横方向の位置を決定する。例えば、最下部と手領域の幅の相対位置を用いて横方向位置が決定される。
 ステップS205で、奥行き方向位置決定部215は、算出された縦横比R'と、閾値THとを比較し、入力キーの奥行き方向の位置を決定する。
 ステップS206で、入力キー決定部216は、決定された横方向の位置と、決定された奥行き方向の位置とにより、入力キーを決定する。これにより、1フレームに対するキー入力処理が終了する。
 (手領域抽出処理)
 次に、手領域抽出処理について説明する。前述したように、手のひら部分を除去して手領域を抽出した方が、精度よく入力キー判定ができる。よって、手のひら部分を除去する手領域抽出処理の具体的な処理について図14を用いて説明する。
 図14は、手領域抽出処理の一例を示すフローチャートである。ステップS301で、抽出部211は、画像のRGB値を、色相、彩度、明度を用いるHSV値に変換する。
 ステップS302で、抽出部211は、HSV値から肌色を抽出する。
 ステップS303で、抽出部211は、抽出された肌色領域の明度Vが、所定の閾値より大きいか否かを判定する。所定の閾値は、実験により適切な値が設定されればよい。
 ステップS304で、抽出部211は、肌色領域を明度Vを用いて2値化する。例えば、抽出部211は、明度Vが閾値より大きければ「1」、明度Vが閾値より小さければ「0」とする。これにより、「0」の領域を除くことで、肌色領域から手のひら部分を除去することができる。抽出部211は、手のひら部分を除去した肌色領域を手領域としてもよい。
 図14に示す処理で、指のエッジを抽出して手のひら部分を除去し、手の上面だけを抽出して手領域とすることで、手のひら部分による誤入力を防ぐことができる。また、手の上面のみを抽出することで、手のひら部分が手領域の最下部になることを防止する。
 なお、図14に示す処理は、RGB値をHSV値に変換したが、RGB値を輝度と色差とを示すYUV値に変換してもよい。この場合、輝度Yを用いて閾値判定をすることで、手のひら部分を削除することができる。
 また、図14に示す処理では、明度V(又は輝度Y)の閾値判定を説明したが、照明環境や個々人の肌色の特性によっては、明度V(又は輝度Y)の閾値判定が逆になる場合がある。さらに、手領域抽出処理で、色相Hや彩度S(又は色差UV)を考慮して閾値判定をしてもよい。
 以上、実施例1によれば、1台のカメラによる1方向からの撮影画像に基づき推定した指の3次元位置に応じてキー入力を行うことができる。また、カメラは1台でよいため、デバイスのコストを下げ、仮想キーボードによる入力装置の実装を容易にすることができる。
 また、実施例1によれば、手のひら部分を削除して手領域を抽出することで、手のひら部分が最下部となることによる誤入力を防ぐことができ、仮想キーボードによる入力精度を上げることができる。
 また、実施例1による仮想キーボードは、キーが手に追従することから、ユーザの手の可動領域を従来技術よりも広げることができ、操作感を向上させることができる。
 なお、表示部105は、撮影部202により撮影された画像を表示したり、記憶部203に記憶された文字コードに対応する文字列を表示したりしてもよい。また、表示部105は、撮影画像を表示する際、仮想キーボードが重畳された撮影画像を表示してもよい。仮想キーボードは、抽出部211により、抽出された手領域の位置に基づいて重畳されればよい。
 情報処理装置は、例えば、仮想キーボードの操作に対してどのように認識しているかを画面に表示する。あるいは、情報処理装置は、ユーザがタッチタイピングをすることができる場合は、仮想キーボードの操作に関する画面を表示しなくてもよい。
 図6,7,10に示す例は、仮想キーボードが重畳された撮影画像の一例を示す図でもある。また、表示部105は、仮想キーボード全体を表示してもよいし、選択されているキーのみを表示するようにしてもよい。
 例えば、表示部105は、横方向位置決定部214により決定された横方向の位置(キー)又は奥行き方向位置決定部215により決定された奥行き方向の位置(キー)を取得し、このキーを強調表示するようにしてもよい。
 [実施例2]
 次に、実施例2における情報処理装置について説明する。実施例2では、横方向の位置の推定処理に代わり、指の推定処理を行い、予め設定した指に対応したキー配列にする。
 実施例2における情報処理装置10のハードウェア、機能の構成については、実施例1と同様であるため、実施例1と同じ符号を用いて説明する。実施例2では、横方向位置決定部214による横方向の位置決定処理が実施例1と異なる。
 <機能>
 実施例2における情報処理装置の横方向位置決定部214は、爪の色を抽出し、指を推定する。また、横方向位置決定部214は、指にマーカー等の何らかの印を付与して、画像処理によりこのマーカーを認識して指を推定してもよい。また、手指の形状(指の先端の半円状など)の特徴量から指を推定してもよい。
 横方向位置決定部214は、手領域内の指の位置から推定して指がどの指かを特定する。例えば、左手領域の一番左の指から小指、薬指、中指、人差し指と判断される。
 横方向位置決定部214は、例えば、ホームポジション時の右手人差し指には、「J」、右手中指には「K」、左手人差し指には「F」を割り当てる。これにより、どの指が押下されたかにより、横方向におけるどのキー(横方向の位置)が押下されたかを決定することができる。
 なお、人差し指には2つのキーが割り当てられる。この場合、横方向位置決定部214は、例えば、右手人差し指の押下移動量に基づいて、「J」のキーか「H」のキーが押下されたかを特定することができる。
 具体的には、横方向位置決定部214は、押下時の右手人差し指の位置と、所定フレーム前の右手人差し指の位置との横方向の移動量を求める。この移動量により、ホームポジション位置から下に指を下ろして押下したか、斜めに指を下ろして押下したかが分かる。下に指を下ろして押下している場合は、入力キーは「J」と決定され、斜めに指を下ろして押下している場合は、入力キーは「H」と決定される。左手人差し指にも同様の決定を行う。
 横方向位置決定部214は、決定したキーの列を入力キー決定部216に出力する。その他の機能は、実施例1と同様である。
 <動作>
 実施例2における情報処理装置の動作について説明する。実施例1と異なる処理は、図13に示すステップS204の入力キー横方向決定処理である。
 実施例2では、このステップS204で、横方向位置決定部214は、手領域内の指を推定し、どの指が押下されたかを決定する。横方向位置決定部214は、決定された指、必要であれば指の位置により、横方向の入力キー(横方向の位置)を決定する。その他の処理は、実施例1と同様である。
 以上、実施例2によれば、押下された指がどの指であるかを推定することができ、実施例1同様の効果を得ることができる。
 なお、実施例2では、指推定処理を行って、横方向の位置を決定したが、実施例1の横方向の位置決定処理と組み合わせてもよい。この場合、横方向位置決定部214は、押下された指と、その指の手領域内の位置とに基づき、横方向の入力キーを決定する。例えば、右手人差し指が押下された指だと推定された場合、右手人差し指の位置が右手領域内のどの位置にあるかにより、入力キーが「J」か「H」かが決定される。
 また、実施例2における判定部213は、押下判定の他の方法として、次の判定方法を用いてもよい。判定部213は、推定された指毎に押下基準線と比較し、押下基準線を超えている指について、キーが押下されたと判定する。
 これにより、指毎に押下基準線と判定することで、最下部を用いる判定に比べ、複数の指による入力を一度に行うことができ、入力を高速に行うことができる。
 [実施例3]
 次に、実施例3における情報処理装置について説明する。実施例3では、押下基準線を複数容易し、押下の誤判定を軽減する。
 実施例3における情報処理装置10のハードウェア、機能の構成については、実施例1と同様であるため、実施例1と同じ符号を用いて説明する。実施例3では、基準線決定部212は、仮想キーボードの入力段毎に、押下基準線を決定する。
 <機能>
 実施例3における情報処理装置の基準線決定部212は、仮想キーボードの入力段毎に押下基準線を決定する。例えば、図12に示すキャリブレーション処理が、入力段毎に行われる。図5に示す仮想キーボードの場合、上段、中段、下段の押下基準線が決定される。
 基準線決定部212は、仮想キーボードの入力段毎に関連付けた押下基準線を判定部213に通知する。判定部213は、仮想キーボードの入力段毎に押下基準線を関連付けて記憶しておく。
 奥行き方向位置決定部215は、抽出部211から取得した手領域の縦横比に基づき、奥行きの位置を決定する。この場合、例えば、現在の縦横比R'が上段であると判定された場合、奥行き方向位置決定部215は、奥行き方向の位置として上段であることを判定部213に通知する。
 判定部213は、奥行き方向位置決定部215から、奥行き方向の位置を取得すると、その奥行き方向の位置に対応する入力段の押下基準線を用いて押下判定を行う。押下判定は実施例1と同様である。その他の機能は、実施例1と同様である。
 <動作>
 次に、実施例3における情報処理装置の動作について説明する。実施例3におけるキャリブレーション処理は、仮想キーボードの入力段毎に行われる。例えば、表示部105によるガイダンスなどに従って、各入力段時の手領域に基づいて押下基準線が決定される。
 (キー入力処理)
 図15は、実施例3におけるキー入力処理の一例を示すフローチャートである。図15に示すキー入力処理は、1フレームに対する処理である。
 ステップS401で、撮影部202は、ユーザの手の撮影を行う。この場合、ユーザは、例えば机上をキーボードに見立てて、キー入力の動作を行う。
 ステップS402で、抽出部211は、撮影部202により撮影された画像から手領域を抽出する。抽出された手領域からR'が算出される。
 ステップS403で、奥行き方向位置決定部215は、算出された縦横比R'と、閾値THとを比較し、入力キーの奥行き方向の位置を決定する。
 ステップS404で、判定部213は、決定された奥行き方向の位置に対応すると押下基準線と、抽出された手領域の最下部とを比較し、最下部が押下基準線を超えているか否かを判定する。最下部が押下基準線を超えて押下されていると判定された場合(ステップS404-YES)ステップS405に進み、最下部が押下基準線を超えておらず押下されていないと判定された場合(ステップS404-NO)次のフレームに移る。
 ステップS405で、横方向位置決定部214は、抽出された手領域の最下部の位置に基づいて、入力キーの横方向の位置を決定する。例えば、最下部と手領域の幅の相対位置を用いて横方向位置が決定される。
 ステップS406で、入力キー決定部216は、決定された横方向の位置と、決定された奥行き方向の位置とにより、入力キーを決定する。これにより、1フレームに対するキー入力処理が終了する。
 以上、実施例3によれば、1台のカメラによる1方向からの撮影画像に基づき推定した指の3次元位置に応じてキー入力を行うことができ、また、押下判定の精度を向上させることができる。
 [変形例]
 次に、変形例について説明する。上記実施例では、インターフェースとして、キーボードを例に説明したが、メニュー選択のボタンやポイント操作にも上記各実施例を適用することができる。
 また、上記実施例では、3段の仮想キーボードを例にして説明したが、3段に限らず、4段、5段などでもよい。この場合、奥行き方向の閾値を、入力段が4段の場合は3つ、入力段が5段の場合は4つとそれぞれ設ければよい。
 変形例では、図12~15に示した入力制御方法を実現するためのプログラムを記録媒体に記録することで、各実施例での処理をコンピュータシステムに実施させることができる。
 このように、各実施例で説明した入力制御処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、前述した入力制御処理を実現することができる。
 また、このプログラムを記録媒体に記録し、このプログラムが記録された記録媒体をコンピュータや携帯端末に読み取らせて、前述した入力制御処理を実現させることも可能である。
 なお、記録媒体は、CD-ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
 各実施例の情報処理装置で実行されるプログラムは、前述した各部を含むモジュール構成となっている。実際のハードウェアとしては、制御部101が補助記憶部103からプログラムを読み出して実行することにより上記各部のうち1又は複数の各部が主記憶部102上にロードされ、1又は複数の各部が主記憶部102上に生成されるようになっている。
 以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した各実施例の構成要素を全部又は複数を組み合わせることも可能である。

Claims (10)

  1.  手を撮影する撮影部により入力される画像から手領域を抽出する抽出部と、
     前記手領域に基づき、前記画像内の所定線を押下基準線に決定する基準線決定部と、
     前記手領域の最下部が前記押下基準線を超える場合に押下と判定する判定部と、
     前記判定部により押下と判定された場合の前記手領域の縦横比に基づき、奥行き方向の位置を決定する第1位置決定部と、
     前記判定部により押下と判定された場合の前記手領域の最下部の位置に基づき、横方向の位置を決定する第2位置決定部と、
     決定された前記奥行き方向の位置及び前記横方向の位置により入力キーを決定する入力キー決定部と、
     を備える情報処理装置。
  2.  前記抽出部は、
     基準となる前記手領域の縦横比を算出し、該縦横比に基づき1又は複数の閾値を設定し、
     前記第1位置決定部は、
     前記閾値と、前記判定部により押下と判定された場合の前記手領域の縦横比とを比較することで、前記奥行き方向の位置を決定する請求項1記載の情報処理装置。
  3.  前記判定部は、
     前記押下基準線を前記手領域の縦横比に応じて変更する請求項2記載の情報処理装置。
  4.  前記第2位置決定部は、
     前記手領域の横幅と前記手領域の最下部の位置とに基づき、前記横方向の位置を決定する請求項1乃至3いずれか一項に記載の情報処理装置。
  5.  前記第2位置決定部は、
     前記手領域の最下部がどの指であるかを推定し、推定された指に基づき、前記横方向の位置を決定する請求項1乃至3いずれか一項に記載の情報処理装置。
  6.  前記抽出部は、
     明度又は輝度に基づき手のひら部分を除去して手領域を抽出する請求項1乃至5いずれか一項に記載の情報処理装置。
  7.  前記基準線決定部は、
     前記奥行き方向の入力段毎に押下基準線を決定する請求項1乃至6いずれか一項に記載の情報処理装置。
  8.  仮想キーボードが重畳された前記画像を表示し、前記第1位置決定部又は前記第2位置決定部により決定された位置に対応するキーを強調表示する表示部をさらに備える請求項1乃至7いずれか一項に記載の情報処理装置。
  9.  手を撮影する撮影部により入力される画像から手領域を抽出し、
     前記手領域に基づき、前記画像内の所定線を押下基準線に決定し、
     前記手領域の最下部が前記押下基準線を超える場合に押下と判定し、
     押下と判定された場合の前記手領域の縦横比に基づき、奥行き方向の位置を決定し、
     押下と判定された場合の前記手領域の最下部の位置に基づき、横方向の位置を決定し、
     決定された前記奥行き方向の位置及び前記横方向の位置により入力キーを決定する、
     処理をコンピュータが実行する入力制御方法。
  10.  手を撮影する撮影部により入力される画像から手領域を抽出し、
     前記手領域に基づき、前記画像内の所定線を押下基準線に決定し、
     前記手領域の最下部が前記押下基準線を超える場合に押下と判定し、
     押下と判定された場合の前記手領域の縦横比に基づき、奥行き方向の位置を決定し、
     押下と判定された場合の前記手領域の最下部の位置に基づき、横方向の位置を決定し、
     決定された前記奥行き方向の位置及び前記横方向の位置により入力キーを決定する、
     処理をコンピュータに実行させる入力制御プログラム。
PCT/JP2011/064457 2011-06-23 2011-06-23 情報処理装置、入力制御方法及び入力制御プログラム WO2012176315A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2011/064457 WO2012176315A1 (ja) 2011-06-23 2011-06-23 情報処理装置、入力制御方法及び入力制御プログラム
EP11868196.4A EP2725458B1 (en) 2011-06-23 2011-06-23 Information processing device, input control method, and input control program
US14/105,537 US9418285B2 (en) 2011-06-23 2013-12-13 Information processing apparatus and input control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/064457 WO2012176315A1 (ja) 2011-06-23 2011-06-23 情報処理装置、入力制御方法及び入力制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/105,537 Continuation US9418285B2 (en) 2011-06-23 2013-12-13 Information processing apparatus and input control method

Publications (1)

Publication Number Publication Date
WO2012176315A1 true WO2012176315A1 (ja) 2012-12-27

Family

ID=47422190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/064457 WO2012176315A1 (ja) 2011-06-23 2011-06-23 情報処理装置、入力制御方法及び入力制御プログラム

Country Status (3)

Country Link
US (1) US9418285B2 (ja)
EP (1) EP2725458B1 (ja)
WO (1) WO2012176315A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225145A (ja) * 2013-05-16 2014-12-04 スタンレー電気株式会社 入力操作装置
WO2020039703A1 (ja) * 2018-08-21 2020-02-27 株式会社Nttドコモ 入力装置
JP2020080049A (ja) * 2018-11-13 2020-05-28 クリスタルメソッド株式会社 推定システム、及び推定装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013056431A1 (en) * 2011-10-18 2013-04-25 Nokia Corporation Methods and apparatuses for gesture recognition
TWI456430B (zh) * 2012-12-07 2014-10-11 Pixart Imaging Inc 手勢判斷裝置、其操作方法與手勢判斷方法
US10203812B2 (en) * 2013-10-10 2019-02-12 Eyesight Mobile Technologies, LTD. Systems, devices, and methods for touch-free typing
US9766806B2 (en) * 2014-07-15 2017-09-19 Microsoft Technology Licensing, Llc Holographic keyboard display
US10719173B2 (en) * 2018-04-04 2020-07-21 Facebook Technologies, Llc Transcribing augmented reality keyboard input based on hand poses for improved typing accuracy
WO2023033301A1 (ko) * 2021-09-06 2023-03-09 삼성전자 주식회사 가상 키보드를 통하여 사용자 입력을 획득하는 전자 장치와 이의 동작 방법
EP4325345A1 (en) 2021-09-06 2024-02-21 Samsung Electronics Co., Ltd. Electronic device for acquiring user input through virtual keyboard and operating method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683512A (ja) * 1992-02-07 1994-03-25 Internatl Business Mach Corp <Ibm> コマンド及びデータ入力方法及び入力装置
JPH11305895A (ja) * 1998-04-21 1999-11-05 Toshiba Corp 情報処理装置
JP2001282428A (ja) 2000-03-29 2001-10-12 Matsushita Electric Ind Co Ltd 情報処理装置
JP2003288156A (ja) 2002-03-28 2003-10-10 Minolta Co Ltd 入力装置
JP2008152622A (ja) * 2006-12-19 2008-07-03 Mitsubishi Electric Corp ポインティング装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
JP2005533463A (ja) * 2002-06-26 2005-11-04 ヴイケイビー・インコーポレーテッド 多機能統合画像センサおよび仮想インタフェース技術への適用
US9760214B2 (en) * 2005-02-23 2017-09-12 Zienon, Llc Method and apparatus for data entry input
US8094189B2 (en) * 2007-01-30 2012-01-10 Toyota Jidosha Kabushiki Kaisha Operating device
WO2009147904A1 (ja) * 2008-06-04 2009-12-10 国立大学法人筑波大学 手指形状推定装置、手指形状の推定方法及びプログラム
US8140970B2 (en) * 2009-02-23 2012-03-20 International Business Machines Corporation System and method for semi-transparent display of hands over a keyboard in real-time
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683512A (ja) * 1992-02-07 1994-03-25 Internatl Business Mach Corp <Ibm> コマンド及びデータ入力方法及び入力装置
JPH11305895A (ja) * 1998-04-21 1999-11-05 Toshiba Corp 情報処理装置
JP2001282428A (ja) 2000-03-29 2001-10-12 Matsushita Electric Ind Co Ltd 情報処理装置
JP2003288156A (ja) 2002-03-28 2003-10-10 Minolta Co Ltd 入力装置
JP2008152622A (ja) * 2006-12-19 2008-07-03 Mitsubishi Electric Corp ポインティング装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2725458A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014225145A (ja) * 2013-05-16 2014-12-04 スタンレー電気株式会社 入力操作装置
WO2020039703A1 (ja) * 2018-08-21 2020-02-27 株式会社Nttドコモ 入力装置
JPWO2020039703A1 (ja) * 2018-08-21 2021-08-12 株式会社Nttドコモ 入力装置
US11507181B2 (en) 2018-08-21 2022-11-22 Ntt Docomo, Inc. Input apparatus having virtual keys set on reference plane
JP7199441B2 (ja) 2018-08-21 2023-01-05 株式会社Nttドコモ 入力装置
JP2020080049A (ja) * 2018-11-13 2020-05-28 クリスタルメソッド株式会社 推定システム、及び推定装置

Also Published As

Publication number Publication date
US9418285B2 (en) 2016-08-16
EP2725458A1 (en) 2014-04-30
EP2725458B1 (en) 2016-06-15
US20140105455A1 (en) 2014-04-17
EP2725458A4 (en) 2015-05-13

Similar Documents

Publication Publication Date Title
WO2012176315A1 (ja) 情報処理装置、入力制御方法及び入力制御プログラム
KR100938337B1 (ko) 그리기 도구를 가지는 자율 핸드헬드 장치
US8928589B2 (en) Virtual keyboards and methods of providing the same
TWI428798B (zh) Information processing devices, information processing methods and program products
KR100947990B1 (ko) 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법
US8237678B2 (en) Apparatus and method for detecting contact on or proximity to a touch screen
WO2014045953A1 (ja) 情報処理装置および方法、並びにプログラム
JP5910345B2 (ja) 文字入力プログラム、情報処理装置および文字入力方法
US8081170B2 (en) Object-selecting method using a touchpad of an electronic apparatus
KR20110007806A (ko) 카메라를 이용하여 손동작을 인식하는 장치 및 방법
JP2011510383A (ja) イメージセンサを使用するタッチユーザインタフェースのための装置および方法
JP5962249B2 (ja) 文字入力プログラム、情報処理装置および文字入力方法
KR100663515B1 (ko) 휴대 단말 장치 및 이를 위한 데이터 입력 방법
US20100295785A1 (en) Interactive system and operating method thereof
CN112367559B (zh) 视频展示方法、装置、电子设备、服务器及存储介质
TW201317843A (zh) 虛擬滑鼠驅動裝置及虛擬滑鼠模擬方法
JP5621927B2 (ja) 情報処理装置、入力制御方法及び入力制御プログラム
JP7213396B1 (ja) 電子機器及びプログラム
US10007357B2 (en) Method for recognizing press of key on keyboard
TWI416419B (zh) 導航鍵功能實現系統及方法
CN104035628B (zh) 虚拟触控装置
JPWO2023031988A5 (ja)
Weng et al. A Vision-based Virtual Keyboard Design
JP2017123146A (ja) 座標算出装置および座標算出システム
Sakata et al. Fingertips 3D mouse using a camera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11868196

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013521385

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011868196

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE