JP5769277B2 - 入力装置、入力方法及びプログラム - Google Patents

入力装置、入力方法及びプログラム Download PDF

Info

Publication number
JP5769277B2
JP5769277B2 JP2013512492A JP2013512492A JP5769277B2 JP 5769277 B2 JP5769277 B2 JP 5769277B2 JP 2013512492 A JP2013512492 A JP 2013512492A JP 2013512492 A JP2013512492 A JP 2013512492A JP 5769277 B2 JP5769277 B2 JP 5769277B2
Authority
JP
Japan
Prior art keywords
camera
unit
display
distance
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013512492A
Other languages
English (en)
Other versions
JPWO2012147959A1 (ja
Inventor
潤一 玉井
潤一 玉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2013512492A priority Critical patent/JP5769277B2/ja
Publication of JPWO2012147959A1 publication Critical patent/JPWO2012147959A1/ja
Application granted granted Critical
Publication of JP5769277B2 publication Critical patent/JP5769277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、入力装置、入力方法及びプログラムに関する。
ユーザの手の動きに基づいてユーザからの操作指令を判別する、いわゆるハンドジェスチャ装置が知られている。例えば、特許文献1には、テレビに表示された操作画面の中にカメラで撮像したユーザの画像を合成し、操作画面中の被写体の動きによってメニュー項目等の選択を可能にする入力装置が開示されている。
特開2010−257093号公報
特許文献1の入力装置の場合、操作画面の大きさが常に一定であるために、ユーザがテレビから離れて操作しようとしたときに、操作画面が見づらくなるので、操作しにくいという不都合がある。
本発明は、上記実情に鑑みてなされたものであり、画面から離れて操作する場合であっても容易に操作できる入力装置、入力方法及びプログラムを提供することを目的とする。
本発明の第1の観点に係る入力装置は、
表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報として、前記カメラから出力された画像データに対応する画像全体の面積に占める手の画像の面積の割合及び前記画像データ中の被写体の顔における目と目の間の距離を取得する取得部と、
前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部と、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部と、
を備え
前記判別部は、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別し、
前記表示制御部は、
前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令に対応する図形を前記表示画面内に表示する。
本発明の第2の観点に係る入力方法は、
表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報として、前記カメラから出力された画像データに対応する画像全体の面積に占める手の画像の面積の割合及び前記画像データ中の被写体の顔における目と目の間の距離を取得する取得ステップと、
前記取得ステップにおいて取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御ステップと、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別ステップと、
を含み、
前記判別ステップでは、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
前記取得ステップで取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別し、
前記表示制御ステップでは、
前記取得ステップで取得された情報によって示される距離が近くなるに従って、より多くの操作指令に対応する図形を前記表示画面内に表示する
本発明の第3の観点に係るプログラムは、
コンピュータを、
表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報として、前記カメラから出力された画像データに対応する画像全体の面積に占める手の画像の面積の割合及び前記画像データ中の被写体の顔における目と目の間の距離を取得する取得部、
前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部、
として機能させ
前記判別部では、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別し、
前記表示制御部では、
前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令に対応する図形を前記表示画面内に表示するように機能させる。
本発明によれば、画面から離れて操作する場合であっても容易に操作できる。
本発明の実施の形態に係る入力装置の斜視図である。 図1に示す入力装置の機能ブロック図である。 (A)は小さな操作画面を表示画面中に表示した様子を示す図である。(B)は大きな操作画面を表示画面に表示した様子を示す図である。 ユーザの手の動きと操作コマンドとを対応付けたコマンドテーブルを例示する図である。 (A)は近距離で撮像された手の画像を表示した様子を示す図である。(B)は遠距離で撮像された手の画像を表示した様子を示す図である。 (A)は小さな操作画面中に表示した手の動きを示す図である。(B)は大きな操作画面中に表示した手の動きを示す図である。 実施の形態に係る入力処理を説明するためのフローチャートである。 (A)は手とカメラとの距離が近い場合に認識できる方向を示す図である。(B)は手とカメラとの距離が遠い場合に認識できる方向を示す図である。 手の動きに同期して図形が変化する様子を示す図である。 手の動きに同期して図形が移動する様子を示す図である。
以下、本実施の形態の入力装置100について図面を参照しながら説明する。
入力装置100は、ユーザの手の動きに基づいて、ユーザからの操作指令を判別する機能を備える。入力装置100は、例えば、パーソナルコンピュータである。図1は、入力装置100の外観を示す。入力装置100は、図1に示すように、操作部110と、カメラ部120と、表示部130と、本体部140と、音声出力部150とを備える。
操作部110は、キーボード等の入力デバイスを備える。操作部110は、ユーザによる処理開始命令等の操作入力を受け取って本体部140に出力する。
カメラ部120は、CCD(Charge Coupled Device)イメージセンサを用いたカメラやCMOS(Complementary Metal Oxide Semiconductor)を用いたカメラ等を備える。カメラ部120は、表示部130の上部中央に設置されている。カメラ部120は、表示部130の対面方向を撮像するように設置されている。このため、カメラ部120は、表示部130を見ながら入力装置100を操作するユーザを撮像する。
表示部130は、液晶ディスプレイ等の表示装置を備える。表示部130は、各種画像を表示装置の表示画面内に表示する。表示部130によって表示される各種画像には、操作画面が含まれる。「操作画面」とは、ユーザが入力装置100を操作するためのユーザインターフェースとなる表示画面中の画像等のことである。例えば、操作画面は、カメラ部120で撮像されたユーザ自身や、メニュー項目等を表示するウィンドウ等である。
本体部140は、入力装置100の本体部分である。本体部140は、ユーザによる処理開始命令等の操作入力に応じて、各種処理を実行する。
音声出力部150は、スピーカ等を備える。音声出力部150は、本体部140によって実行された処理に応じて、音声等を出力する。
次に図2を参照して、本体部140の機能構成を説明する。図2に示すように、本体部140は、画像記憶部141と、記憶部142と、制御部143とを備える。
画像記憶部141は、RAM(Random Access Memory)等のビデオメモリを備え、カメラ部120から出力された画像データを記憶する。当該画像データには、例えば、カメラ部120で撮像されたユーザ等の像に対応する画像データ等が含まれる。
記憶部142は、RAMやハードディスク等の記憶装置を備える。記憶部142は、操作画面情報142aやコマンドテーブル142b等の各種データを記憶する。
操作画面情報142aは、例えば、操作画面の位置及び大きさに関する情報である。図3(A)は、操作画面131として、表示画面のおよそ20%を占める長方形の領域に設定された操作画面131aを示す。この場合、操作画面131aに関する操作画面情報142aは、例えば、長方形の1つの頂点の座標(X1,Y1)及びその頂点から長方形の対角線上にある頂点の座標(X2,Y2)である。座標(X1,Y1)及び座標(X2,Y2)によって、操作画面の位置及び大きさが定まる。図3(B)は、操作画面131として、表示画面のおよそ80%を占める長方形の領域に設定された操作画面131bを示す。この場合、操作画面131bに関する操作画面情報142aは、長方形の1つの頂点の座標(X1,Y1)及びその頂点から長方形の対角線上にある頂点の座標(X3,Y3)である。なお、操作画面情報142aは、頂点の座標に限らず、操作画面として設定された領域の重心の座標と重心から領域の端までの距離であってもよい。
コマンドテーブル142bは、図4に示すように、ユーザの「手の動き」と「操作コマンド」とを対応付けた情報から構成される。ここで「操作コマンド」とは、ソフトウェア同士のインターフェース(以下、「ソフトウェアインターフェース」という)を介して、オペレーティングシステムや音楽再生ソフトウェア等のアプリケーションソフトウェア等に対して出力される情報である。操作コマンドは、例えば、オペレーティングシステムに対する操作のための情報や再生、停止、早送り、スキップ等の音楽再生ソフトウェア等を操作するための情報である。
図4では、操作コマンドが手の動きに対応付けられている。例えば、オペレーティングシステムに対する操作のための情報として、「手が素早く左右に移動」に対して「操作開始」が対応付けられている。また、音楽再生ソフトウェアを操作するための情報として、「手が上に移動」に対して「音量アップ」が対応付けられている。また、「手が右に移動」に対して「再生」が対応付けられている。
制御部143は、プロセッサ等を備え、記憶部142に記憶されているプログラムに従って動作し、ユーザによる処理開始命令等の操作入力に応じて種々の処理を実行する。制御部143は、操作部110より処理開始命令が出力されると、カメラ部120に対して撮像の開始を命令する。この命令を受けて、カメラ部120は、逐次、撮像した画像を画像記憶部141に出力する。制御部143は、表示部130を制御して、各種画像を表示させる。
また、制御部143は、操作部110より処理開始命令が出力されると、音楽再生ソフトウェア等のアプリケーションソフトウェアを実行するとともに、ソフトウェアインターフェースを介してアプリケーションソフトウェアに操作コマンドを入力するための入力処理を開始する。
制御部143は、取得部1と、表示制御部2と、判別部3と、実行部4として機能する。取得部1は、表示部130(表示装置)又はカメラ120とカメラ120で撮像されるユーザ(被写体)との距離を示す情報を取得する。ここで、カメラ部120は表示部130の上部中央に設置されており、表示部130とユーザとの距離及びカメラ部120とユーザとの距離は、ほぼ同じと考えられるため、取得部1は、表示部130とユーザとの距離を示す情報を取得するものとする。取得部1は、例えば、ユーザとの距離を示す情報として、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rを取得する。表示部130とカメラ部120で撮像されるユーザの手との距離は、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rに比例する。すなわち、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rが大きければ大きいほど、表示部130とユーザの手との距離は近いと言える。
表示制御部2は、取得部1によって取得された割合Rに基づいて大きさを設定した操作画面131を、表示部130に表示する。例えば、操作画面131の大きさの設定では、表示制御部2は、取得部1によって取得された割合Rに基づいて、表示部130とユーザとの距離を検出する。例えば、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rが5%であれば、表示制御部2は、表示部130と手との距離を3mとして検出する。また、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rが10%であれば、表示制御部2は、表示部130と手との距離を1mとして検出する。
表示制御部2は、取得部1によって取得された割合Rによって示される距離が遠くなるに従って操作画面131をより大きくする。例えば、表示制御部2は、検出した距離が所定の閾値より小さいときは、小さな操作画面131aを設定する。一方、表示制御部2は、検出した距離が所定の閾値より大きいときは、大きな操作画面131bを設定する。表示制御部2によって設定された操作画面131に対応するデータは、表示部130に出力され、表示装置の表示画面内に表示される。
表示制御部2は、操作画面131に表示する画像データを、画像記憶部141から最新の画像データとして取得する。表示制御部2は、操作画面131の大きさに合わせて取得した画像データを加工処理して操作画面を設定する。表示制御部2は、画像データから手の画像データとして、例えば、手を囲む最小の四角形の4辺それぞれに一定の幅を加えた範囲の画像に対応する画像データを切り出す。表示制御部2は、切り出した画像データを、操作画面131の大きさに合わせて拡大又は縮小して操作画面131に表示する画像として設定する。これにより、操作画面131として操作画面131aが設定された場合には、図5(A)に示すように、操作画面131aに手の画像が表示される。また、操作画面131として操作画面131bが設定された場合には、図5(B)に示すように、操作画面131bに手の画像が表示される。
表示制御部2は、随時、操作画面131を更新する。例えば、表示制御部2は、カメラ部120で撮像されたユーザのジェスチャ(動き及び形状の少なくとも一方)に応じて操作画面131を変化させる。表示制御部2は、随時、画像データから手の画像データを切り出し、設定した画像に対応する画像データを表示部130に出力することで操作画面131を変化させる。
判別部3は、カメラ部120で撮像されたユーザのジェスチャに基づいて、ユーザからの操作指令を判別する。まず、判別部3は、画像データに人の手の像が含まれているか否かを判別する。例えば、記憶部142は、人の手の像の特徴を抽出したパターンデータを予め記憶している。判別部3は、そのパターンデータと画像データとを照合することによって、画像データに人の手の像が含まれているか否かを判別する。
次に判別部3は、カメラ部120で撮像されたユーザのジェスチャが、操作指令に対応付けられたジェスチャに一致するか否かを判別する。例えば、判別部3は、ユーザのジェスチャとして、カメラ部120で撮像されたユーザの手のジェスチャが、操作指令に対応付けられたジェスチャに一致するか否かを判別する。判別部3は、手のジェスチャを判別するために、例えば、手の像の動きを認識する。この場合、判別部3は、随時、画像データ中の手の重心として、画像データ中の手の画像に対応する全画素の位置座標の平均を算出する。その重心が一定時間内に左右に所定の幅以上移動した場合、判別部3は、手が左右に素早く移動したと認識する。前記カメラで撮像された前記被写体の手の動きに基づいて、前記被写体からの操作指令を判別する、
また、判別部3は、手の重心と画像データ中の全画素の位置座標の平均である画像の中心との距離を、逐次、算出してユーザの手の像の動きを認識するようにしてもよい。例えば、算出した距離が所定の閾値以上になったら、判別部3は、ユーザの手が移動したと認識する。このとき、手の重心と画像の中心とを結ぶ直線が、図6(A)に示すように、左斜め下45°から左斜め上45°の範囲に入っていたら、判別部3は、手が左方向へ移動したと認識する。また、手の重心と画像の中心とを結ぶ直線が、図6(B)に示すように、左斜め上45°から右斜め上45°の範囲に入っていたら、判別部3は、手が上方向へ移動したと認識する。同様に、手の重心と画像の中心とを結ぶ直線が、右斜め上45°から右斜め下45°の範囲に入っていたら、判別部3は、手が右方向へ移動したと認識する。手の重心と画像の中心とを結ぶ直線が、右斜め下45°から左斜め下45°の範囲に入っていたら、判別部3は、手が下方向へ移動したと認識する。
このようにしてユーザの手の動きを認識したら、判別部3は、コマンドテーブル142bを参照し、認識した手の動きに対応する操作コマンドを、ユーザからの操作指令として判別する。例えば、手が左右に素早く移動したと認識した場合、判別部3は、「手が左右に素早く移動」に対応付けられた操作コマンド「操作開始」をユーザからの操作指令として判別する。また、手が右に移動したと認識した場合、判別部3は、「手が右に移動」に対応付けられた操作コマンド「再生」をユーザからの操作指令として判別する。また、手が上に移動したと認識した場合、判別部3は、「手が上に移動」に対応付けられた操作コマンド「音量アップ」をユーザからの操作指令として判別する。
ユーザからの操作指令を判別した場合、制御部143は、ユーザから操作指令を受け取ったことを示す情報として、例えば、イラストやメッセージを表示部130に表示する。
実行部4は、判別部3によって判別された操作指令に応じた処理を実行する。実行部4は、操作コマンドを、音楽再生ソフトウェア等のアプリケーションソフトウェアにソフトウェアインターフェースを介して出力する。例えば、操作コマンドが「再生」の場合、実行部4は、音楽再生ソフトウェア等のアプリケーションソフトウェアを介して所定の音声データ等を再生する。これにより、音声出力部150は、音声データに対応する音声を出力する。また、操作コマンドが「音量アップ」の場合、実行部4は、音楽再生ソフトウェア等のアプリケーションソフトウェアを介して音量を上げる。これにより、音声出力部150は、出力する音声の音量を上げる。
次に、入力装置100の動作について説明する。以下、図7のフローチャートを参照して入力処理について説明する。
制御部143は、画像記憶部141から最新の画像データを取得する(ステップS101)。
判別部3は、画像データに人の手の像が含まれているか否かを判別する(ステップS102)。画像データに人の手の像が含まれていない場合(ステップS102:NO)、制御部143は、ステップS101に戻る。
画像データに人の手の像が含まれている場合(ステップS102:YES)、取得部1は、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rを取得する(ステップS103)。続いて、表示制御部2は、取得部1によって取得された画像データに対応する画像全体の面積に占める手の画像の面積の割合Rに基づいて、表示部130と撮像される手との距離を検出する(ステップS104)。
次に、表示制御部2は、検出した距離に基づいて操作画面の大きさを設定する(ステップS105)。表示制御部2は、表示部130に設定された大きさの操作画面131を、表示部130を介して表示する(ステップS106)。
表示制御部2は、画像記憶部141から最新の画像データを取得し、図5に示すように、操作画面131に、取得した画像データに対応する手の画像を表示する(ステップS107)。
次に、判別部3は、ユーザのジェスチャを認識して、操作開始が指令されたか否かを判別する(ステップS108)。
制御部143は、操作開始が指令されるまで待つ(ステップS108;No)。操作開始が指令された場合(ステップS108:YES)、制御部143は、ユーザから操作開始の指令を受け取ったことを示す情報として、例えば、イラストやメッセージ等の操作開始を示す画像を、表示部130を介して表示する(ステップS109)。
判別部3は、画像データに対応する手の像が移動するまで待つ(ステップS110;NO)。手の像が移動すると(ステップS110;YES)、判別部3は、認識した手の像の移動した方向に対応付けられた操作コマンドに応じた処理を実行する(ステップS111)。
本実施の形態によれば、ユーザが入力装置100から遠い位置にいるときは、入力装置100は、表示部130に大きな操作画面131bを表示するので、ユーザは遠い位置からでも確実に自分の動きを確認できる。そのため、ユーザは、自分の動作を確認しながら、容易にアプリケーションソフトウェア等の操作をすることができる。
また、ユーザが入力装置100の近くにいるときは、入力装置100は、表示部130に小さな操作画面131aを表示するので、ユーザは、アプリケーションソフトウェア等の操作中も、操作画面131に邪魔されることなく、有効に画面を使用することができる。
なお、判別部3は、カメラ部120で撮像されたユーザのジェスチャの違いによって複数個の操作指令を判別してもよい。このとき、判別部3は、表示制御部2によって検出された距離が近くなるに従って、より多くの操作指令を判別するようにしてもよい。例えば、判別部3は、表示制御部2によって検出された距離が所定の閾値より短い場合は、図8(A)に示すように、操作画面131aを画面の中心から放射線状に8分割し、上下左右に、斜め方向を加えた8方向への手の動きを認識する。これに対して、表示制御部2によって検出された距離が所定の閾値より長い場合には、判別部3は、図8(B)に示すように、上下左右4方向への手の動きを認識する。これにより、手がカメラ部120の近くにあって細かな動きを捉えることができる場合は、より多くの動きに対応付けられた操作コマンドを判別できる。こうすることで、より多く操作入力が可能になる。また、手がカメラ部120から離れていて細かな動きを捉えることができない場合は、より少ない動きに対応付けられた操作コマンドを判別すればよい。こうすることで、認識する手の動きが絞られ、誤った操作入力を低減することが可能になる。
また、本実施の形態では、表示制御部2は、操作画面131にカメラ部120で撮像したユーザの画像を表示するようにした。こうすることで、ユーザにユーザ自身の動きをフィードバックでき、ユーザは自身の動きを確認しながら操作入力を行うことができる。ここで、操作画面131に表示する画像は、カメラ部120で撮像した画像に限られない。表示制御部2は、操作画面131の中に図形を表示し、カメラ部120で撮像された撮像されたユーザの手の動きに同期して図形を変化させるようにしてもよい。例えば、図9に示すように、表示制御部2は、操作画面131aの中に手の像の移動方向に対応する8種類の矢印を表示してもよい。この場合、ユーザの手が、例えば、左斜め上に移動したら、左斜め上の矢印の色または濃淡を変化させてもよい。また、例えば、図10に示すように、表示制御部2は、操作画面131aにユーザの手の代わりに黒丸を表示してもよい。この場合、表示制御部2は、ユーザの手が、例えば、右斜め下に移動したら、右斜め下に黒丸を移動させてもよい。その他、手の動きにあわせて黒丸を三角や四角に変化させることによって、ユーザにユーザ自身の動きをフィードバックしてもよい。このようにすることで、ユーザは簡略化された図形の動きによって自身の動きを捉えられるので、視認性が高まる。
また、本実施の形態では、判別部3は、カメラ部120で撮像されたユーザの手の動きに基づいて、ユーザからの操作指令を判別した。本発明はこれに限らず、判別部3は、ユーザの手の形状に基づいて、ユーザからの操作指令を判別してもよい。
例えば、記憶部142が手を開いた形状のパターンデータ、手を握った形状のパターンデータ、人差し指と中指のみを立てた形状のパターンデータを記憶しておき、判別部3は、そのパターンデータに基づいて画像データ中の手の形状を認識する。そして、判別部3は、認識した手の形状に基づいて、例えば、手が開いた形状のときは“再生”コマンド、手を握った形状のときは“停止”コマンド、人差し指と中指のみを立てた形状のときは“スキップ”コマンド、を操作指令として判別する。こうすることで、手の形状によっても操作入力できるので、操作入力のバリエーションが増える。
また、判別部3は、ジェスチャとして、ユーザの手以外の部位の動きが操作指令に対応付けられたジェスチャに一致するか否かを判別してもよい。例えば、一定時間内のユーザのまばたきの回数が操作指令に対応付けられたジェスチャに一致するか否かを判別してもよいし、体の動きが操作指令に対応付けられたジェスチャに一致するか否か判別してもよい。体の動きとしては、例えば、立ったり、座ったり、手を挙げたりする動作がある。
また、表示制御部2は、取得部1によって取得された画像データに対応する画像全体の面積に占める手の画像の面積の割合Rに基づいて、表示部130とユーザとの距離を検出したが、他の手法を使用して距離を検出してもよい。例えば、取得部1が画像データ中のユーザの顔を認識し、認識した顔から目と目の間距離(以下「目間距離」という)を取得する。このとき、表示制御部2は、取得部1によって取得された目間距離に基づいて、表示部130とユーザとの距離を検出してもよい。また、表示部130に赤外線センサや超音波センサ等の距離計測用のセンサを取り付けて、取得部1が距離計測用のセンサの計測値を取得するようにした場合、表示制御部2は、距離計測用のセンサの計測値に基づいて、表示部130とユーザとの距離を検出してもよい。また、入力装置100に2つのカメラを備えておき、表示制御部2は、取得部1によって取得された2台のカメラの画像の差から、例えば、三角法によって表示部130とユーザとの距離を検出してもよい。
また、操作画面情報142aに保持される操作画面131の大きさは、小さな操作画面131aと大きな操作画面131bとの2通りに限られず、例えば、3通り以上の大きさの異なる操作画面131であってもよい。また、表示制御部2は、随時、表示部130とユーザとの距離を検出し、その検出した距離に応じて、表示制御部2は、例えば、距離を操作画面131の縦の辺の長さ又は横の辺の長さに変換する等して、操作画面131を、拡大又は縮小するようにしてもよい。
本実施の形態の入力装置100は、専用のシステムにより実現してもよいし、通常のコンピュータシステムにより実現してもよい。例えば、上述の動作を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に格納して配布し、該プログラムをコンピュータにインストールして、上述の処理を実行することによって入力装置100を構成してもよい。また、インターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、例えばコンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OS(Operating System)とアプリケーションソフトウェアとの共同により実現してもよい。この場合には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等してもよい。
上記プログラムを記録する記録媒体としては、USBメモリ、フレキシブルディスク、CD、DVD、Blu−ray Disc(登録商標)、MO、SDカード、メモリースティック(登録商標)、その他、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ、磁気テープ等のコンピュータ読取可能な記録媒体を使用することができる。また、ハードディスクやSSD(ソリッドステートドライブ)等、通常、システム又は装置に固定して使用する記録媒体を使用することもできる。
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部と、
前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部と、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部と、
を備える入力装置。
(付記2)
前記表示制御部は、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に応じて操作画面を変化させる、
ことを特徴とする付記1に記載の入力装置。
(付記3)
前記表示制御部は、
前記取得部で取得された情報によって示される距離が遠くなるに従って操作画面をより大きくする、
ことを特徴とする付記1又は2に記載の入力装置。
(付記4)
前記判別部は、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別する、
ことを特徴とする付記1乃至3のいずれか一つに記載の入力装置。
(付記5)
前記表示制御部は、
操作画面の中に図形を表示し、
前記カメラで撮像された前記被写体の動きに同期して前記図形を変化させる、
ことを特徴とする付記1乃至4のいずれか一つに記載の入力装置。
(付記6)
前記表示制御部は、
前記表示装置又はカメラと前記カメラで撮像される前記被写体の手との距離を検出し、
前記判別部は、
前記カメラで撮像された前記被写体の手の動きに基づいて、前記被写体からの操作指令を判別する、
ことを特徴とする付記1乃至5のいずれか一つに記載の入力装置。
(付記7)
前記判別部は、
前記カメラで撮像される前記被写体の手の形状に基づいて、前記被写体からの操作指令を判別する、
ことを特徴とする付記6に記載の入力装置。
(付記8)
表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得ステップと、
前記取得ステップにおいて取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御ステップと、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別ステップと、
を含む入力方法。
(付記9)
コンピュータを、
表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部、
前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部、
前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部、
として機能させるプログラムを記録した記録媒体。
本発明は、2011年4月27日に出願された日本国特許出願2011−100216号に基づく。本明細書中に日本国特許出願2011−100216号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
本発明は、ユーザのジェスチャによってデータを入力する入力装置、入力方法及び記録媒体に好適である。
1 取得部
2 表示制御部
3 判別部
4 実行部
100 入力装置
110 操作部
120 カメラ部
130 表示部
140 本体部
141 画像記憶部
142 記憶部
143 制御部
142a 操作画面情報
142b コマンドテーブル
150 音声出力部

Claims (8)

  1. 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報として、前記カメラから出力された画像データに対応する画像全体の面積に占める手の画像の面積の割合及び前記画像データ中の被写体の顔における目と目の間の距離を取得する取得部と、
    前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部と、
    前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部と、
    を備え
    前記判別部は、
    前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
    前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別し、
    前記表示制御部は、
    前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令に対応する図形を前記表示画面内に表示す入力装置。
  2. 前記表示制御部は、
    前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に応じて操作画面を変化させる、
    ことを特徴とする請求項1に記載の入力装置。
  3. 前記表示制御部は、
    前記取得部で取得された情報によって示される距離が遠くなるに従って操作画面をより大きくする、
    ことを特徴とする請求項1又は2に記載の入力装置。
  4. 前記表示制御部は、
    操作画面の中に図形を表示し、
    前記カメラで撮像された前記被写体の動きに同期して前記図形を変化させる、
    ことを特徴とする請求項1乃至のいずれか一項に記載の入力装置。
  5. 前記表示制御部は、
    前記表示装置又はカメラと前記カメラで撮像される前記被写体の手との距離を検出し、
    前記判別部は、
    前記カメラで撮像された前記被写体の手の動きに基づいて、前記被写体からの操作指令を判別する、
    ことを特徴とする請求項1乃至のいずれか一項に記載の入力装置。
  6. 前記判別部は、
    前記カメラで撮像される前記被写体の手の形状に基づいて、前記被写体からの操作指令を判別する、
    ことを特徴とする請求項に記載の入力装置。
  7. 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報として、前記カメラから出力された画像データに対応する画像全体の面積に占める手の画像の面積の割合及び前記画像データ中の被写体の顔における目と目の間の距離を取得する取得ステップと、
    前記取得ステップにおいて取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御ステップと、
    前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別ステップと、
    を含み、
    前記判別ステップでは、
    前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
    前記取得ステップで取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別し、
    前記表示制御ステップでは、
    前記取得ステップで取得された情報によって示される距離が近くなるに従って、より多くの操作指令に対応する図形を前記表示画面内に表示する、入力方法。
  8. コンピュータを、
    表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報として、前記カメラから出力された画像データに対応する画像全体の面積に占める手の画像の面積の割合及び前記画像データ中の被写体の顔における目と目の間の距離を取得する取得部、
    前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部、
    前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部、
    として機能させ
    前記判別部では、
    前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
    前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別し、
    前記表示制御部では、
    前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令に対応する図形を前記表示画面内に表示するように機能させプログラム。
JP2013512492A 2011-04-27 2012-04-27 入力装置、入力方法及びプログラム Active JP5769277B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013512492A JP5769277B2 (ja) 2011-04-27 2012-04-27 入力装置、入力方法及びプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011100216 2011-04-27
JP2011100216 2011-04-27
JP2013512492A JP5769277B2 (ja) 2011-04-27 2012-04-27 入力装置、入力方法及びプログラム
PCT/JP2012/061469 WO2012147959A1 (ja) 2011-04-27 2012-04-27 入力装置、入力方法及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2012147959A1 JPWO2012147959A1 (ja) 2014-07-28
JP5769277B2 true JP5769277B2 (ja) 2015-08-26

Family

ID=47072470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013512492A Active JP5769277B2 (ja) 2011-04-27 2012-04-27 入力装置、入力方法及びプログラム

Country Status (7)

Country Link
US (1) US9323339B2 (ja)
EP (1) EP2703971A4 (ja)
JP (1) JP5769277B2 (ja)
KR (1) KR101514170B1 (ja)
CN (1) CN103608761B (ja)
IL (1) IL229042A (ja)
WO (1) WO2012147959A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5964603B2 (ja) * 2012-02-08 2016-08-03 シャープ株式会社 データ入力装置、及び表示装置
US20150070263A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic Displays Based On User Interaction States
WO2016017956A1 (en) 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
KR102397397B1 (ko) * 2014-07-30 2022-05-13 삼성전자주식회사 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법
JP2016038840A (ja) * 2014-08-11 2016-03-22 シャープ株式会社 通信装置、通信装置の制御方法および通信装置の制御プログラム
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2016136838A1 (ja) * 2015-02-25 2016-09-01 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
CN113253837A (zh) * 2021-04-01 2021-08-13 作业帮教育科技(北京)有限公司 空中书写方法、装置、线上直播系统和计算机设备
US20240061496A1 (en) * 2022-08-19 2024-02-22 Mobeus Industries, Inc. Implementing contactless interactions with displayed digital content
US20240201845A1 (en) * 2022-12-14 2024-06-20 Nxp B.V. Contactless human-machine interface for displays

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123612A (ja) * 1994-10-25 1996-05-17 Hitachi Ltd 位置入力方法およびそれを用いた会議支援システム
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
JP2008282131A (ja) * 2007-05-09 2008-11-20 Victor Co Of Japan Ltd 電子機器の制御装置
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2011015301A (ja) * 2009-07-03 2011-01-20 Sony Corp 表示制御装置および表示制御方法
JP2011054118A (ja) * 2009-09-04 2011-03-17 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
JP4142073B2 (ja) * 2006-10-13 2008-08-27 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
EP1950957A2 (en) * 2007-01-23 2008-07-30 Funai Electric Co., Ltd. Image display system
JP5430572B2 (ja) * 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
JP4569613B2 (ja) 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8514251B2 (en) 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
US20100251171A1 (en) * 2009-03-31 2010-09-30 Parulski Kenneth A Graphical user interface which adapts to viewing distance
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123612A (ja) * 1994-10-25 1996-05-17 Hitachi Ltd 位置入力方法およびそれを用いた会議支援システム
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
JP2008282131A (ja) * 2007-05-09 2008-11-20 Victor Co Of Japan Ltd 電子機器の制御装置
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2011015301A (ja) * 2009-07-03 2011-01-20 Sony Corp 表示制御装置および表示制御方法
JP2011054118A (ja) * 2009-09-04 2011-03-17 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム

Also Published As

Publication number Publication date
IL229042A0 (en) 2013-12-31
CN103608761A (zh) 2014-02-26
KR101514170B1 (ko) 2015-04-21
JPWO2012147959A1 (ja) 2014-07-28
CN103608761B (zh) 2018-07-27
KR20140002009A (ko) 2014-01-07
EP2703971A1 (en) 2014-03-05
EP2703971A4 (en) 2014-11-12
US20140035813A1 (en) 2014-02-06
WO2012147959A1 (ja) 2012-11-01
US9323339B2 (en) 2016-04-26
IL229042A (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP5769277B2 (ja) 入力装置、入力方法及びプログラム
JP5087532B2 (ja) 端末装置、表示制御方法および表示制御プログラム
JP5659510B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN105210144B (zh) 显示控制装置、显示控制方法和记录介质
US8022997B2 (en) Information processing device and computer readable recording medium
KR101660576B1 (ko) 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진
US20160357415A1 (en) Quick review of captured image data
KR20140002007A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
KR20180018561A (ko) 이미지 영역을 선택 및 추적함으로써 비디오를 확대축소하기 위한 장치 및 방법
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
JP5360166B2 (ja) 画像表示装置
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
JP6176991B2 (ja) 情報処理装置およびその制御方法およびプログラム
WO2015159548A1 (ja) 投影制御装置、投影制御方法及び投影制御プログラムを記録した記録媒体
JP5341126B2 (ja) 検出領域拡大装置、表示装置、検出領域拡大方法、プログラムおよび、コンピュータ読取可能な記録媒体
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
JP5446700B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10212382B2 (en) Image processing device, method for controlling image processing device, and computer-readable storage medium storing program
JP2012065049A (ja) 画像処理装置及び画像処理方法
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
JP6733945B1 (ja) 撮影装置、情報処理装置、方法およびプログラム
US20230291998A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium storing program
JP4429349B2 (ja) 記録装置と記録装置のためのプログラム
JP6164958B2 (ja) 情報処理装置、方向特定方法、コンピュータプログラム、及び記憶媒体
JP2015118652A (ja) 画像表示装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140813

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150311

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150618

R150 Certificate of patent or registration of utility model

Ref document number: 5769277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150