WO2012147959A1 - 入力装置、入力方法及び記録媒体 - Google Patents

入力装置、入力方法及び記録媒体 Download PDF

Info

Publication number
WO2012147959A1
WO2012147959A1 PCT/JP2012/061469 JP2012061469W WO2012147959A1 WO 2012147959 A1 WO2012147959 A1 WO 2012147959A1 JP 2012061469 W JP2012061469 W JP 2012061469W WO 2012147959 A1 WO2012147959 A1 WO 2012147959A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
camera
display
input device
hand
Prior art date
Application number
PCT/JP2012/061469
Other languages
English (en)
French (fr)
Inventor
潤一 玉井
Original Assignee
Necシステムテクノロジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necシステムテクノロジー株式会社 filed Critical Necシステムテクノロジー株式会社
Priority to EP12776042.9A priority Critical patent/EP2703971A4/en
Priority to US14/112,147 priority patent/US9323339B2/en
Priority to CN201280020412.0A priority patent/CN103608761B/zh
Priority to KR1020137028074A priority patent/KR101514170B1/ko
Priority to JP2013512492A priority patent/JP5769277B2/ja
Publication of WO2012147959A1 publication Critical patent/WO2012147959A1/ja
Priority to IL229042A priority patent/IL229042A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • FIG. It is a perspective view of the input device concerning an embodiment of the invention. It is a functional block diagram of the input device shown in FIG. (A) is a figure which shows a mode that the small operation screen was displayed on the display screen.
  • (B) is a figure which shows a mode that the big operation screen was displayed on the display screen. It is a figure which illustrates the command table which matched the motion of a user's hand, and the operation command.
  • (A) is a figure which shows a mode that the image of the hand image
  • (B) is a figure which shows a mode that the image of the hand imaged at long distance was displayed.
  • A) is a figure which shows the motion of the hand displayed on the small operation screen.
  • the camera unit 120 includes a camera using a CCD (Charge Coupled Device) image sensor, a camera using a CMOS (Complementary Metal Oxide Semiconductor), and the like.
  • the camera unit 120 is installed at the upper center of the display unit 130.
  • the camera unit 120 is installed so as to capture the facing direction of the display unit 130. Therefore, the camera unit 120 images a user who operates the input device 100 while looking at the display unit 130.
  • the operation command is associated with the movement of the hand.
  • operation start is associated with “hand moves quickly to the left and right” as information for operating the operating system.
  • volume up is associated with “hand moving up”.
  • play is associated with “hand moves to the right”.
  • the acquisition unit 1 acquires the ratio R of the area of the hand image in the area of the entire image corresponding to the image data (step S102). S103). Subsequently, the display control unit 2 determines the distance between the display unit 130 and the imaged hand based on the ratio R of the area of the hand image in the entire image area corresponding to the image data acquired by the acquisition unit 1. Is detected (step S104).
  • the display control unit 2 may display a black circle on the operation screen 131 a instead of the user's hand.
  • the display control unit 2 may move the black circle to the lower right when the user's hand moves to the lower right.
  • the user's own movement may be fed back to the user by changing the black circle to a triangle or square according to the movement of the hand. By doing so, the user can grasp his / her movement by the simplified movement of the graphic, and thus visibility is improved.
  • the determination unit 3 may determine whether or not the movement of a part other than the user's hand matches the gesture associated with the operation command as a gesture. For example, it may be determined whether or not the number of user blinks within a certain period of time matches the gesture associated with the operation command, or whether the body movement matches the gesture associated with the operation command. It may be determined whether or not. Examples of the body movement include an action of standing, sitting, and raising a hand.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 取得部(1)は、表示部(130)とカメラ部(120)で撮像されるユーザとの距離を示す情報を取得する。表示制御部(2)は、取得部(1)によって取得された情報に基づいて大きさを設定した操作画面を、表示部(130)の表示画面内に表示する。判別部(3)は、カメラ部(120)で撮像されたユーザの動き及び形状の少なくとも一方に基づいて、ユーザからの操作指令を判別する。実行部(4)は、判別部(3)によって判別された操作指令に応じた処理を実行する。

Description

入力装置、入力方法及び記録媒体
 本発明は、入力装置、入力方法及び記録媒体に関する。
 ユーザの手の動きに基づいてユーザからの操作指令を判別する、いわゆるハンドジェスチャ装置が知られている。例えば、特許文献1には、テレビに表示された操作画面の中にカメラで撮像したユーザの画像を合成し、操作画面中の被写体の動きによってメニュー項目等の選択を可能にする入力装置が開示されている。
特開2010-257093号公報
 特許文献1の入力装置の場合、操作画面の大きさが常に一定であるために、ユーザがテレビから離れて操作しようとしたときに、操作画面が見づらくなるので、操作しにくいという不都合がある。
 本発明は、上記実情に鑑みてなされたものであり、画面から離れて操作する場合であっても容易に操作できる入力装置、入力方法及び記録媒体を提供することを目的とする。
 本発明の第1の観点に係る入力装置は、
 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部と、
 前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部と、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部と、
 を備える。
 本発明の第2の観点に係る入力方法は、
 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得ステップと、
 前記取得ステップにおいて取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御ステップと、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別ステップと、
 を含む。
 本発明の第3の観点に係る記録媒体に記録されたプログラムは、
 コンピュータを、
 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部、
 前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部、
 として機能させる。
 本発明によれば、画面から離れて操作する場合であっても容易に操作できる。
本発明の実施の形態に係る入力装置の斜視図である。 図1に示す入力装置の機能ブロック図である。 (A)は小さな操作画面を表示画面中に表示した様子を示す図である。(B)は大きな操作画面を表示画面に表示した様子を示す図である。 ユーザの手の動きと操作コマンドとを対応付けたコマンドテーブルを例示する図である。 (A)は近距離で撮像された手の画像を表示した様子を示す図である。(B)は遠距離で撮像された手の画像を表示した様子を示す図である。 (A)は小さな操作画面中に表示した手の動きを示す図である。(B)は大きな操作画面中に表示した手の動きを示す図である。 実施の形態に係る入力処理を説明するためのフローチャートである。 (A)は手とカメラとの距離が近い場合に認識できる方向を示す図である。(B)は手とカメラとの距離が遠い場合に認識できる方向を示す図である。 手の動きに同期して図形が変化する様子を示す図である。 手の動きに同期して図形が移動する様子を示す図である。
 以下、本実施の形態の入力装置100について図面を参照しながら説明する。
 入力装置100は、ユーザの手の動きに基づいて、ユーザからの操作指令を判別する機能を備える。入力装置100は、例えば、パーソナルコンピュータである。図1は、入力装置100の外観を示す。入力装置100は、図1に示すように、操作部110と、カメラ部120と、表示部130と、本体部140と、音声出力部150とを備える。
 操作部110は、キーボード等の入力デバイスを備える。操作部110は、ユーザによる処理開始命令等の操作入力を受け取って本体部140に出力する。
 カメラ部120は、CCD(Charge Coupled Device)イメージセンサを用いたカメラやCMOS(Complementary Metal Oxide Semiconductor)を用いたカメラ等を備える。カメラ部120は、表示部130の上部中央に設置されている。カメラ部120は、表示部130の対面方向を撮像するように設置されている。このため、カメラ部120は、表示部130を見ながら入力装置100を操作するユーザを撮像する。
 表示部130は、液晶ディスプレイ等の表示装置を備える。表示部130は、各種画像を表示装置の表示画面内に表示する。表示部130によって表示される各種画像には、操作画面が含まれる。「操作画面」とは、ユーザが入力装置100を操作するためのユーザインターフェースとなる表示画面中の画像等のことである。例えば、操作画面は、カメラ部120で撮像されたユーザ自身や、メニュー項目等を表示するウィンドウ等である。
 本体部140は、入力装置100の本体部分である。本体部140は、ユーザによる処理開始命令等の操作入力に応じて、各種処理を実行する。
 音声出力部150は、スピーカ等を備える。音声出力部150は、本体部140によって実行された処理に応じて、音声等を出力する。
 次に図2を参照して、本体部140の機能構成を説明する。図2に示すように、本体部140は、画像記憶部141と、記憶部142と、制御部143とを備える。
 画像記憶部141は、RAM(Random Access Memory)等のビデオメモリを備え、カメラ部120から出力された画像データを記憶する。当該画像データには、例えば、カメラ部120で撮像されたユーザ等の像に対応する画像データ等が含まれる。
 記憶部142は、RAMやハードディスク等の記憶装置を備える。記憶部142は、操作画面情報142aやコマンドテーブル142b等の各種データを記憶する。
 操作画面情報142aは、例えば、操作画面の位置及び大きさに関する情報である。図3(A)は、操作画面131として、表示画面のおよそ20%を占める長方形の領域に設定された操作画面131aを示す。この場合、操作画面131aに関する操作画面情報142aは、例えば、長方形の1つの頂点の座標(X1,Y1)及びその頂点から長方形の対角線上にある頂点の座標(X2,Y2)である。座標(X1,Y1)及び座標(X2,Y2)によって、操作画面の位置及び大きさが定まる。図3(B)は、操作画面131として、表示画面のおよそ80%を占める長方形の領域に設定された操作画面131bを示す。この場合、操作画面131bに関する操作画面情報142aは、長方形の1つの頂点の座標(X1,Y1)及びその頂点から長方形の対角線上にある頂点の座標(X3,Y3)である。なお、操作画面情報142aは、頂点の座標に限らず、操作画面として設定された領域の重心の座標と重心から領域の端までの距離であってもよい。
 コマンドテーブル142bは、図4に示すように、ユーザの「手の動き」と「操作コマンド」とを対応付けた情報から構成される。ここで「操作コマンド」とは、ソフトウェア同士のインターフェース(以下、「ソフトウェアインターフェース」という)を介して、オペレーティングシステムや音楽再生ソフトウェア等のアプリケーションソフトウェア等に対して出力される情報である。操作コマンドは、例えば、オペレーティングシステムに対する操作のための情報や再生、停止、早送り、スキップ等の音楽再生ソフトウェア等を操作するための情報である。
 図4では、操作コマンドが手の動きに対応付けられている。例えば、オペレーティングシステムに対する操作のための情報として、「手が素早く左右に移動」に対して「操作開始」が対応付けられている。また、音楽再生ソフトウェアを操作するための情報として、「手が上に移動」に対して「音量アップ」が対応付けられている。また、「手が右に移動」に対して「再生」が対応付けられている。
 制御部143は、プロセッサ等を備え、記憶部142に記憶されているプログラムに従って動作し、ユーザによる処理開始命令等の操作入力に応じて種々の処理を実行する。制御部143は、操作部110より処理開始命令が出力されると、カメラ部120に対して撮像の開始を命令する。この命令を受けて、カメラ部120は、逐次、撮像した画像を画像記憶部141に出力する。制御部143は、表示部130を制御して、各種画像を表示させる。
 また、制御部143は、操作部110より処理開始命令が出力されると、音楽再生ソフトウェア等のアプリケーションソフトウェアを実行するとともに、ソフトウェアインターフェースを介してアプリケーションソフトウェアに操作コマンドを入力するための入力処理を開始する。
 制御部143は、取得部1と、表示制御部2と、判別部3と、実行部4として機能する。取得部1は、表示部130(表示装置)又はカメラ120とカメラ120で撮像されるユーザ(被写体)との距離を示す情報を取得する。ここで、カメラ部120は表示部130の上部中央に設置されており、表示部130とユーザとの距離及びカメラ部120とユーザとの距離は、ほぼ同じと考えられるため、取得部1は、表示部130とユーザとの距離を示す情報を取得するものとする。取得部1は、例えば、ユーザとの距離を示す情報として、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rを取得する。表示部130とカメラ部120で撮像されるユーザの手との距離は、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rに比例する。すなわち、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rが大きければ大きいほど、表示部130とユーザの手との距離は近いと言える。
 表示制御部2は、取得部1によって取得された割合Rに基づいて大きさを設定した操作画面131を、表示部130に表示する。例えば、操作画面131の大きさの設定では、表示制御部2は、取得部1によって取得された割合Rに基づいて、表示部130とユーザとの距離を検出する。例えば、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rが5%であれば、表示制御部2は、表示部130と手との距離を3mとして検出する。また、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rが10%であれば、表示制御部2は、表示部130と手との距離を1mとして検出する。
 表示制御部2は、取得部1によって取得された割合Rによって示される距離が遠くなるに従って操作画面131をより大きくする。例えば、表示制御部2は、検出した距離が所定の閾値より小さいときは、小さな操作画面131aを設定する。一方、表示制御部2は、検出した距離が所定の閾値より大きいときは、大きな操作画面131bを設定する。表示制御部2によって設定された操作画面131に対応するデータは、表示部130に出力され、表示装置の表示画面内に表示される。
 表示制御部2は、操作画面131に表示する画像データを、画像記憶部141から最新の画像データとして取得する。表示制御部2は、操作画面131の大きさに合わせて取得した画像データを加工処理して操作画面を設定する。表示制御部2は、画像データから手の画像データとして、例えば、手を囲む最小の四角形の4辺それぞれに一定の幅を加えた範囲の画像に対応する画像データを切り出す。表示制御部2は、切り出した画像データを、操作画面131の大きさに合わせて拡大又は縮小して操作画面131に表示する画像として設定する。これにより、操作画面131として操作画面131aが設定された場合には、図5(A)に示すように、操作画面131aに手の画像が表示される。また、操作画面131として操作画面131bが設定された場合には、図5(B)に示すように、操作画面131bに手の画像が表示される。
 表示制御部2は、随時、操作画面131を更新する。例えば、表示制御部2は、カメラ部120で撮像されたユーザのジェスチャ(動き及び形状の少なくとも一方)に応じて操作画面131を変化させる。表示制御部2は、随時、画像データから手の画像データを切り出し、設定した画像に対応する画像データを表示部130に出力することで操作画面131を変化させる。
 判別部3は、カメラ部120で撮像されたユーザのジェスチャに基づいて、ユーザからの操作指令を判別する。まず、判別部3は、画像データに人の手の像が含まれているか否かを判別する。例えば、記憶部142は、人の手の像の特徴を抽出したパターンデータを予め記憶している。判別部3は、そのパターンデータと画像データとを照合することによって、画像データに人の手の像が含まれているか否かを判別する。
 次に判別部3は、カメラ部120で撮像されたユーザのジェスチャが、操作指令に対応付けられたジェスチャに一致するか否かを判別する。例えば、判別部3は、ユーザのジェスチャとして、カメラ部120で撮像されたユーザの手のジェスチャが、操作指令に対応付けられたジェスチャに一致するか否かを判別する。判別部3は、手のジェスチャを判別するために、例えば、手の像の動きを認識する。この場合、判別部3は、随時、画像データ中の手の重心として、画像データ中の手の画像に対応する全画素の位置座標の平均を算出する。その重心が一定時間内に左右に所定の幅以上移動した場合、判別部3は、手が左右に素早く移動したと認識する。前記カメラで撮像された前記被写体の手の動きに基づいて、前記被写体からの操作指令を判別する、
 また、判別部3は、手の重心と画像データ中の全画素の位置座標の平均である画像の中心との距離を、逐次、算出してユーザの手の像の動きを認識するようにしてもよい。例えば、算出した距離が所定の閾値以上になったら、判別部3は、ユーザの手が移動したと認識する。このとき、手の重心と画像の中心とを結ぶ直線が、図6(A)に示すように、左斜め下45°から左斜め上45°の範囲に入っていたら、判別部3は、手が左方向へ移動したと認識する。また、手の重心と画像の中心とを結ぶ直線が、図6(B)に示すように、左斜め上45°から右斜め上45°の範囲に入っていたら、判別部3は、手が上方向へ移動したと認識する。同様に、手の重心と画像の中心とを結ぶ直線が、右斜め上45°から右斜め下45°の範囲に入っていたら、判別部3は、手が右方向へ移動したと認識する。手の重心と画像の中心とを結ぶ直線が、右斜め下45°から左斜め下45°の範囲に入っていたら、判別部3は、手が下方向へ移動したと認識する。
 このようにしてユーザの手の動きを認識したら、判別部3は、コマンドテーブル142bを参照し、認識した手の動きに対応する操作コマンドを、ユーザからの操作指令として判別する。例えば、手が左右に素早く移動したと認識した場合、判別部3は、「手が左右に素早く移動」に対応付けられた操作コマンド「操作開始」をユーザからの操作指令として判別する。また、手が右に移動したと認識した場合、判別部3は、「手が右に移動」に対応付けられた操作コマンド「再生」をユーザからの操作指令として判別する。また、手が上に移動したと認識した場合、判別部3は、「手が上に移動」に対応付けられた操作コマンド「音量アップ」をユーザからの操作指令として判別する。
 ユーザからの操作指令を判別した場合、制御部143は、ユーザから操作指令を受け取ったことを示す情報として、例えば、イラストやメッセージを表示部130に表示する。
 実行部4は、判別部3によって判別された操作指令に応じた処理を実行する。実行部4は、操作コマンドを、音楽再生ソフトウェア等のアプリケーションソフトウェアにソフトウェアインターフェースを介して出力する。例えば、操作コマンドが「再生」の場合、実行部4は、音楽再生ソフトウェア等のアプリケーションソフトウェアを介して所定の音声データ等を再生する。これにより、音声出力部150は、音声データに対応する音声を出力する。また、操作コマンドが「音量アップ」の場合、実行部4は、音楽再生ソフトウェア等のアプリケーションソフトウェアを介して音量を上げる。これにより、音声出力部150は、出力する音声の音量を上げる。
 次に、入力装置100の動作について説明する。以下、図7のフローチャートを参照して入力処理について説明する。
 制御部143は、画像記憶部141から最新の画像データを取得する(ステップS101)。
 判別部3は、画像データに人の手の像が含まれているか否かを判別する(ステップS102)。画像データに人の手の像が含まれていない場合(ステップS102:NO)、制御部143は、ステップS101に戻る。
 画像データに人の手の像が含まれている場合(ステップS102:YES)、取得部1は、画像データに対応する画像全体の面積に占める手の画像の面積の割合Rを取得する(ステップS103)。続いて、表示制御部2は、取得部1によって取得された画像データに対応する画像全体の面積に占める手の画像の面積の割合Rに基づいて、表示部130と撮像される手との距離を検出する(ステップS104)。
 次に、表示制御部2は、検出した距離に基づいて操作画面の大きさを設定する(ステップS105)。表示制御部2は、表示部130に設定された大きさの操作画面131を、表示部130を介して表示する(ステップS106)。
 表示制御部2は、画像記憶部141から最新の画像データを取得し、図5に示すように、操作画面131に、取得した画像データに対応する手の画像を表示する(ステップS107)。
 次に、判別部3は、ユーザのジェスチャを認識して、操作開始が指令されたか否かを判別する(ステップS108)。
 制御部143は、操作開始が指令されるまで待つ(ステップS108;No)。操作開始が指令された場合(ステップS108:YES)、制御部143は、ユーザから操作開始の指令を受け取ったことを示す情報として、例えば、イラストやメッセージ等の操作開始を示す画像を、表示部130を介して表示する(ステップS109)。
 判別部3は、画像データに対応する手の像が移動するまで待つ(ステップS110;NO)。手の像が移動すると(ステップS110;YES)、判別部3は、認識した手の像の移動した方向に対応付けられた操作コマンドに応じた処理を実行する(ステップS111)。
 本実施の形態によれば、ユーザが入力装置100から遠い位置にいるときは、入力装置100は、表示部130に大きな操作画面131bを表示するので、ユーザは遠い位置からでも確実に自分の動きを確認できる。そのため、ユーザは、自分の動作を確認しながら、容易にアプリケーションソフトウェア等の操作をすることができる。
 また、ユーザが入力装置100の近くにいるときは、入力装置100は、表示部130に小さな操作画面131aを表示するので、ユーザは、アプリケーションソフトウェア等の操作中も、操作画面131に邪魔されることなく、有効に画面を使用することができる。
 なお、判別部3は、カメラ部120で撮像されたユーザのジェスチャの違いによって複数個の操作指令を判別してもよい。このとき、判別部3は、表示制御部2によって検出された距離が近くなるに従って、より多くの操作指令を判別するようにしてもよい。例えば、判別部3は、表示制御部2によって検出された距離が所定の閾値より短い場合は、図8(A)に示すように、操作画面131aを画面の中心から放射線状に8分割し、上下左右に、斜め方向を加えた8方向への手の動きを認識する。これに対して、表示制御部2によって検出された距離が所定の閾値より長い場合には、判別部3は、図8(B)に示すように、上下左右4方向への手の動きを認識する。これにより、手がカメラ部120の近くにあって細かな動きを捉えることができる場合は、より多くの動きに対応付けられた操作コマンドを判別できる。こうすることで、より多く操作入力が可能になる。また、手がカメラ部120から離れていて細かな動きを捉えることができない場合は、より少ない動きに対応付けられた操作コマンドを判別すればよい。こうすることで、認識する手の動きが絞られ、誤った操作入力を低減することが可能になる。
 また、本実施の形態では、表示制御部2は、操作画面131にカメラ部120で撮像したユーザの画像を表示するようにした。こうすることで、ユーザにユーザ自身の動きをフィードバックでき、ユーザは自身の動きを確認しながら操作入力を行うことができる。ここで、操作画面131に表示する画像は、カメラ部120で撮像した画像に限られない。表示制御部2は、操作画面131の中に図形を表示し、カメラ部120で撮像された撮像されたユーザの手の動きに同期して図形を変化させるようにしてもよい。例えば、図9に示すように、表示制御部2は、操作画面131aの中に手の像の移動方向に対応する8種類の矢印を表示してもよい。この場合、ユーザの手が、例えば、左斜め上に移動したら、左斜め上の矢印の色または濃淡を変化させてもよい。また、例えば、図10に示すように、表示制御部2は、操作画面131aにユーザの手の代わりに黒丸を表示してもよい。この場合、表示制御部2は、ユーザの手が、例えば、右斜め下に移動したら、右斜め下に黒丸を移動させてもよい。その他、手の動きにあわせて黒丸を三角や四角に変化させることによって、ユーザにユーザ自身の動きをフィードバックしてもよい。このようにすることで、ユーザは簡略化された図形の動きによって自身の動きを捉えられるので、視認性が高まる。
 また、本実施の形態では、判別部3は、カメラ部120で撮像されたユーザの手の動きに基づいて、ユーザからの操作指令を判別した。本発明はこれに限らず、判別部3は、ユーザの手の形状に基づいて、ユーザからの操作指令を判別してもよい。
 例えば、記憶部142が手を開いた形状のパターンデータ、手を握った形状のパターンデータ、人差し指と中指のみを立てた形状のパターンデータを記憶しておき、判別部3は、そのパターンデータに基づいて画像データ中の手の形状を認識する。そして、判別部3は、認識した手の形状に基づいて、例えば、手が開いた形状のときは“再生”コマンド、手を握った形状のときは“停止”コマンド、人差し指と中指のみを立てた形状のときは“スキップ”コマンド、を操作指令として判別する。こうすることで、手の形状によっても操作入力できるので、操作入力のバリエーションが増える。
 また、判別部3は、ジェスチャとして、ユーザの手以外の部位の動きが操作指令に対応付けられたジェスチャに一致するか否かを判別してもよい。例えば、一定時間内のユーザのまばたきの回数が操作指令に対応付けられたジェスチャに一致するか否かを判別してもよいし、体の動きが操作指令に対応付けられたジェスチャに一致するか否か判別してもよい。体の動きとしては、例えば、立ったり、座ったり、手を挙げたりする動作がある。
 また、表示制御部2は、取得部1によって取得された画像データに対応する画像全体の面積に占める手の画像の面積の割合Rに基づいて、表示部130とユーザとの距離を検出したが、他の手法を使用して距離を検出してもよい。例えば、取得部1が画像データ中のユーザの顔を認識し、認識した顔から目と目の間距離(以下「目間距離」という)を取得する。このとき、表示制御部2は、取得部1によって取得された目間距離に基づいて、表示部130とユーザとの距離を検出してもよい。また、表示部130に赤外線センサや超音波センサ等の距離計測用のセンサを取り付けて、取得部1が距離計測用のセンサの計測値を取得するようにした場合、表示制御部2は、距離計測用のセンサの計測値に基づいて、表示部130とユーザとの距離を検出してもよい。また、入力装置100に2つのカメラを備えておき、表示制御部2は、取得部1によって取得された2台のカメラの画像の差から、例えば、三角法によって表示部130とユーザとの距離を検出してもよい。
 また、操作画面情報142aに保持される操作画面131の大きさは、小さな操作画面131aと大きな操作画面131bとの2通りに限られず、例えば、3通り以上の大きさの異なる操作画面131であってもよい。また、表示制御部2は、随時、表示部130とユーザとの距離を検出し、その検出した距離に応じて、表示制御部2は、例えば、距離を操作画面131の縦の辺の長さ又は横の辺の長さに変換する等して、操作画面131を、拡大又は縮小するようにしてもよい。
 本実施の形態の入力装置100は、専用のシステムにより実現してもよいし、通常のコンピュータシステムにより実現してもよい。例えば、上述の動作を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に格納して配布し、該プログラムをコンピュータにインストールして、上述の処理を実行することによって入力装置100を構成してもよい。また、インターネット等のネットワーク上のサーバ装置が備えるディスク装置に格納しておき、例えばコンピュータにダウンロード等できるようにしてもよい。また、上述の機能を、OS(Operating System)とアプリケーションソフトウェアとの共同により実現してもよい。この場合には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等してもよい。
 上記プログラムを記録する記録媒体としては、USBメモリ、フレキシブルディスク、CD、DVD、Blu-ray Disc(登録商標)、MO、SDカード、メモリースティック(登録商標)、その他、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ、磁気テープ等のコンピュータ読取可能な記録媒体を使用することができる。また、ハードディスクやSSD(ソリッドステートドライブ)等、通常、システム又は装置に固定して使用する記録媒体を使用することもできる。
 本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
 上記の実施の形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
 (付記1)
 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部と、
 前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部と、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部と、
 を備える入力装置。
 (付記2)
 前記表示制御部は、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に応じて操作画面を変化させる、
 ことを特徴とする付記1に記載の入力装置。
 (付記3)
 前記表示制御部は、
 前記取得部で取得された情報によって示される距離が遠くなるに従って操作画面をより大きくする、
 ことを特徴とする付記1又は2に記載の入力装置。
 (付記4)
 前記判別部は、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
 前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別する、
 ことを特徴とする付記1乃至3のいずれか一つに記載の入力装置。
 (付記5)
 前記表示制御部は、
 操作画面の中に図形を表示し、
 前記カメラで撮像された前記被写体の動きに同期して前記図形を変化させる、
 ことを特徴とする付記1乃至4のいずれか一つに記載の入力装置。
 (付記6)
 前記表示制御部は、
 前記表示装置又はカメラと前記カメラで撮像される前記被写体の手との距離を検出し、
 前記判別部は、
 前記カメラで撮像された前記被写体の手の動きに基づいて、前記被写体からの操作指令を判別する、
 ことを特徴とする付記1乃至5のいずれか一つに記載の入力装置。
 (付記7)
 前記判別部は、
 前記カメラで撮像される前記被写体の手の形状に基づいて、前記被写体からの操作指令を判別する、
 ことを特徴とする付記6に記載の入力装置。
 (付記8)
 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得ステップと、
 前記取得ステップにおいて取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御ステップと、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別ステップと、
 を含む入力方法。
 (付記9)
 コンピュータを、
 表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部、
 前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部、
 前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部、
 として機能させるプログラムを記録した記録媒体。
 本発明は、2011年4月27日に出願された日本国特許出願2011-100216号に基づく。本明細書中に日本国特許出願2011-100216号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
 本発明は、ユーザのジェスチャによってデータを入力する入力装置、入力方法及び記録媒体に好適である。
 1 取得部
 2 表示制御部
 3 判別部
 4 実行部
 100 入力装置
 110 操作部
 120 カメラ部
 130 表示部
 140 本体部
 141 画像記憶部
 142 記憶部
 143 制御部
 142a 操作画面情報
 142b コマンドテーブル
 150 音声出力部

Claims (9)

  1.  表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部と、
     前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部と、
     前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部と、
     を備える入力装置。
  2.  前記表示制御部は、
     前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に応じて操作画面を変化させる、
     ことを特徴とする請求項1に記載の入力装置。
  3.  前記表示制御部は、
     前記取得部で取得された情報によって示される距離が遠くなるに従って操作画面をより大きくする、
     ことを特徴とする請求項1又は2に記載の入力装置。
  4.  前記判別部は、
     前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方の違いによって複数個の操作指令を判別し、
     前記取得部で取得された情報によって示される距離が近くなるに従って、より多くの操作指令を判別する、
     ことを特徴とする請求項1乃至3のいずれか一項に記載の入力装置。
  5.  前記表示制御部は、
     操作画面の中に図形を表示し、
     前記カメラで撮像された前記被写体の動きに同期して前記図形を変化させる、
     ことを特徴とする請求項1乃至4のいずれか一項に記載の入力装置。
  6.  前記表示制御部は、
     前記表示装置又はカメラと前記カメラで撮像される前記被写体の手との距離を検出し、
     前記判別部は、
     前記カメラで撮像された前記被写体の手の動きに基づいて、前記被写体からの操作指令を判別する、
     ことを特徴とする請求項1乃至5のいずれか一項に記載の入力装置。
  7.  前記判別部は、
     前記カメラで撮像される前記被写体の手の形状に基づいて、前記被写体からの操作指令を判別する、
     ことを特徴とする請求項6に記載の入力装置。
  8.  表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得ステップと、
     前記取得ステップにおいて取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御ステップと、
     前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別ステップと、
     を含む入力方法。
  9.  コンピュータを、
     表示装置又はカメラと前記カメラで撮像される被写体との距離を示す情報を取得する取得部、
     前記取得部によって取得された情報に基づいて大きさを設定した操作画面を、表示装置の表示画面内に表示する表示制御部、
     前記カメラで撮像された前記被写体の動き及び形状の少なくとも一方に基づいて、被写体からの操作指令を判別する判別部、
     として機能させるプログラムを記録した記録媒体。
PCT/JP2012/061469 2011-04-27 2012-04-27 入力装置、入力方法及び記録媒体 WO2012147959A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP12776042.9A EP2703971A4 (en) 2011-04-27 2012-04-27 INPUT DEVICE, INPUT METHOD AND RECORDING MEDIUM
US14/112,147 US9323339B2 (en) 2011-04-27 2012-04-27 Input device, input method and recording medium
CN201280020412.0A CN103608761B (zh) 2011-04-27 2012-04-27 输入设备、输入方法以及记录介质
KR1020137028074A KR101514170B1 (ko) 2011-04-27 2012-04-27 입력 장치, 입력 방법 및 기록 매체
JP2013512492A JP5769277B2 (ja) 2011-04-27 2012-04-27 入力装置、入力方法及びプログラム
IL229042A IL229042A (en) 2011-04-27 2013-10-24 Input device, input method and recording device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011100216 2011-04-27
JP2011-100216 2011-04-27

Publications (1)

Publication Number Publication Date
WO2012147959A1 true WO2012147959A1 (ja) 2012-11-01

Family

ID=47072470

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/061469 WO2012147959A1 (ja) 2011-04-27 2012-04-27 入力装置、入力方法及び記録媒体

Country Status (7)

Country Link
US (1) US9323339B2 (ja)
EP (1) EP2703971A4 (ja)
JP (1) JP5769277B2 (ja)
KR (1) KR101514170B1 (ja)
CN (1) CN103608761B (ja)
IL (1) IL229042A (ja)
WO (1) WO2012147959A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (ja) * 2012-02-08 2013-08-19 Sharp Corp データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム
WO2015034973A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic displays based on user interaction states
JP2016038840A (ja) * 2014-08-11 2016-03-22 シャープ株式会社 通信装置、通信装置の制御方法および通信装置の制御プログラム
JP2017526061A (ja) * 2014-07-30 2017-09-07 サムスン エレクトロニクス カンパニー リミテッド ウェアラブルデバイス、及びウェアラブルデバイスの動作方法
US10437346B2 (en) 2014-07-30 2019-10-08 Samsung Electronics Co., Ltd Wearable device and method of operating the same
JP2021073579A (ja) * 2015-02-25 2021-05-13 京セラ株式会社 電子機器、方法及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
CN113253837A (zh) * 2021-04-01 2021-08-13 作业帮教育科技(北京)有限公司 空中书写方法、装置、线上直播系统和计算机设备
US20240061496A1 (en) * 2022-08-19 2024-02-22 Mobeus Industries, Inc. Implementing contactless interactions with displayed digital content

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123612A (ja) * 1994-10-25 1996-05-17 Hitachi Ltd 位置入力方法およびそれを用いた会議支援システム
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2008282131A (ja) * 2007-05-09 2008-11-20 Victor Co Of Japan Ltd 電子機器の制御装置
JP2010257093A (ja) 2009-04-23 2010-11-11 Hitachi Ltd 入力装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3903968B2 (ja) * 2003-07-30 2007-04-11 日産自動車株式会社 非接触式情報入力装置
JP2004078977A (ja) * 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
JP4142073B2 (ja) * 2006-10-13 2008-08-27 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
JP2008129775A (ja) * 2006-11-20 2008-06-05 Ntt Docomo Inc 表示制御装置、表示装置、表示制御方法
EP1950957A2 (en) 2007-01-23 2008-07-30 Funai Electric Co., Ltd. Image display system
US8230367B2 (en) * 2007-09-14 2012-07-24 Intellectual Ventures Holding 67 Llc Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
JP4569613B2 (ja) 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8514251B2 (en) 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
JP2010067104A (ja) * 2008-09-12 2010-03-25 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US20100251171A1 (en) * 2009-03-31 2010-09-30 Parulski Kenneth A Graphical user interface which adapts to viewing distance
JP5423183B2 (ja) * 2009-07-03 2014-02-19 ソニー株式会社 表示制御装置および表示制御方法
JP5614014B2 (ja) * 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123612A (ja) * 1994-10-25 1996-05-17 Hitachi Ltd 位置入力方法およびそれを用いた会議支援システム
JPH08315154A (ja) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc ジェスチャ認識システム
JP2008282131A (ja) * 2007-05-09 2008-11-20 Victor Co Of Japan Ltd 電子機器の制御装置
JP2010257093A (ja) 2009-04-23 2010-11-11 Hitachi Ltd 入力装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2703971A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (ja) * 2012-02-08 2013-08-19 Sharp Corp データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム
WO2015034973A1 (en) * 2013-09-09 2015-03-12 Microsoft Corporation Dynamic displays based on user interaction states
JP2017526061A (ja) * 2014-07-30 2017-09-07 サムスン エレクトロニクス カンパニー リミテッド ウェアラブルデバイス、及びウェアラブルデバイスの動作方法
US10437346B2 (en) 2014-07-30 2019-10-08 Samsung Electronics Co., Ltd Wearable device and method of operating the same
JP2016038840A (ja) * 2014-08-11 2016-03-22 シャープ株式会社 通信装置、通信装置の制御方法および通信装置の制御プログラム
JP2021073579A (ja) * 2015-02-25 2021-05-13 京セラ株式会社 電子機器、方法及びプログラム

Also Published As

Publication number Publication date
EP2703971A1 (en) 2014-03-05
JP5769277B2 (ja) 2015-08-26
CN103608761B (zh) 2018-07-27
US20140035813A1 (en) 2014-02-06
KR101514170B1 (ko) 2015-04-21
EP2703971A4 (en) 2014-11-12
JPWO2012147959A1 (ja) 2014-07-28
IL229042A0 (en) 2013-12-31
CN103608761A (zh) 2014-02-26
US9323339B2 (en) 2016-04-26
KR20140002009A (ko) 2014-01-07
IL229042A (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP5769277B2 (ja) 入力装置、入力方法及びプログラム
JP5659510B2 (ja) 画像処理装置、画像処理方法及びプログラム
US8022997B2 (en) Information processing device and computer readable recording medium
KR101660576B1 (ko) 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진
US10860857B2 (en) Method for generating video thumbnail on electronic device, and electronic device
JP2018517984A (ja) 画像領域を選択して追跡することによるビデオ・ズームのための装置および方法
JP5360166B2 (ja) 画像表示装置
US9179090B2 (en) Moving image recording device, control method therefor, and non-transitory computer readable storage medium
JP2013069224A (ja) 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
JP2010134738A (ja) 端末装置、表示制御方法および表示制御プログラム
KR20140002007A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
WO2015159548A1 (ja) 投影制御装置、投影制御方法及び投影制御プログラムを記録した記録媒体
JP2015508211A (ja) カメラモジュールを通じてユーザの頭部を追跡することによりスクリーンを制御する方法及び装置、並びにそのコンピュータ可読記録媒体
JP6176991B2 (ja) 情報処理装置およびその制御方法およびプログラム
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
KR20150139159A (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
EP2712176B1 (en) Method and apparatus for photography
US20190012129A1 (en) Display apparatus and method for controlling display apparatus
JP5733956B2 (ja) 撮像装置及びその制御方法、動画記録装置並びにその制御方法、プログラム、並びに記憶媒体
US11430487B2 (en) Display control apparatus and control method for controlling the same
CA2935233A1 (en) Universal capture
US10212382B2 (en) Image processing device, method for controlling image processing device, and computer-readable storage medium storing program
US20130127841A1 (en) Three-dimensional (3d) image display method and apparatus for 3d imaging and displaying contents according to start or end of operation
US20230291998A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium storing program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12776042

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14112147

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012776042

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013512492

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20137028074

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE