JP5256109B2 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
JP5256109B2
JP5256109B2 JP2009104641A JP2009104641A JP5256109B2 JP 5256109 B2 JP5256109 B2 JP 5256109B2 JP 2009104641 A JP2009104641 A JP 2009104641A JP 2009104641 A JP2009104641 A JP 2009104641A JP 5256109 B2 JP5256109 B2 JP 5256109B2
Authority
JP
Japan
Prior art keywords
display
movement
user
motion
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009104641A
Other languages
English (en)
Other versions
JP2010257093A5 (ja
JP2010257093A (ja
Inventor
孝志 松原
友哉 尾崎
竜也 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009104641A priority Critical patent/JP5256109B2/ja
Priority to US12/760,596 priority patent/US9164578B2/en
Priority to EP10250809.0A priority patent/EP2244166B1/en
Priority to KR1020100037248A priority patent/KR101148484B1/ko
Priority to CN201510486457.2A priority patent/CN105159445B/zh
Priority to CN2010101673871A priority patent/CN101901050A/zh
Publication of JP2010257093A publication Critical patent/JP2010257093A/ja
Publication of JP2010257093A5 publication Critical patent/JP2010257093A5/ja
Application granted granted Critical
Publication of JP5256109B2 publication Critical patent/JP5256109B2/ja
Priority to US14/869,111 priority patent/US9411424B2/en
Priority to US15/203,919 priority patent/US11036301B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Description

本発明は、入力装置に関する。
グラフィカルユーザインタフェース(以下、GUI)を介して、ユーザ(操作者)の操作を受け付けると同時にユーザに操作結果のフィードバックを与えるパソコンやテレビが普及している。
特許文献1では、ユーザの操作を支援するための操作ガイダンス情報を示す携帯端末が開示される。ユーザは、当該ガイダンスに従い、手指を上下左右に動かして、目的の機能を実行することができる。
特許文献2では、ユーザの操作となるジェスチャの認識対象を視覚的に表すためのジェスチャ画像表示を行うインタフェース装置が開示される。ユーザは、ジェスチャ画像を確認しながら、装置の操作を行うことができる。
特許文献3では、ユーザの操作となるジェスチャを表示したアイコンと行える操作を表示する車載機器が開示される。ユーザは、容易に行うべきジェスチャを知ることができる。
特許文献4では、ステアリング上の手の状態と操作対象機器を示す選択ガイド情報を表示する車両用操作入力装置が開示される。ユーザは、当該ガイドを参照して、手を動かして、目的の操作機器を選択することができる。
特開2007-213245号公報 特開2008-52590号公報 特開2001-216069号公報 特開2005-250785号公報
いずれの特許文献も、操作のための動き・ポーズが表示され、ユーザは、これらに従って、所定の装置に関する動作を実行することが開示されている。
しかしながら、ユーザが、操作のために、所定の動きをしたり、所定のポーズをとろうとする際、所定の動き、所定のポーズに至るまでに、たまたま、無意識に行う別の動き、別のポーズが、操作のためのものと認識されてしまい、意図しない装置に関する動作が実行されてしまう恐れがある。
例えば、ユーザが、表示されたコンテンツを右方向に動かすために、手を右方向に動かそうとする際、右方向にあった手を左方向に戻す動きが、コンテンツを左方向に動かすための操作であると認識され、実行されてしまう恐れがある。
つまり、いずれの特許文献も、ユーザが操作のためのジェスチャを行う際に、ユーザの動きの一つ一つが、認識されている状態なのかどうかをユーザに直感的に理解させることは考慮されていない。
そこで、本発明は、かかる事情を考慮した上で、ユーザが操作時に行う動きがどう認識されているのかを知らしめ、意図しない操作がされないようにした、使い勝手の良い入力装置を提供することを目的とする。
上記課題を解決するために、本発明の一実施の態様は、例えば特許請求の範囲に記載された技術的思想を用いる
本発明によれば、例えば、ユーザがジェスチャでテレビ等の装置の操作を行おうとした場合に、ユーザは今自分が行っているジェスチャが、どう認識されているのかを知り、意図した操作のみが行われるように、ジェスチャを行うことができる。
実施例1の入力装置を示す概観図である。 実施例1の入力装置の構成を示すブロック図である。 実施例1の入力装置のユーザの操作方法を示す概観図である。 実施例1のユーザ操作と入力装置の動作の対応を説明する概観図である。 実施例1の入力装置の動作を説明する流れ図である。 実施例1のユーザ操作と入力装置の動作の対応を説明する概観図である。 実施例2の入力装置のユーザの操作方法を示す概観図である。 実施例2のユーザ操作と入力装置の動作の対応を説明する概観図である。 実施例2のユーザ操作と入力装置の動作の対応を説明する概観図である。 実施例3のユーザ操作と入力装置の動作の対応を説明する概観図である。
以下、本発明を適用した各実施例について説明する。
本実施例の入力装置100は、ユーザを撮像した動画像からユーザの手の動作を検出し、該動作に応じてGUIの表示を変更することが可能な装置である。
図1は、表示部101、撮像部102、ユーザ103、操作ガイド104により入力装置100をユーザが使用する際の動作環境の概観を示す。
表示部101は、入力装置100の表示装置であり、例えば、液晶ディスプレイやプラズマディスプレイ等の表示装置で構成される。表示部101は、表示パネルとパネル制御回路とパネル制御ドライバとから構成され、後述する映像信号処理部202から供給される映像データを該表示パネルに表示する。撮像部102は、入力装置100に動画像を入力するための装置であり、たとえばカメラである。ユーザ103は、入力装置100に対して操作を行うユーザである。操作ガイド104は表示部101に表示されるGUIであり、前記ユーザ103に前記入力装置100の操作方法を説明するための文字や図である。
入力装置100は、例えば図2に示すように、表示部101、撮像部102、動作検出(動き検出)部200、制御部201、映像信号処理部202、を備える。
動作検出(動き検出)部200は、撮像部102から動画像信号を受信し、受信した動画像信号より、例えば人物が手を差し出した、手を振った、手を回した等の、人物の動作を検出する。さらに、検出した動作に応じて該動作に対応する所定のコマンドを出力する。制御部201は例えばマイクロプロセッサから構成され、動作検出(動き検出)部200から受信した前記コマンドに応じて、映像信号処理部202の動作を制御する。映像信号処理部202は、例えば、ASIC、FPGA、MPU等の処理装置により構成される。映像信号処理部202は、制御部201の制御に従いGUIの映像データを、表示部101で処理可能な形態に変換して出力する。
図3は、本発明の入力装置100をユーザ103が操作する際のユーザ103の動作と前記表示部101の動作及び表示の対応を示す。図3の「通常状態」の図は、ユーザ103が入力装置100の操作をしていない状態を示している。本実施例の入力装置100は、ユーザ103が手を左右に振る動作300を認識し、手を左右に振る動作300の認識をきっかけとして、入力装置100がユーザ103の操作の受け入れを開始する構成となっている。従って、図3の「開始操作」の図に示すように、ユーザ103が入力装置100に向かって手を差し出し、さらに差し出した手を左右に振ることにより、図3の「操作状態」の図に示すように前記表示部101に操作用のメニューが表示される。また、該メニューは、操作ホイール301と、複数の選択項目302とで構成されている。ユーザ103が手を回す動作303を行うと、これに連動して該操作ホイール301が回転するとともに、該複数の選択項目302が回転移動する。このようにして、ユーザ103が該選択項目302の任意の項目を選択することができる。
図4は、図3に示した入力装置100をユーザ103が操作する際のユーザ103の動作と前記表示部101の表示の対応を説明する図である。表示の対応として、前記操作ガイド104やアニメーション操作ガイド400の表示方法や表示タイミングがある。アニメーション操作ガイド400は、前記表示部101に表示されたメニューを操作する方法を、動きのある画像でユーザに説明する操作ガイドである。
次に、入力装置100の動作を、図1ないし図4、及び、図5のフローチャートを用いて説明する。
入力装置100は、ユーザ103を撮像した動画像信号からユーザ103の手の動作を検出し、該動作に応じてGUIの表示を変更することが可能な装置である。
まず、入力装置100がユーザ103の手の動きを検出し、該動作に応じてGUIを表示するまでの処理の流れについて、図2を参照して説明する。ユーザ103が、入力装置100に対し、図示しない電源ボタンの押下等により、入力装置100の動作を開始させたとする。制御部201は前記動作の開始に応答して、映像信号処理部202に所定の映像を表示する指示を与える。映像信号処理部202は前記指示に応答して、表示部101の入力に適した映像信号を出力する。これにより、表示部101には映像が表示される。
また、制御部201は前記動作の開始に応答して、撮像部102に対して動画像の撮像の開始を指示する。撮像部102は前記指示に応答して、動画像の撮像を開始し、撮像した動画像のデータを動作検出(動き検出)部200に出力する。動作検出(動き検出)部200は受信した前記動画像のデータから特徴点抽出などの方法を用いてユーザの手の動きを検出し、さらに、該手の動きが予め決められたパターンに従う動きであると判断した場合には、該パターンに応じたコマンドを制御部201に出力する。制御部201は該コマンドに応じてGUIの表示や表示の変更を映像信号処理部202に指示する。映像信号処理部202は前記指示に応答して、出力する映像信号を変更し、これにより表示部101上のGUIの表示が変更される。
次に、入力装置100をユーザ103が操作する際の操作ガイド104及びアニメーション操作ガイド400の表示方法を図4及び図5のフローチャートを用いて説明する。
まず、ユーザ103は所定の手順にて入力装置100の動作を開始させ、入力装置100の制御部201は先に述べた手順で人物の手の動き(ジェスチャ)の認識を開始する(ステップ500)。この時のユーザ103と入力装置100の状態の一例が図4の「通常状態」である。
次に図4の「開始操作ガイド」に示すようにユーザ103が入力装置100に向かって手を差し出したとする(ステップ501:Yes)。入力装置100はユーザ103が手を差し出した動作を認識し、操作ガイド104を表示部101に表示する(ステップ502)。この際に、操作ガイド104はユーザ103が入力装置100の操作を開始する際に行う動作(操作開始用ジェスチャ)である左右に手を振る動作300を説明するガイドとなる。また、ユーザ103が手を下ろすと、入力装置100は操作ガイド104の表示を消す(ステップ501:Noもしくはステップ503:No)。
次に図4の「開始操作」に示すように、ユーザ103が操作ガイド104で説明される内容に従って、入力装置100に向かって左右に手を振る動作300を行ったとする(ステップ503:Yes)。入力装置100は該左右に手を振る動作300を認識し、図4の「アニメーション操作ガイド」に示すように、表示部101に、操作ホイール301と選択項目302とで構成されるジェスチャ操作用メニューを表示する(ステップ504)。さらに、入力装置100は、表示部101に該ジェスチャ操作用メニューの操作方法を説明するために前記アニメーション操作ガイド400を表示する(ステップ505)。この際に、アニメーション操作ガイド400は、撮像される人物を描写し、描写された人物の手が操作ホイール301を触って、操作ホイールとともに手を回転移動するように表示される。これにより、ユーザ103に対し、どの位置でどのような動きをすればどのような操作がなされるのか、どの程度手を動かせばよいのかを直感的に説明することができる。
次に、図4の「操作状態」に示すように、ユーザ103は、アニメーション操作ガイド400の表示に従い、手を回す動作303を行う。(ステップ506:Yes)すると、入力装置100はユーザ103の当該動作を認識し、認識された当該動作に同期した動作をアニメーション操作ガイド400により表示させるとともに、認識された当該動作をジェスチャ操作用メニューに反映する(ステップ507)。すなわち、ユーザが手を回す動作303を行うと、表示画面上でも、アニメーション操作ガイド400で示される人が、操作ホイール301を触る手を回して、操作ホイール301を回転させるとともに、選択項目302を回転させる表示を行う。
このように、アニメーション操作ガイド400は、ステップ505では、ユーザが操作をする前に、ユーザの動作とは無関係にアニメーションが変化する非同期型操作ガイドとして動作する。また、ステップ507では、ユーザが操作を開始した場合に、ユーザ103の動作に同期してアニメーションが変化する同期型操作ガイドとして動作する。(図6参照)
このように、入力装置100は、ユーザ103が手を動かす動作を認識し、該動作に応じて操作ガイド104やアニメーション操作ガイド400を表示し、ユーザ103に対して操作に有効な動作(ジェスチャ)を提示する。これにより、ユーザ103は、どのようなタイミングでどのような動作(ジェスチャ)を行えば所望の操作を行うことができるかを確認することができるため、メニューの表示やメニュー項目の選択等の操作を円滑に行うことができる。
また、上記非同期型操作ガイドは、操作前のユーザに対して、アニメーションを変化させて、どんな動きをすると、どんな操作が行えるのかを理解させるのに有効である。本実施例においては、表示画面内に操作ホイール301と選択項目302が示されるが、このように、操作により、絵、図や画像を移動させるものに対して、どんな動きをしていいか分からないユーザに対して、特に、有効である。
また、上記同期型操作ガイドは、操作後のユーザに対して、ユーザが行う動きをアニメーションで表示させるとともに、実際の操作が行われたり、行われなかったりするため、ユーザの動きの一つ一つが、認識されている状態なのかどうかをユーザに直感的に理解させることができる。このため、ユーザは、自分が意図しない操作が行われないように、動きを修正することができる。
次に、実施例2について説明する。本実施例では、実施例1の入力装置100の操作方法とは異なり、ユーザが両手の動きで入力装置100を操作できるようにした場合の操作方法と操作ガイドの表示方法について説明する。入力装置100の構成は実施例1と同様であり、ユーザの操作方法が異なる。
以下、本実施例を図面に基づいて説明する。また、以下において、先の実施例と同等なものには同一の符合を付し、その説明は割愛する。
図7は、本実施例において入力装置100をユーザが操作する際の、ユーザの手の動きと表示部101に表示されるGUIの状態を示している。表示部101に表示された該操作メニュー700では、擬似的な3次元空間内において円形のテーブルの上に3つの選択項目が配置される。そして、該円形のテーブルが回転することにより画面手前に位置した項目が選択される項目となる。また、該操作メニュー700では、該円形のテーブルの上に手形を重ねた外観をユーザ103に提示することで、ユーザ103にテーブルの上に手を乗せテーブルを回すイメージを与える。ユーザの手の動き701は、ユーザ103が前記操作メニュー700を操作するために、両手を円の軌道に沿って動かしていることを示す。このようにして、ユーザは、両手を円の軌道に沿って動かすことにより、円のテーブルを回転させ、画面手前に選択したい項目を動かすことができる。
本実施例の入力装置100の動作と操作ガイドの表示方法を、図8を用いて説明する。
図8の「メニュー表示」の図は、実施例1と同様の方法でメニューが表示された状態を示している。入力装置100は実施例1と同様の方法でユーザ103の手の動きを認識することが可能である。ユーザ103が入力装置100に対し両手を差し出すと、図8の「アニメーション操作ガイド表示」の図に示すようにアニメーション操作ガイド800を表示する。該アニメーション操作ガイド800は、人物が両手を動かす様子を模擬した画像を表示しており、動きのある画像を用いてユーザ103が操作メニュー700を操作する場合に行うべき動作を示している。次に、ユーザ103が該アニメーション操作ガイド800が説明する動作に従い、操作メニュー700の操作を開始すると、図8の「操作」に示すように該アニメーション操作ガイド800の表示が消え、ユーザ103の動作が操作メニュー700への操作に反映される。
このように、入力装置100は、操作メニュー700の形状や外観でユーザ103に操作方法のイメージを与える。さらに、実際にユーザ103が該イメージに基づく操作を行おうとした際に、より具体的にユーザの操作方法を説明するアニメーション操作ガイド800を提示する。
これにより、ユーザは操作を行うタイミングで、操作に関する具体的なガイドを受けることができる。従って、ユーザ自身が行おうとしている操作が有効であることや、どのような操作方法であるかを理解しながらより円滑にメニュー項目の操作を行うことができる。
なお、前記操作メニュー700は、例えば、図9に示すように、実施例1で説明した操作ホイール301と選択項目302とで構成される操作用メニューとの組合せで構成されていてもよい。本構成では、ユーザ103が入力装置100に対し片手を差し出した場合には、片手操作用のアニメーション操作ガイドが表示される。また、ユーザ103が入力装置100に対し両手を差し出した場合には、両手操作用のアニメーション操作ガイドが表示される。このようにすれば、メニューの形状や外観を介してユーザが複数の操作パターンをイメージできるとともに、実際にユーザが特定の操作を行う場合の操作方法をガイドすることができる。
次に、実施例3について説明する。本実施例では、実施例2の入力装置100において、前記アニメーション操作ガイドを表示せず、前記操作メニュー中で操作が働く箇所に、ユーザの操作イメージを表示させることにより、実施例2と同等の操作方法を実現する入力装置について説明する。
以下、本実施例を図面に基づいて説明する。また、以下において、先の実施例と同等なものには同一の符合を付し、その説明は割愛する
本実施例の入力装置100の動作と操作イメージの表示方法を、図10を用いて説明する。
図10の操作イメージ1000は、ユーザの手をイメージした図である。本図では、前記操作メニュー上の2つの選択項目を手でつかんで、前記操作メニュー700内の円形のテーブルを回転させる操作方法をユーザに提示する。図10の「両手を上げた状態1」のように、ユーザ103が入力装置100に対して両手を差し出すと、操作イメージ1000が表示される。これにより、ユーザ103はユーザ自身が行おうとしている操作が有効な状態になったことや、どのような操作方法であるかを理解することができる。また、図10の「両手を上げた状態2」はユーザ103が同図の「両手を上げた状態1」よりも高い位置に両手を差し出した状態を示している。同図の「両手を上げた状態2」においても、操作イメージ1000の表示状態は同図の「両手を上げた状態1」と同じである。従って、ユーザ103は、手を出す位置に依存せず、両手を出してさえいれば、入力装置100は同じ動作であると認識することができる。
このように、入力装置100は、ユーザ103の動作位置が異なる場合の動作のばらつきに依存せずに、単純な動作に応じて、操作メニュー上で実際に操作が働く箇所に操作イメージ1000を表示する。これにより、ユーザは、操作を行う場合に、実際に操作可能な状態になったことを理解すると同時に操作メニュー上で操作が働く箇所を確認し、正確さを必要としない動作で操作を行うことができる。
100・・・入力装置、
101・・・表示部、
102・・・撮像部、
103・・・ユーザ、
104・・・操作ガイド、
200・・・動作検出(動き検出)部、
201・・・制御部、
202・・・映像信号処理部、
300・・・左右に手を振る動作、
301・・・操作ホイール、
302・・・選択項目、
303・・・手を回す動作、
400・・・アニメーション操作ガイド、
700・・・操作メニュー、
701・・・手の動き、
800・・・アニメーション操作ガイド、
1000・・・操作イメージ。

Claims (4)

  1. 操作者の動きが画像信号として入力される入力部と、
    前記入力部に入力された画像信号から、動きを検出する動き検出部と、
    グラフィカルユーザインタフェースを表示する表示部と、
    前記動き検出部で検出された動きに従って、前記表示部に、前記グラフィカルユーザインタフェースの表示を変更させる制御部と、を備え、
    前記制御部は、前記表示部において、操作前の操作者に対して、操作に必要な動きと、当該動きによるグラフィカルユーザインタフェースの変更の様子とを示すガイドを表示させ、操作者が操作すると、前記動き検出部で検出された動きに同期した動きを表示させるとともに、当該動きに従って前記ガイドで示された前記グラフィカルユーザインタフェースの表示を変更させることを特徴とする表示装置。
  2. 前記グラフィカルユーザインタフェースの表示は、複数の選択項目から任意の選択項目を選択するために、複数の選択項目の表示位置を移動させる表示であり、
    前記制御部は、前記表示部において、操作前の操作者に対して、操作に必要な動きと、当該動きによって前記複数の選択項目の表示位置が移動する様子とを示すガイドを表示させ、操作者が操作すると、前記動き検出部で検出された動きに同期した動きを表示させるとともに、当該動きに従って、前記複数の選択項目の表示位置を移動させることを特徴とする請求項1に記載の表示装置。
  3. 操作前の操作者に対して行う表示は、操作者の片手を表したものの動きであり、前記動き検出部で検出された動きは、操作者の片手による動きであり、表示される同期した動きは、操作者の片手を表したものの動きであることを特徴とする請求項1に記載の表示装置。
  4. 操作前の操作者に対して行う表示は、操作者の両手を表したものの動きであり、前記動き検出部で検出された動きは、操作者の両手による動きであり、表示される同期した動きは、操作者の両手を表したものの動きであることを特徴とする請求項1に記載の表示装置。
JP2009104641A 2009-04-23 2009-04-23 表示装置 Active JP5256109B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2009104641A JP5256109B2 (ja) 2009-04-23 2009-04-23 表示装置
US12/760,596 US9164578B2 (en) 2009-04-23 2010-04-15 Input device for operating graphical user interface
EP10250809.0A EP2244166B1 (en) 2009-04-23 2010-04-21 Input device using camera-based tracking of hand-gestures
KR1020100037248A KR101148484B1 (ko) 2009-04-23 2010-04-22 입력 장치
CN201510486457.2A CN105159445B (zh) 2009-04-23 2010-04-23 输入装置
CN2010101673871A CN101901050A (zh) 2009-04-23 2010-04-23 输入装置
US14/869,111 US9411424B2 (en) 2009-04-23 2015-09-29 Input device for operating graphical user interface
US15/203,919 US11036301B2 (en) 2009-04-23 2016-07-07 Input device for motion operating graphical user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009104641A JP5256109B2 (ja) 2009-04-23 2009-04-23 表示装置

Publications (3)

Publication Number Publication Date
JP2010257093A JP2010257093A (ja) 2010-11-11
JP2010257093A5 JP2010257093A5 (ja) 2011-11-10
JP5256109B2 true JP5256109B2 (ja) 2013-08-07

Family

ID=42320359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009104641A Active JP5256109B2 (ja) 2009-04-23 2009-04-23 表示装置

Country Status (5)

Country Link
US (3) US9164578B2 (ja)
EP (1) EP2244166B1 (ja)
JP (1) JP5256109B2 (ja)
KR (1) KR101148484B1 (ja)
CN (2) CN101901050A (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4569613B2 (ja) 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
CN102906671B (zh) 2010-07-20 2016-03-02 松下电器(美国)知识产权公司 手势输入装置及手势输入方法
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US9164542B2 (en) * 2010-08-31 2015-10-20 Symbol Technologies, Llc Automated controls for sensor enabled user interface
TW201222429A (en) * 2010-11-23 2012-06-01 Inventec Corp Web camera device and operating method thereof
US9361009B2 (en) * 2010-12-01 2016-06-07 Adobe Systems Incorporated Methods and systems for setting parameter values via radial input gestures
US9575561B2 (en) 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
WO2012088634A1 (en) * 2010-12-30 2012-07-05 Technicolor (China) Technology Co., Ltd. User interface, apparatus and method for gesture recognition
KR101858531B1 (ko) 2011-01-06 2018-05-17 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
KR101795574B1 (ko) 2011-01-06 2017-11-13 삼성전자주식회사 모션에 의해 제어되는 전자기기 및 그 제어 방법
KR20120080072A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
WO2012117570A1 (ja) * 2011-03-03 2012-09-07 オムロン株式会社 ジェスチャ入力装置およびジェスチャ入力装置の制御方法
US9317111B2 (en) 2011-03-30 2016-04-19 Elwha, Llc Providing greater access to one or more items in response to verifying device transfer
US9153194B2 (en) 2011-03-30 2015-10-06 Elwha Llc Presentation format selection based at least on device transfer determination
US8918861B2 (en) 2011-03-30 2014-12-23 Elwha Llc Marking one or more items in response to determining device transfer
US8863275B2 (en) * 2011-03-30 2014-10-14 Elwha Llc Access restriction in response to determining device transfer
JP2012215963A (ja) 2011-03-31 2012-11-08 Hitachi Consumer Electronics Co Ltd 映像表示装置
US9323339B2 (en) 2011-04-27 2016-04-26 Nec Solution Innovators, Ltd. Input device, input method and recording medium
CN103562821B (zh) 2011-04-28 2016-11-09 日本电气方案创新株式会社 信息处理装置、信息处理方法和记录介质
US9202297B1 (en) 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US10001898B1 (en) 2011-07-12 2018-06-19 Domo, Inc. Automated provisioning of relational information for a summary data visualization
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9292112B2 (en) * 2011-07-28 2016-03-22 Hewlett-Packard Development Company, L.P. Multimodal interface
WO2013022222A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
EP2555536A1 (en) 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
CN102360263A (zh) * 2011-09-26 2012-02-22 中兴通讯股份有限公司 一种以三维移动轨迹为输入的方法及移动终端
KR20130078490A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9141197B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
US9448635B2 (en) 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
TWI476706B (zh) * 2012-04-30 2015-03-11 Pixart Imaging Inc 偵測物件移動輸出命令的方法及其系統
KR101370022B1 (ko) * 2012-05-02 2014-03-25 주식회사 매크론 동작 인식 리모트 컨트롤러
EP2853986B1 (en) * 2012-05-22 2020-09-23 Sony Corporation Image processing device, image processing method, and program
JP5936155B2 (ja) * 2012-07-27 2016-06-15 Necソリューションイノベータ株式会社 3次元ユーザインタフェース装置及び3次元操作方法
EP2698686B1 (en) * 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
SE537580C2 (sv) * 2012-08-03 2015-06-30 Crunchfish Ab Förbättrad inmatning
KR101951228B1 (ko) 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102083937B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 툴 제공 방법
KR102061881B1 (ko) 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
KR102083918B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR101984683B1 (ko) 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
JP2014085964A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理方法、情報処理装置、及びプログラム
TWI454971B (zh) * 2012-12-11 2014-10-01 Pixart Imaging Inc 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置
KR20140085061A (ko) 2012-12-27 2014-07-07 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN103914126A (zh) * 2012-12-31 2014-07-09 腾讯科技(深圳)有限公司 一种多媒体播放器控制方法和装置
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
JP6104707B2 (ja) * 2013-05-23 2017-03-29 アルパイン株式会社 電子機器、操作入力方法および操作入力プログラム
KR101795204B1 (ko) * 2013-06-25 2017-11-07 후지쯔 가부시끼가이샤 정보 처리 장치 및 기록 매체
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US20150067603A1 (en) * 2013-09-05 2015-03-05 Kabushiki Kaisha Toshiba Display control device
US20150193111A1 (en) * 2013-10-01 2015-07-09 Google Inc. Providing Intent-Based Feedback Information On A Gesture Interface
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9891712B2 (en) 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US10845884B2 (en) * 2014-05-13 2020-11-24 Lenovo (Singapore) Pte. Ltd. Detecting inadvertent gesture controls
WO2016016675A1 (en) * 2014-07-29 2016-02-04 Umm Al-Qura University Oled multi-use intelligent curtain and method
WO2016016674A1 (en) * 2014-07-29 2016-02-04 Umm Al-Qura University Transparent oled architectural partition and method
CN105516815A (zh) * 2014-09-25 2016-04-20 冠捷投资有限公司 使用者通过动作控制显示装置的操作界面的方法
JP6289655B2 (ja) * 2014-09-30 2018-03-14 三菱電機エンジニアリング株式会社 画面操作装置及び画面操作方法
CN107533359B (zh) * 2015-05-20 2019-04-23 三菱电机株式会社 信息处理装置和联锁控制方法
JP6653222B2 (ja) * 2016-06-06 2020-02-26 マクセル株式会社 手指運動練習メニュー生成システム、方法、及びプログラム
US10460044B2 (en) 2017-05-26 2019-10-29 General Electric Company Methods and systems for translating natural language requirements to a semantic modeling language statement
USD855642S1 (en) * 2017-09-29 2019-08-06 Song Kug Im Portable terminal with a graphical user interface
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
USD873285S1 (en) * 2018-07-24 2020-01-21 Magic Leap, Inc. Display panel or portion thereof with a graphical user interface
US11908243B2 (en) * 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
KR100595925B1 (ko) * 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
JP2001216069A (ja) 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2002358149A (ja) * 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP3945445B2 (ja) * 2003-04-21 2007-07-18 ソニー株式会社 表示方法及び表示装置
JP2004356819A (ja) * 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP3941786B2 (ja) 2004-03-03 2007-07-04 日産自動車株式会社 車両用操作入力装置および方法
JP2006079281A (ja) * 2004-09-08 2006-03-23 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP4718967B2 (ja) * 2005-10-25 2011-07-06 シャープ株式会社 メニュー項目の回転選択システム
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP2007213245A (ja) 2006-02-08 2007-08-23 Nec Corp 携帯端末及びプログラム
US8531396B2 (en) * 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
JP4267648B2 (ja) 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
JP4650381B2 (ja) * 2006-09-08 2011-03-16 日本ビクター株式会社 電子機器
KR101304461B1 (ko) * 2006-12-04 2013-09-04 삼성전자주식회사 제스처 기반 사용자 인터페이스 방법 및 장치
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US20080215994A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Virtual world avatar control, interactivity and communication interactive messaging
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
US8413075B2 (en) * 2008-01-04 2013-04-02 Apple Inc. Gesture movies
US8196042B2 (en) * 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
KR101979666B1 (ko) * 2012-05-15 2019-05-17 삼성전자 주식회사 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기

Also Published As

Publication number Publication date
CN105159445A (zh) 2015-12-16
KR101148484B1 (ko) 2012-05-25
US9164578B2 (en) 2015-10-20
EP2244166A2 (en) 2010-10-27
EP2244166A3 (en) 2013-09-04
US20160018903A1 (en) 2016-01-21
CN105159445B (zh) 2019-03-01
US9411424B2 (en) 2016-08-09
US11036301B2 (en) 2021-06-15
CN101901050A (zh) 2010-12-01
JP2010257093A (ja) 2010-11-11
US20100275159A1 (en) 2010-10-28
KR20100117036A (ko) 2010-11-02
US20160313802A1 (en) 2016-10-27
EP2244166B1 (en) 2018-10-31

Similar Documents

Publication Publication Date Title
JP5256109B2 (ja) 表示装置
JP2011081469A (ja) 入力装置
JP5183398B2 (ja) 入力装置
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP5333397B2 (ja) 情報処理端末およびその制御方法
US20090262187A1 (en) Input device
JP5581817B2 (ja) 制御システム、制御装置、ハンドヘルド装置、制御方法及びプログラム。
EP2405335A2 (en) Display control apparatus and display control method, display control program, and recording medium
JP2009042796A (ja) ジェスチャー入力装置および方法
JP2008234594A (ja) 操作入力装置
JP5921981B2 (ja) 映像表示装置および映像表示方法
JP2006072854A (ja) 入力装置
JP5386645B2 (ja) 入力方法
JP2013114647A (ja) ジェスチャー入力システム
JP5158152B2 (ja) 操作入力装置
JP2012094085A (ja) 入力装置
JP6737239B2 (ja) 表示装置及び表示制御プログラム
JP6329373B2 (ja) 電子機器および電子機器を制御するためのプログラム
JP6289655B2 (ja) 画面操作装置及び画面操作方法
CN106201065B (zh) 侦测物件移动输出命令的方法及其系统
JP5152639B2 (ja) 文字入力・機能操作装置、方法、プログラム及び携帯端末装置
JP2018041354A (ja) ポインタ制御システムおよびポインタ制御プログラム
JP2016021140A (ja) 電子機器及び操作方法
JP2013020649A (ja) 電子機器、制御方法、プログラム
JP2013012256A (ja) 電子機器、制御方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R151 Written notification of patent or utility model registration

Ref document number: 5256109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250