JP5412227B2 - 映像表示装置、および、その表示制御方法 - Google Patents

映像表示装置、および、その表示制御方法 Download PDF

Info

Publication number
JP5412227B2
JP5412227B2 JP2009231707A JP2009231707A JP5412227B2 JP 5412227 B2 JP5412227 B2 JP 5412227B2 JP 2009231707 A JP2009231707 A JP 2009231707A JP 2009231707 A JP2009231707 A JP 2009231707A JP 5412227 B2 JP5412227 B2 JP 5412227B2
Authority
JP
Japan
Prior art keywords
hand
user
operation area
video display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009231707A
Other languages
English (en)
Other versions
JP2011081506A (ja
Inventor
孝志 松原
真寿美 森谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2009231707A priority Critical patent/JP5412227B2/ja
Priority to US12/889,471 priority patent/US9400560B2/en
Priority to CN2010105001337A priority patent/CN102033702A/zh
Publication of JP2011081506A publication Critical patent/JP2011081506A/ja
Application granted granted Critical
Publication of JP5412227B2 publication Critical patent/JP5412227B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、映像表示装置、および、その表示制御方法に係り、ユーザのジェスチャーを画像認識して、電子機器に指示を与えるユーザインタフェースの使い勝手を向上させる映像表示装置、および、その表示制御方法に関する。
従来、TVやレコーダといった映像装置、あるいは、PCなどの情報処理機器に対して、ユーザは、キーボードやマウスなどのポインティングデバイスを使ってデータ入力やコマンドを入力したり、リモコンによりチャンネル操作・表示操作をするのが一般的であった。
ところが、近年では、画像認識技術の向上により、特に、ゲーム機や操作ガイド機器の分野において、ユーザのジェスチャーを画像認識し、その結果によりユーザの意思を判断して、機器を動作させる手法が提案されている。
例えば、特許文献1には、手指の形状、動作を認識して、操作を判定する画像認識装置が開示されている。
特許第4318056号公報
特許文献1の画像認識装置では、体の位置に応じたマーカ上、操作面を作成し、その操作面の手あるいは指の位置の動きにより、指示を認識する。操作面は、仮想的な操作面であり、「操作者102は、マーカ101から仮想的な操作面701を想定して手601を突き出したり、モニタ111と連動させて画面上の一部と操作面701とをタッチパネルに見立ててタッチするように手601を動かしたりすることにより、入力操作を容易に行うことができる。(段落番号0033)」ものとしている。
この特許文献1では、体の位置に応じて操作面を定めているため、以下のような問題点がある。
(1)手を出す前に操作面位置を決めるため、キャリブレーションのタイミングが難しい。特に複数人いる場合に、画面の前にいる誰に対して操作領域を設けるかが決まらない
(2)体の位置を認識するため処理負荷が高くなる。
(3)寝た姿勢などでは、位置決めが難しくなる。
また、ユーザの手を認識し、手の位置に応じて操作面の領域を定めるという手法が考えられる。手を認識するだけなら、処理の負荷も軽く、手の特徴を捉えることにより、比較的簡単に認識できるからである。
この手法においては、操作領域の位置を決定する際に、キャリブレーションのタイミングを決めることが難しいという問題点がある。
図8では、手を下から差し出したとき、腰のあたりに操作領域が作られてしまった場合が図示されている。
例えば、手を下から差し出したとき、図8に示されるように、手を出す途中の腰のあたりに操作領域80が操作領域が作られてしまう。これは、ユーザが操作しようと想定した操作領域81と乖離しており、ユーザにとって操作がしずらくなる。
本発明は、上記問題点を解決するためになされたもので、その目的は、ユーザの手を認識して、操作領域を定める機能を有する映像表示装置において、処理負荷をあまりかけずに、操作しやすく、ユーザの意思に応じて操作領域が定まる映像表示装置を提供することにある。
本発明の映像表示装置は、カメラなどの撮像する画像撮像手段により、ユーザの画像を撮像して、その画像データに対して画像認識手段により、画像認識をおこない、画像認識の結果に基づいて、ユーザの操作に対する指示を与える映像表示装置であり、画像認識手段は、ユーザの手の位置を認識し、操作領域手段により、画像撮像手段の撮像領域面上で、ユーザの手が投影される位置の周囲に、ユーザが映像表示装置に指示を与えるための操作領域を設定する。そして、操作領域手段は、ユーザの手が投影される位置と操作領域との相対的な位置関係に基づいて、撮像領域面内で、操作領域を移動させる。すなわち、ユーザの手が投影される位置が移動して、操作領域の周囲に近づいたときに、操作領域は、ユーザの手が投影される位置の動く方向に追随して、移動した位置に設定されるようにする。また、画像認識手段は、ユーザの手の振りを認識して、操作領域設定手段は、ユーザの手の振りの大きさに基づいて、操作領域の大きさを設定する。
本発明によれば、ユーザの手を認識して、操作領域を定める機能を有する映像表示装置において、処理負荷をあまりかけずに、操作しやすく、ユーザの意思に応じて操作領域が定まる映像表示装置を提供することができる。
本発明の第一の実施形態の映像表示装置の構成図である。 本発明の第一の実施形態に係る映像表示装置100による操作領域について説明する図である。 本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理の流れについて説明する図である。 本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理の手順を示すフローチャートである。 本発明の第二の実施形態の映像表示装置の構成図である。 本発明の第二の実施形態に係る映像表示装置100による操作領域の設定処理の流れについて説明する図である。 本発明の第二の実施形態に係る映像表示装置100による操作領域の設定処理の手順を示すフローチャートである。 手を下から差し出したとき、腰のあたりに操作領域が作られてしまった場合の図である。
以下、本発明に係る各実施形態を、図1ないし図7を用いて説明する。
〔実施形態1〕
以下、本発明に係る第一の実施形態を、図1ないし図4を用いて説明する。
先ず、図1を用いて本発明の第一の実施形態の映像表示装置の構成を説明する。
図1は、本発明の第一の実施形態の映像表示装置の構成図である。
本実施形態の映像表示装置100は、図1に示されるように、入力部110、システム制御部120、映像信号処理部130、表示部140からなる。
入力部110は、ユーザを撮像するための装置であり、例えば、TOF(Time of flight)センサ機能を有する赤外線カメラ、ステレオカメラ、RGBカメラなどである。入力部110に用いるカメラは、特に、限定されず、ユーザに対して画像認識をするために最終的に、得た画像をデジタルデータに変換するための撮像画像を得る機能を有すればよい。
システム制御部120は、ユーザの手の位置を検出し、適切な位置に操作領域を設定するためのデータ処理をおこなう部分である。システム制御部120は、CPUが、メモリ上に記憶されているソフトウェアモジュールを実行することにより実現してもよいし、専用のハードウェア回路により実現してもよい。
システム制御部120は、手の位置検出部122、位置判定処理部123、操作領域設定部124の機能を実現する部分を有する。
手の位置検出部122は、画像のデジタルデータから手の位置を検出する部分である。位置判定処理部123は、手の位置と操作領域の位置関係を判定する部分である。操作領域設定部124は、操作領域を設定する部分である。
映像信号処理部130は、システム制御部120から指示とデータを受け取り、表示部140に表示するための映像信号を作成する部分である。
表示部140は、映像信号に基づき、ユーザに映像信号を表示する部分であり、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)などのディスプレイを有する表示装置である。
次に、図2および図3を用いて本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理について説明する。
図2は、本発明の第一の実施形態に係る映像表示装置100による操作領域について説明する図である。
図3は、本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理の流れについて説明する図である。
本発明の第一の実施形態に係る映像表示装置100の操作イメージは、図2(a)に示されるように、ユーザ30がディスプレイ10を見ながらジェスチャーにより操作し、それを映像表示装置100が画像認識をし、その認識結果に基づいて操作領域を決定し、ユーザ30がその操作領域に必要なコマンドなどを入力するものである。図2(b)に示されるように、ディスプレイ10の下には、赤外線カメラ12が設置されており、その赤外線カメラ12のLED14により、近赤外線を発射し、その反射線をレンズ16により受光して、ユーザ30を撮像する。本実施形態で、特に、キーポイントとなるのは、手を認識することである。手32は、出っ張っており、ユーザ30の体の中で認識しやすい部分であるといえる。赤外線カメラ12は、3Dカメラであり、画面から手までの距離を測定できるものとする。
映像表示装置100が、画像認識をして、手32を検出すると、次に、手を認識した位置に応じて、ディスプレイ10の操作画面18に対応する操作領域20を決定する。操作領域20は、ユーザ30に操作をおこなわせるための仮想的な領域であり、ユーザ30が立っている位置の赤外線カメラ12の撮像領域面22の中に作られるものとする。図2(b)に示されるように、操作領域20は、ディスプレイ10の操作画面18を、ユーザの手前の撮像領域面22上に、拡大・縮小したものであり、最初に、操作領域20を決定されたときには、ユーザ30の手32が、中心にくるようにする。そして、図2(b)に示されるように、操作画面18には、操作領域20の中のユーザ30の手32の位置に対応する位置に、ポインタ26が表示される。なお、ポインタ26は、図2(b)では、手のアイコンで示されているが、矢印のアイコン、丸、四角などの基本図形のアイコン、その他アニメのキャラクタのアイコンなどで示されてもよい。
操作領域20は、手32の位置と、操作画面18から手までの距離に応じて、手の延長線上が画面を指示するように決定されており、ちょうど、ハンズフリーのレーザポインタを使うようなイメージで、ユーザ30は、映像表示装置100に対して指示を与えることができる。この操作領域20は、ユーザ30には見えず、ユーザ30は、操作領域の位置や大きさを特に意識することなく、自然な操作の中で動的に操作領域が補正される。
例えば、図3(a)に示されるように、ユーザ30が、自分の手32を操作領域20の中で右側に移動させたとする。このときには、操作画面18上のポインタ26も右側に移動する。そして、手32が操作領域20の右辺を越えようとしたときには、図3(b)に示されるように、操作領域20も右側に移動させるものとする。この操作領域20の移動は、撮像領域面22を越えない範囲で可能である。すなわち、ユーザ30の手が検出される位置が移動して、操作領域20の周囲に近づいたときに、操作領域20は、ユーザ30の手32が検出される位置の動く方向に追随して移動する。
そして、ユーザ30は、新たな位置に設定された操作領域20を対象として、映像表示装置100の操作をすることができる。図3(c)では、ユーザ30は、自分の手32を再び、操作領域20の真中に持ってきており、操作画面18上のポインタ26も操作画面18上の中心に表示されている。
次に、図4を用いて本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理の手順について説明する。
図4は、本発明の第一の実施形態に係る映像表示装置100による操作領域の設定処理の手順を示すフローチャートである。
操作領域20の設定処理は、図1に示したシステム制御部120がおこなう処理である。
先ず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理をおこなう。
そして、手32を認識したときには(S400)、手32の位置に合わせて操作領域20を設定する(S401)。このときには、操作画面18上のポインタ26も表示される。
次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26を動かす(S402)。
そして、再び、手32が認識できているか否かを判定し(S403)、手32が認識できないとき(ユーザ32が手をおろしたとき、または、手32を撮像領域面22の外側に持っていったときなど)には、操作領域20を削除する(S407)。このときには、操作画面18上のポインタ26も消去される。そして、S400に戻る。
手32が認識できており、手32の位置が操作領域20の端にあり、さらに、操作領域20の外側に向かって手32が動いているか否かを判定し(S405)、そのときには、手32の移動に応じて、操作領域20を移動させる(S408)。すなわち、操作領域20を手32の動きに追従させる。そして、S402に戻る。
ユーザ32が操作領域20の中の操作終了の指示ボタンを押すなどして、操作終了の意思表示をしたときには(S406)、処理を終了し、そうでないときには、S402に戻る。
〔実施形態2〕
以下、本発明に係る第二の実施形態を、図5ないし図7を用いて説明する。
第一の実施形態の映像表示装置100の表示制御方法は、操作領域を手の動作に応じて追随させるインタフェースを提供するものであった。本実施形態では、第一の実施形態の表示制御方法に加えて、さらに、手の動作に応じて、操作領域の大きさも決めるインタフェースを提供するものである。
先ず、図5を用いて本発明の第二の実施形態の映像表示装置の構成を説明する。
図5は、本発明の第二の実施形態の映像表示装置の構成図である。
本実施形態の映像表示装置100でも、図5に示されるように、入力部110、システム制御部120、映像信号処理部130、表示部140からなることは、第一の実施形態と同様であるが、システム制御部120に手振り動作検出部124を有することのみが異なっている。
手振り動作検出部124は、ユーザ30が手32を振ったときに、それを検出する部分である。
次に、図6を用いて本発明の第二の実施形態に係る映像表示装置100による操作領域の設定処理について説明する。
図6は、本発明の第二の実施形態に係る映像表示装置100による操作領域の設定処理の流れについて説明する図である。
本発明の第二の実施形態の操作領域20では、操作開始時に手を振り、手を振った位置と大きさに合わせて操作領域20の位置と大きさのキャリブレーションをおこなうものである。
このように手を振った大きさ(振りの大きさ)に合わせて、操作領域20の大きさを決めるようにすると、ユーザ30が意図的に操作領域20の大きさを調整できるようになる。例えば、図6(a)に示されるように、ユーザ30が、手を小さく振ったときには、操作領域20aが小さくとられ、図6(b)に示されるように、ユーザ30が、手を大きく振ったときには、操作領域20bが大きくとられる。
また、この手振り動作は、特徴的な動作のため、他の動作(操作)と区別しやすい。
さらに、複数人が手を出している場合にも、操作者を決定しやすくなるという利点もある。図6(c)では、ユーザ30の手32が振られて、操作領域20が生成され、その大きさが決定され、他の人の手33、34は関与しないことを示している。
なお、この手振り操作による操作領域設定の機能を有するときには、ユーザ30の手32の移動に操作領域を追従させる仕組みは、一度キャリブレーションした領域に対して、さらに、動的に補正をかける仕組みを設けることにより実現することができる。
次に、図7を用いて本発明の第二の実施形態に係る映像表示装置100による操作領域の設定処理の手順について説明する。
図7は、本発明の第二の実施形態に係る映像表示装置100による操作領域の設定処理の手順を示すフローチャートである。
操作領域20の設定処理は、図5に示したシステム制御部120がおこなう処理である。
先ず、システム制御部120は、入力部110からのデータを解析して、ユーザ30の手32の認識処理をおこなう。
そして、手32を認識したときには(S500)、手振り動作を認識したか否かを判定し(S501)、手振り動作を認識したときに、手振り動作の位置と大きさに合わせて操作領域20を設定する(S502)。このときには、操作画面18上のポインタ26も表示される。
次に、手32の位置の変化を認識し、手32の位置に応じて、操作画面18上のポインタ26を動かす(S503)。
そして、再び、手32が認識できているかを判定し(S504)、手32が認識できないときには、操作領域20を削除する(S507)。このときには、操作画面18上のポインタ26も消去される。そして、S500に戻る。
手32が認識できており、手32の位置が操作領域20の端にあり、さらに、操作領域20の外側に向かって手32が動いているかを判定し(S505)、そのときには、手32の移動に応じて、操作領域20を移動させる(S508)。すなわち、操作領域20を手32の動きに追従させる。そして、S503に戻る。
ユーザ32が操作領域20の中の操作終了の指示ボタンを押すなどして、操作終了の意思表示をしたときには(S506)、処理を終了し、そうでないときには、S503に戻る。
以上、第一の実施形態と第二の実施形態で説明してきたように、本発明の映像表示装置の表示制御方法によれば、特許文献1の従来技術とは異なり、体の位置や姿勢に関係なく、手を出したときに、操作領域の位置を決定できる。すなわち、複数人いても、手を出した人を操作者として特定することができる。
また、本発明の映像表示装置の表示制御方法によれば、一度設定した操作領域が、ユーザが手の動きに応じて動的に変更されるため、キャリブレーションのタイミングを途中で決める必要がなく、操作性を向上させることができる。
100…映像表示装置、110…入力部、130…映像信号処理部、140…表示部。
121…手の位置検出部、122…位置判定処理部、123…操作領域設定部、124…手振り動作検出部。
10…ディスプレイ、12…赤外線カメラ、14…LED、16…レンズ、18…操作画面、20…操作領域、22…撮像領域面、26…ポインタ、30…ユーザ、32…手。

Claims (4)

  1. ユーザの画像を撮像して、前記画像の画像データに対して画像認識を行い、画像認識の結果に基づいて、前記ユーザの操作に対する操作表示を表示画面上で行う映像表示装置であって、
    前記画像認識の結果に基づき、前記撮像される領域内で前記ユーザ操作可能な操作領域を設定する操作領域設定手段を有し、
    前記操作領域設定手段は、ユーザが手を出した場合に、前記表示画面に対する前記ユーザの手の位置と距離に応じて、前記ユーザの手の位置の周囲に操作領域を設定し、前記ユーザの手の位置が前記操作領域の周囲を越えて移動する場合には、当該移動に追随して、前記操作領域の設定位置を移動させることを特徴とする映像表示装置。
  2. 前記画像認識では、前記ユーザの手の振りを認識して、
    前記操作領域設定手段は、前記ユーザの手の振りの大きさに基づいて、前記操作領域の大きさを設定することを特徴とする請求項1記載の映像表示装置。
  3. ユーザの画像を撮像して、前記画像の画像データに対して画像認識を行い、画像認識の結果に基づいて、前記ユーザの操作に対する操作表示を表示画面上で行う映像表示装置の表示制御方法であって、
    前記画像認識の結果に基づき、前記撮像される領域内で、前記ユーザの操作が可能な操作領域を設定する操作領域設定ステップを有し、
    前記操作領域設定ステップにおいて、ユーザが手を出した場合に、前記表示画面に対する前記ユーザの手の位置と距離に応じて、前記ユーザの手の位置の周囲に操作領域を設定し、前記ユーザの手の位置が前記操作領域の周囲を越えて移動する場合には、当該移動に追随して、前記操作領域の設定位置を移動させることを特徴とする映像表示装置の表示制御方法。
  4. 前記画像認識では、前記ユーザの手の振りを認識する処理を含み、
    前記操作領域設定ステップは、前記ユーザの手の振りの大きさに基づいて、前記操作領域の大きさを設定する処理を含むことを特徴とする請求項3記載の映像表示装置の表示制御方法。
JP2009231707A 2009-10-05 2009-10-05 映像表示装置、および、その表示制御方法 Active JP5412227B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009231707A JP5412227B2 (ja) 2009-10-05 2009-10-05 映像表示装置、および、その表示制御方法
US12/889,471 US9400560B2 (en) 2009-10-05 2010-09-24 Image display device and display control method thereof
CN2010105001337A CN102033702A (zh) 2009-10-05 2010-09-30 影像显示装置及其显示控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009231707A JP5412227B2 (ja) 2009-10-05 2009-10-05 映像表示装置、および、その表示制御方法

Publications (2)

Publication Number Publication Date
JP2011081506A JP2011081506A (ja) 2011-04-21
JP5412227B2 true JP5412227B2 (ja) 2014-02-12

Family

ID=43822805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009231707A Active JP5412227B2 (ja) 2009-10-05 2009-10-05 映像表示装置、および、その表示制御方法

Country Status (3)

Country Link
US (1) US9400560B2 (ja)
JP (1) JP5412227B2 (ja)
CN (1) CN102033702A (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012215963A (ja) 2011-03-31 2012-11-08 Hitachi Consumer Electronics Co Ltd 映像表示装置
US20140085422A1 (en) * 2011-05-30 2014-03-27 Sony Ericsson Mobile Communications Ab Image processing method and device
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2013109538A (ja) * 2011-11-21 2013-06-06 Hitachi Consumer Electronics Co Ltd 入力方法及び入力装置
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
JP5654526B2 (ja) * 2012-06-19 2015-01-14 株式会社東芝 情報処理装置、キャリブレーション方法及びプログラム
US8837780B2 (en) * 2012-06-22 2014-09-16 Hewlett-Packard Development Company, L.P. Gesture based human interfaces
JP5921981B2 (ja) * 2012-07-25 2016-05-24 日立マクセル株式会社 映像表示装置および映像表示方法
JP6019947B2 (ja) * 2012-08-31 2016-11-02 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
JP2015535971A (ja) * 2012-09-12 2015-12-17 サムスン エレクトロニクス カンパニー リミテッド ディスプレイ装置及びその制御方法
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
JP6057396B2 (ja) 2013-03-11 2017-01-11 Necソリューションイノベータ株式会社 3次元ユーザインタフェース装置及び3次元操作処理方法
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
DE102013214326A1 (de) * 2013-07-23 2015-01-29 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
CN108664173B (zh) * 2013-11-19 2021-06-29 麦克赛尔株式会社 投影型影像显示装置
CN103713823B (zh) * 2013-12-30 2017-12-26 深圳泰山体育科技股份有限公司 实时更新操作区位置的方法及系统
TWI545461B (zh) * 2014-01-03 2016-08-11 由田新技股份有限公司 校正方法及電子裝置
JP6287382B2 (ja) * 2014-03-12 2018-03-07 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
CN103995592A (zh) * 2014-05-21 2014-08-20 上海华勤通讯技术有限公司 穿戴式设备与终端进行信息交互的方法及终端
CN104317398B (zh) * 2014-10-15 2017-12-01 天津三星电子有限公司 一种手势控制方法、穿戴式设备及电子设备
DE102014224641A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
CN105302305A (zh) * 2015-11-02 2016-02-03 深圳奥比中光科技有限公司 手势操控方法和系统
CN105404384A (zh) * 2015-11-02 2016-03-16 深圳奥比中光科技有限公司 手势操作方法、利用手势定位屏幕光标的方法及手势系统
JP2017211739A (ja) * 2016-05-24 2017-11-30 株式会社エクスビジョン ユーザインターフェース装置およびユーザインターフェースプログラム
CN109040413A (zh) * 2017-06-12 2018-12-18 阿里巴巴集团控股有限公司 数据的显示方法、装置和系统
JP7186999B2 (ja) 2018-05-16 2022-12-12 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
US20230142200A1 (en) * 2020-02-10 2023-05-11 Nec Corporation Non-transitory storage medium, processing method for portable terminal, and portable terminal

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324181A (ja) * 1992-05-26 1993-12-07 Takenaka Komuten Co Ltd ハンドポインティング式入力装置
JPH0981307A (ja) * 1995-09-08 1997-03-28 Clarion Co Ltd 機器制御装置
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7142191B2 (en) * 2001-10-24 2006-11-28 Sony Corporation Image information displaying device
JP2004013314A (ja) * 2002-06-04 2004-01-15 Fuji Xerox Co Ltd 位置測定用入力支援装置
JP3860560B2 (ja) * 2003-05-30 2006-12-20 日本電信電話株式会社 表示インタフェース方法および装置
US7577199B1 (en) * 2003-06-19 2009-08-18 Nvidia Corporation Apparatus and method for performing surveillance using motion vectors
JP4389501B2 (ja) * 2003-07-29 2009-12-24 ヤマハ株式会社 画像処理装置
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
WO2005119356A2 (en) * 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
JP2006010489A (ja) * 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 情報装置、情報入力方法およびプログラム
JP4608326B2 (ja) 2005-01-26 2011-01-12 株式会社竹中工務店 指示動作認識装置及び指示動作認識プログラム
JP2006323454A (ja) * 2005-05-17 2006-11-30 Fuji Xerox Co Ltd 三次元指示入力システム、三次元指示入力装置、三次元指示入力方法およびプログラム
JP2007087100A (ja) * 2005-09-22 2007-04-05 Victor Co Of Japan Ltd 電子機器システム
US7834847B2 (en) * 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
JP2007172303A (ja) * 2005-12-22 2007-07-05 Seiko Epson Corp 情報入力システム
US8085243B2 (en) * 2006-02-03 2011-12-27 Panasonic Corporation Input device and its method
JP2008040576A (ja) * 2006-08-02 2008-02-21 Sharp Corp 画像処理システム及び該システムを備えた映像表示装置
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
JP4829855B2 (ja) * 2007-09-04 2011-12-07 キヤノン株式会社 画像投影装置及びその制御方法
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8942428B2 (en) * 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation

Also Published As

Publication number Publication date
CN102033702A (zh) 2011-04-27
US20110080337A1 (en) 2011-04-07
JP2011081506A (ja) 2011-04-21
US9400560B2 (en) 2016-07-26

Similar Documents

Publication Publication Date Title
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
CN110199251B (zh) 显示装置和远程操作控制装置
US10444908B2 (en) Virtual touchpads for wearable and portable devices
KR101151962B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
WO2017041433A1 (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
US20150326835A1 (en) Method and system for determining proper positioning of an object
JP5921981B2 (ja) 映像表示装置および映像表示方法
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
WO2012154001A2 (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
US20120019460A1 (en) Input method and input apparatus
US11886643B2 (en) Information processing apparatus and information processing method
WO2021004413A1 (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
US9300908B2 (en) Information processing apparatus and information processing method
WO2014181587A1 (ja) 携帯端末装置
JP2013109538A (ja) 入力方法及び入力装置
KR101272458B1 (ko) 포인터를 사용하지 않는 가상 터치 장치 및 방법
KR20080092184A (ko) 프로젝션 및 가상 입력의 겸용 프로젝터 및 데이터 입력방법
JP2000187551A (ja) 入力装置
TW201419087A (zh) 微體感偵測模組及其微體感偵測方法
JP7215254B2 (ja) 情報処理装置、表示制御方法、及びプログラム
JP2017228216A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
KR20160115022A (ko) 비접촉식 마우스 장치 및 이 장치를 채용한 디지털 응용 시스템
JP2004310527A (ja) プレゼンテーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

R150 Certificate of patent or registration of utility model

Ref document number: 5412227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250