JP6289655B2 - 画面操作装置及び画面操作方法 - Google Patents

画面操作装置及び画面操作方法 Download PDF

Info

Publication number
JP6289655B2
JP6289655B2 JP2016551394A JP2016551394A JP6289655B2 JP 6289655 B2 JP6289655 B2 JP 6289655B2 JP 2016551394 A JP2016551394 A JP 2016551394A JP 2016551394 A JP2016551394 A JP 2016551394A JP 6289655 B2 JP6289655 B2 JP 6289655B2
Authority
JP
Japan
Prior art keywords
gesture
screen
region
feature point
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016551394A
Other languages
English (en)
Other versions
JPWO2016051521A1 (ja
Inventor
弘記 向山
弘記 向山
将則 増井
将則 増井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Publication of JPWO2016051521A1 publication Critical patent/JPWO2016051521A1/ja
Application granted granted Critical
Publication of JP6289655B2 publication Critical patent/JP6289655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Description

この発明は、特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面の操作を行う画面操作装置及び画面操作方法に関するものである。
従来から、モニタ(例えば展示会向けの大型ディスプレイ)に表示された画面に対し、操作者がジェスチャを行うことで、当該画面上のカーソルを動かして操作を行うシステムが知られている(例えば特許文献1参照)。
このシステムでは、例えばモーションセンサ(特徴点検出センサ)を用い、ある決められた3次元空間において、操作者の特徴点(例えば手)の位置(空間座標値)を検出している。そして、この手の空間座標値を、モニタに表示された画面上の2次元座標(モニタ座標)に対応させることで、カーソルの位置を設定している。このようにしてカーソルの位置を設定することで、操作者が手を動かすことにより、モニタに表示された画面上のカーソルを動かすことができる。
そして、画面操作を行う場合には、例えば図9(a)に示すように、まず、操作者は、モーションセンサの前で手を動かして、画面上のカーソル104を目標地点105まで移動させる。そして、カーソル104が目標地点105上に位置すると、図9(b)に示すように、目標地点105(カーソル104)の周囲に、画面に対する機能を表すアイコン102が表示される。次いで、操作者は、モーションセンサの前で手を動かして、画面上のカーソル104を、目的のアイコン102まで移動させる。そして、図9(c)に示すように、カーソル104がアイコン102上に位置すると、アイコン102の表示が切り替わって選択状態(アイコン102b)となる。次いで、操作者は、モーションセンサの前で予め決められたジェスチャを行って、当該アイコン102bが表す機能を実行させる。
特表2011−513847号公報
しかしながら、操作者のジェスチャによる画面操作では、操作者に対する物理的なフィードバック(操作感)がないため、マウスによる画面操作に対して、カーソルを目的の場所に的確に移動させたり、停止させることが難しい。そのため、画面操作が困難であるという課題がある。
この発明は、上記のような課題を解決するためになされたもので、従来技術に対して、操作者のジェスチャにより容易に画面操作を行うことができる画面操作装置及び画面操作方法を提供することを目的としている。
この発明に係る画面操作装置は、特徴点検出センサによる検出結果から操作者の特徴点の位置を検出し、当該操作者のジェスチャを検出するジェスチャ検出部と、ジェスチャ検出部により第1のジェスチャが検出された際に、操作者の特徴点の位置に対応する画面上のカーソルの周囲に、当該画面に対する機能を実行するための操作領域を放射状に設定し、当該操作領域上の任意の位置に当該機能を表す表示を行う領域設定部と、領域設定部による操作領域の設定後、特徴点の位置の変化方向からカーソルの当該操作領域上への移動を確認し、当該操作領域上の表示を選択状態に切替える領域判断部と、領域判断部により操作領域上の表示が選択状態に切替えられた状態において、ジェスチャ検出部により第2のジェスチャが検出された場合に、当該操作領域に対応する機能を実行する機能実行部とを備えたものである。
この発明に係る画面操作方法は、ジェスチャ検出部が、特徴点検出センサによる検出結果から操作者の特徴点の位置を検出し、当該操作者のジェスチャを検出するジェスチャ検出ステップと、領域設定部が、ジェスチャ検出部により第1のジェスチャが検出された際に、操作者の特徴点の位置に対応する画面上のカーソルの周囲に、当該画面に対する機能を実行するための操作領域を放射状に設定し、当該操作領域上の任意の位置に当該機能を表す表示を行う領域設定ステップと、領域判断部が、領域設定部による操作領域の設定後、特徴点の位置の変化方向からカーソルの当該操作領域上への移動を確認し、当該操作領域上の表示を選択状態に切替える領域判断ステップと、機能実行部が、領域判断部により操作領域上の表示が選択状態に切替えられた状態において、ジェスチャ検出部により第2のジェスチャが検出された場合に、当該操作領域に対応する機能を実行する操作実行ステップとを有するものである。
この発明によれば、上記のように構成したので、従来技術に対して、操作者のジェスチャにより容易に画面操作を行うことができる。
この発明の実施の形態1に係る画面操作装置を含むシステム全体の構成を示す図である。 この発明の実施の形態1に係る画面操作装置の動作を示すフローチャートである。 この発明の実施の形態1に係る画面操作装置によるアイコン表示を説明する図であり、(a)操作者が第1のジェスチャを行った際の手の位置を示す図であり、(b)(a)の場合でのアイコン表示を示す図である。 この発明の実施の形態1に係る画面操作装置によるアイコン選択を説明する図であり、(a)アイコン表示後の操作者の動作を示す図であり、(b)(a)の場合でのアイコン選択を示す図である。 この発明の実施の形態1に係る画面操作装置において操作領域の一部を一時的に認識しない場合を示す図である。 この発明の実施の形態2に係る画面操作装置を含むシステム全体の構成を示す図である。 この発明の実施の形態2における領域設定部による優先度を考慮した領域設定を示す図であり、(a)分割角度を変えた場合を示す図であり、(b)中心付近の分割角度を変えた場合を示す図であり、(c)中心付近の分割角度を曲線状に変えた場合を示す図である。 この発明の実施の形態2における領域設定部による優先度を考慮して動的に領域設定を変える場合を示す図である。 従来の画面操作を説明する図である。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係る画面操作装置3を含むシステム全体の構成を示す図である。
図1に示すシステムでは、モニタ1、モーションセンサ(特徴点検出センサ)2及び画面操作装置3が設けられている。
モニタ1は、各種コンテンツ(画面)を表示するものである。
モーションセンサ2は、所定のサンプリング間隔で、3次元空間内における人の特徴点の位置(空間座標値)を検出するものであり、モニタ1に表示された画面を操作する操作者を検出することができる場所に設置される。このモーションセンサ2は、予め決められた空間内を撮像してカラー画像を取得するカメラと、上記空間内に存在する物体の深度を検出する深度センサとを有している。また、人のシルエットに対して各特徴点(頭、肩、手、腰、足等)の位置を示すモデルを保持するデータベースも有している。そして、モーションセンサ2では、カメラにより撮像されたカラー画像と深度センサによる検出結果から上記空間内に存在する物体のシルエットを抽出する。そして、このシルエットをデータベースに保持されたモデルとマッチングさせることで、人を検出し、当該人の特徴点の位置を検出する。
画面操作装置3は、モーションセンサ2により検出された3次元空間における人の特徴点の位置を用いて、モニタ1に表示された画面の操作を行うものである。この画面操作装置3は、図1に示すように、ジェスチャ検出部31、領域設定部32、領域判断部33及び機能実行部34を有している。なお、画面操作装置3は、ソフトウェアに基づくCPUを用いたプログラム処理によって実行される。
ジェスチャ検出部31は、モーションセンサ2による検出結果から操作者の特徴点の位置を検出し、当該操作者のジェスチャを検出するものである。すなわち、ジェスチャ検出部31は、モーションセンサ2による検出結果から操作者の特徴点の位置を検出する機能(操作者検出機能)と、その特徴点の位置の変化から操作者のジェスチャを検出する機能(ジェスチャ検出機能)とを有している。なお、ジェスチャ検出部31は、検出した操作者の特徴点の位置を逐一記憶する機能も有している。
また、例えば展示会で本システムを用いる場合には、モーションセンサ2が検出を行う上記空間内に多くの人が存在することが想定される。そこで、ジェスチャ検出部31の操作者検出機能では、操作者と認識した人のみを追従するよう構成されている。
この機能では、上記空間内の所定位置(例えば真ん中)に来た人を操作者と認識して追従する。具体的には、まず、操作者を検出する範囲をモーションセンサ2の上記空間の一部の範囲(例えば真ん中)に限定する。そして、この検出範囲内に入った人を操作者として認識する。その後、検出範囲を上記空間全体に広げ、当該操作者の動きを追従し続ける。以後、他の人が検出範囲内に入ったとしても、操作者が検出範囲内にいる限りは、操作権を譲渡しない。その後、操作者が検出範囲の外に出た場合には、操作権を放棄したものとみなす。そして、再び検出範囲を狭め、新たな操作者の認識を待つ。
また、上記検出範囲内で他の人に操作権を譲渡する機能を付加してもよい。この場合、操作者を認識後に他の人が検出範囲に入り、双方が予め決められたジェスチャ(握手、手を振る等)を行う。これにより、操作権の譲渡を認める。
また、ジェスチャ検出部31のジェスチャ検出機能では、画面上に当該画面に対する機能を表す表示(アイコン等の表示)を指示するための第1のジェスチャと、当該機能の実行を指示するための第2のジェスチャとを検出する。なお、第1,2のジェスチャは、カーソル移動の際に操作者が行うジェスチャと区別することができるジェスチャであり、予め登録されている。
領域設定部32は、ジェスチャ検出部31により第1のジェスチャが検出された際に、操作者の特徴点の位置に対応する画面上のカーソルの位置の周囲に、当該画面に対する機能を実行するための操作領域を放射状に設定し、当該操作領域上に当該機能を表す表示(アイコン等の表示)を行うものである。
領域判断部33は、領域設定部32による操作領域の設定後、ジェスチャ検出部31により検出された操作者の特徴点の位置の変化方向から、画面上のカーソルの当該操作領域への移動を確認し、当該操作領域上の表示を選択状態に切替えるものである。
機能実行部34は、領域判断部33により操作領域上の表示が選択状態に切替えられた状態において、ジェスチャ検出部31により第2のジェスチャが検出された場合に、当該操作領域に対応する機能を実行するものである。
次に、上記のように構成された画面操作装置3の動作について、図2〜4を参照しながら説明する。なお以下では、操作者がモーションセンサ2の前で手を動かすことで、モニタ1に表示された画面上のカーソルを移動させる場合を例に説明を行う。また、モーションセンサ2は、所定のサンプリング間隔で、3次元空間における人の特徴点の位置を検出している。
画面操作装置3の動作では、図2に示すように、まず、ジェスチャ検出部31は、モーションセンサ2による検出結果から、操作者が第1のジェスチャを行ったかを検出する(ステップST1、ジェスチャ検出ステップ)。ここで、操作者が行う第1のジェスチャとしては、「ポーズをとる」、「手又は指を動かして模様を描く」、「手を握る又は開く等のハンドジェスチャ」等の動作が挙げられる。なお、操作者が第1のジェスチャの動作を覚えていない場合も考えられるため、画面上に第1のジェスチャの動作を示す説明文を表示するようにしてもよい。
このステップST1においてジェスチャ検出部31が第1のジェスチャを検出した場合、領域設定部32は、その際の操作者の手の位置に対応する画面上のカーソルの位置の周囲に、当該画面に対する機能を実行するための操作領域を放射状に設定し、当該操作領域上に当該機能を表す表示を行う(ステップST2,3、領域設定ステップ)。またこの際の手の位置(空間座標値)も記憶する。
この領域設定部32によるアイコン等の表示は画面上のいずれの位置でもよく、従来技術に対して操作性を改善できる。なお図3の例では、操作者の手の位置に対応する画面上のカーソル(非表示)の位置を中心にして、放射状に等分割で6つの操作領域(非表示)を設定し、6つのアイコン102を表示した場合を示している。
次いで、領域判断部33は、ジェスチャ検出部31により検出された操作者の特徴点の位置の変化方向から、画面上のカーソルの当該操作領域への移動を確認し、当該操作領域上の表示を選択状態に切替える(ステップST4〜6、領域判断ステップ)。すなわち、図4に示すように、領域設定部32は、第1のジェスチャを行った際の手101の位置を基準位置(座標(1))とし、現在の手101bの位置(座標(2))を記憶する。そして、手101bが移動した方向(移動前後での手101,101bの位置を結ぶ線分と、基準軸(X軸)とのなす垂直方向の角度θ)から、どの操作領域上にカーソル(非表示)が位置するかを判断する。そして、該当する操作領域上の表示を選択状態に切替える。なお図4の例では、操作者が手101bを右斜め上に移動させて、画面上の機能bを選択し、当該機能bのアイコン102を選択状態(アイコン102b)にした場合を示している。このように、アイコン102上ではなく、操作領域内にカーソルが位置するかを判断するようにしたので、従来のような厳密な操作を回避することができる。
次いで、領域判断部33により操作領域上の表示が選択状態に切替えられた状態において、ジェスチャ検出部31は、モーションセンサ2による検出結果から、操作者が第2のジェスチャを行ったかを検出する(ステップST7、ジェスチャ検出ステップ)。ここで、操作者が行う第2のジェスチャとしては、「ポーズをとる」、「手又は指を動かして模様を描く」、「手を握る又は開く等のハンドジェスチャ」等の動作が挙げられる(第1のジェスチャと同じである必要はない)。なお、操作者が第2のジェスチャの動作を覚えていない場合も考えられるため、画面上に第2のジェスチャの動作を示す説明文を表示するようにしてもよい。
このステップST7においてジェスチャ検出部31が第2のジェスチャを検出した場合、機能実行部34は、該当する操作領域に対応する機能を実行する(ステップST8、操作実行ステップ)。例えば図4に示すように、機能bが選択状態(アイコン102b)となっている状態で、操作者が第2のジェスチャを行うことで、機能bを実行することができる。
ここで、従来では、図9に示すように、画面操作を行うために、まず、予め決められた目標地点105までカーソル104を移動させて、アイコン102を表示させている。さらに、表示されたアイコン102のうち目的のアイコン102の場所へカーソル104を移動させて所定のジェスチャを行うことで、目的の機能を実行している。よって、目標地点105及びアイコン102上にカーソル104を正確に移動させる必要がある。
それに対し、本発明では、図3,4に示すように、予め決められた第1のジェスチャを行うことで、画面上の任意の位置(ジェスチャを行った際のカーソル(非表示)の位置の周囲)にアイコン102を表示させている。そして、目的のアイコン102の方向へ手を動かして(この際、アイコン102上にカーソルを移動させる必要はない)、予め決められた第2のジェスチャを行うことで、目的の機能を実行している。よって、従来技術のような厳密なカーソル操作は不要であり、容易に画面操作を行うことができる。
以上のように、この実施の形態1によれば、モーションセンサ2による検出結果から操作者の特徴点の位置を検出し、当該操作者のジェスチャを検出するジェスチャ検出部31と、ジェスチャ検出部31により第1のジェスチャが検出された際に、操作者の特徴点の位置に対応する画面上のカーソルの位置の周囲に、当該画面に対する機能を実行するための操作領域を放射状に設定し、当該操作領域上に当該機能を表す表示を行う領域設定部32と、領域設定部32による操作領域の設定後、特徴点の位置の変化方向からカーソルの当該操作領域上への移動を確認し、当該操作領域上の表示を選択状態に切替える領域判断部33と、領域判断部33により操作領域上の表示が選択状態に切替えられた状態において、ジェスチャ検出部31により第2のジェスチャが検出された場合に、当該操作領域に対応する機能を実行する機能実行部34とを備えたので、従来技術に対し、操作者のジェスチャ動作により容易に画面操作を行うことができる。
なお上記では、領域設定部32が、カーソルの位置を中心にして円状に複数のアイコンを表示する場合について示した。しかしながら、これに限るものではなく、半円状や円弧状に複数のアイコンを表示してもよい。
また、画面に対する機能の数が多く、表示するアイコンの数が多くなるような場合には、階層を持たせるようにしてもよい。この場合、第1のジェスチャが行われた場合に、まず、上位階層のアイコンを表示する。そして、第2のジェスチャが行われて目的のアイコンが選択された後、当該アイコンの位置を中心にしてその周囲に下位階層のアイコンを表示する。
また上記の領域設定部32では、カーソルの位置を中心にして放射状に操作領域を設定している。そのため、中心付近では各操作領域の範囲が狭く、わずかな手の動きで選択されるアイコンが目まぐるしく変わる。そこで、領域判断部33が、領域設定部32による操作領域の設定後、カーソルが第1のジェスチャが検出された際のカーソルの位置から径方向に閾値以上移動するまでは、当該閾値未満の領域については操作領域として認識しないように構成してもよい。すなわち、図5(a)に示すように、第1のジェスチャ後、カーソル(手101b)が中心位置から径方向に閾値未満の領域内(図5の領域103内)に位置する場合には、選択が誤る可能性があるとして、その領域103内の領域を操作領域として認識しない。その後、図5(b),(c)に示すように、カーソル(手101b)が閾値以上移動した場合には、選択を誤る可能性は低く、また、却って操作性を損なう恐れがあるため、操作領域全体を認識対象とする。
また上記では、特徴点検出センサとしてモーションセンサ2を用いた場合について示した。しかしながら、これに限るものではなく、3次元空間における操作者の特徴点の位置を検出することができるセンサであればよい。
また上記では、展示会向けの大型ディスプレイ(モニタ1)の画面に対し、操作者がジェスチャを行うことで、画面上のカーソルを動かして操作を行うシステムを想定して説明を行った。しかしながら、これに限るものではなく、モニタ1の画面に対し、操作者がジェスチャを行うことで、画面上のカーソルを動かして操作を行うシステムであれば、本発明を適用可能であり、同様の効果を得ることができる。
実施の形態2.
実施の形態1では、領域設定部32が、カーソルの位置を中心に操作領域を放射状に等分割で設定する場合について示した。これに対し、画面に対する機能に優先度を付与し、この優先度に応じて操作領域の設定範囲を変化させるようにしてもよい。
図6はこの発明の実施の形態2に係る画面操作装置3を含むシステム全体の構成を示す図である。図6に示す実施の形態2に係る画面操作装置3は、図1に示す実施の形態1に係る画面操作装置3に優先度設定部35を追加し、領域設定部32を領域設定部32bに変更したものである。その他の構成は同様であり、同一の符号を付してその説明を省略する。
優先度設定部35は、画面に対する機能の優先度を設定するものである。
また、領域設定部32bは、実施の形態1における領域設定部32に対し、優先度設定部35により設定された優先度に応じて操作領域の設定範囲を変化させるように構成したものである。
この際、領域設定部32bは、例えば図7に示すように、優先度が高い機能に対する操作領域を、優先度が低い機能に対する操作領域よりも広くする。図7の例では、機能aよりも機能bの優先度が高い場合を示している。そして、図7(a)では、操作領域の分割角度を変化させ、機能bに対する操作領域の分割角度θを、機能aに対する操作領域の分割角度θよりも広くした場合を示している。また、図7(b)では中心付近の領域をすべて機能bに対する操作領域とした場合を示し、図7(c)では曲線状に操作領域を変化させた場合を示している。
また、図8に示すように、カーソル(手101b)の中心(手101)からの径方向の距離に応じて操作領域を動的に変化させるようにしてもよい。図8の例では、機能aよりも機能bの優先度が高い場合を示している。図8(a)に示すように、カーソル(手101b)の中心(手101)からの径方向の距離が閾値以上離れている場合には、機能a,bの操作領域は等しい。一方、図8(b)に示すように、カーソル(手101b)の中心(手101)からの径方向の距離が閾値未満の場合には、機能bに対する操作領域が、機能aに対する操作領域に対して広くなる。そして、(c)に示すように、カーソル(手101b)がさらに中心(手101)に近づくと、動的に機能bに対する操作領域が広くなる。
また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る画面操作装置は、従来技術に対して、操作者のジェスチャにより容易に画面操作を行うことができ、特徴点検出センサにより検出された3次元空間における操作者の特徴点の位置を用いて、モニタに表示された画面の操作を行う画面操作装置等に用いるのに適している。
1 モニタ、2 モーションセンサ(特徴点検出センサ)、3 画面操作装置、31 ジェスチャ検出部、32,32b 領域設定部、33 領域判断部、34 機能実行部、35 優先度設定部。

Claims (4)

  1. 特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面の操作を行う画面操作装置において、
    前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出し、当該操作者のジェスチャを検出するジェスチャ検出部と、
    前記ジェスチャ検出部により第1のジェスチャが検出された際に、前記操作者の特徴点の位置に対応する画面上のカーソルの周囲に、当該画面に対する機能を実行するための操作領域を放射状に設定し、当該操作領域上の任意の位置に当該機能を表す表示を行う領域設定部と、
    前記領域設定部による操作領域の設定後、前記特徴点の位置の変化方向から前記カーソルの当該操作領域上への移動を確認し、当該操作領域上の表示を選択状態に切替える領域判断部と、
    前記領域判断部により前記操作領域上の表示が選択状態に切替えられた状態において、前記ジェスチャ検出部により第2のジェスチャが検出された場合に、当該操作領域に対応する機能を実行する機能実行部とを備えた
    ことを特徴とする画面操作装置。
  2. 前記画面に対する機能の優先度を設定する優先度設定部を備え、
    前記領域設定部は、前記優先度設定部により設定された優先度に応じて前記操作領域の設定範囲を変化させる
    ことを特徴とする請求項記載の画面操作装置。
  3. 前記領域判断部は、前記領域設定部による操作領域の設定後、前記カーソルの位置が前記第1のジェスチャが検出された際の前記カーソルの位置から径方向に閾値以上移動するまでは、当該閾値未満の領域については前記操作領域として認識しない
    ことを特徴とする請求項記載の画面操作装置。
  4. 特徴点検出センサにより検出された3次元空間内における人の特徴点の位置を用いて、モニタに表示された画面の操作を行う画面操作方法において、
    ジェスチャ検出部が、前記特徴点検出センサによる検出結果から操作者の特徴点の位置を検出し、当該操作者のジェスチャを検出するジェスチャ検出ステップと、
    領域設定部が、前記ジェスチャ検出部により第1のジェスチャが検出された際に、前記操作者の特徴点の位置に対応する画面上のカーソルの周囲に、当該画面に対する機能を実行するための操作領域を放射状に設定し、当該操作領域上の任意の位置に当該機能を表す表示を行う領域設定ステップと、
    領域判断部が、前記領域設定部による操作領域の設定後、前記特徴点の位置の変化方向から前記カーソルの当該操作領域上への移動を確認し、当該操作領域上の表示を選択状態に切替える領域判断ステップと、
    機能実行部が、前記領域判断部により前記操作領域上の表示が選択状態に切替えられた状態において、前記ジェスチャ検出部により第2のジェスチャが検出された場合に、当該操作領域に対応する機能を実行する操作実行ステップとを有する
    ことを特徴とする画面操作方法。
JP2016551394A 2014-09-30 2014-09-30 画面操作装置及び画面操作方法 Active JP6289655B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/076129 WO2016051521A1 (ja) 2014-09-30 2014-09-30 画面操作装置及び画面操作方法

Publications (2)

Publication Number Publication Date
JPWO2016051521A1 JPWO2016051521A1 (ja) 2017-04-27
JP6289655B2 true JP6289655B2 (ja) 2018-03-14

Family

ID=55629613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016551394A Active JP6289655B2 (ja) 2014-09-30 2014-09-30 画面操作装置及び画面操作方法

Country Status (2)

Country Link
JP (1) JP6289655B2 (ja)
WO (1) WO2016051521A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3540580A4 (en) * 2016-11-08 2020-05-27 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP2022046108A (ja) 2020-09-10 2022-03-23 株式会社ディーアンドエムホールディングス オーディオ装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108309A (ja) * 2001-09-28 2003-04-11 Fuji Photo Optical Co Ltd プレゼンテーションシステム
JP4575829B2 (ja) * 2005-03-30 2010-11-04 財団法人エヌエイチケイエンジニアリングサービス 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP2008065522A (ja) * 2006-09-06 2008-03-21 Seiko Epson Corp 情報表示システム、及び、ポインティング制御方法
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
WO2012011263A1 (ja) * 2010-07-20 2012-01-26 パナソニック株式会社 ジェスチャ入力装置およびジェスチャ入力方法
JP5865615B2 (ja) * 2011-06-30 2016-02-17 株式会社東芝 電子機器および制御方法
JP2013125985A (ja) * 2011-12-13 2013-06-24 Sharp Corp 表示システム

Also Published As

Publication number Publication date
JPWO2016051521A1 (ja) 2017-04-27
WO2016051521A1 (ja) 2016-04-07

Similar Documents

Publication Publication Date Title
EP3461291B1 (en) Implementation of a biometric enrollment user interface
US10076839B2 (en) Robot operation apparatus, robot system, and robot operation program
JP6159323B2 (ja) 情報処理方法及び情報処理装置
EP2659336B1 (en) User interface, apparatus and method for gesture recognition
JP6371475B2 (ja) 視線入力装置、視線入力方法、および、視線入力プログラム
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
JP2009042796A (ja) ジェスチャー入力装置および方法
JP6350772B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2011028366A (ja) 操作制御装置および操作制御方法
JP2016224686A5 (ja)
JP6452369B2 (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
JP2012027515A (ja) 入力方法及び入力装置
WO2015091638A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit.
US10656746B2 (en) Information processing device, information processing method, and program
US20130229348A1 (en) Driving method of virtual mouse
JP6289655B2 (ja) 画面操作装置及び画面操作方法
JP2017084307A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2017163566A1 (ja) プログラム、コンピュータ装置、プログラム実行方法、及び、システム
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
JP2013109538A (ja) 入力方法及び入力装置
KR101337429B1 (ko) 입력 장치
EP2843516A2 (en) Improved touch detection for a touch input device
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
JP2015122124A (ja) 仮想マウスによるデータ入力機能を有する情報装置
WO2012114791A1 (ja) ジェスチャー操作システム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20160816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20171113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250