JP6373541B2 - ユーザインタフェース装置及びユーザインタフェース方法 - Google Patents

ユーザインタフェース装置及びユーザインタフェース方法 Download PDF

Info

Publication number
JP6373541B2
JP6373541B2 JP2018522285A JP2018522285A JP6373541B2 JP 6373541 B2 JP6373541 B2 JP 6373541B2 JP 2018522285 A JP2018522285 A JP 2018522285A JP 2018522285 A JP2018522285 A JP 2018522285A JP 6373541 B2 JP6373541 B2 JP 6373541B2
Authority
JP
Japan
Prior art keywords
operation content
gesture
operator
determination unit
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018522285A
Other languages
English (en)
Other versions
JPWO2017212641A1 (ja
Inventor
淳 嶋田
淳 嶋田
博彦 樋口
博彦 樋口
佐藤 聡
聡 佐藤
修佑 関野
修佑 関野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2017212641A1 publication Critical patent/JPWO2017212641A1/ja
Application granted granted Critical
Publication of JP6373541B2 publication Critical patent/JP6373541B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Description

この発明は、操作者のジェスチャーに対応する操作内容を実行するユーザインタフェース装置及びユーザインタフェース方法に関するものである。
以下の特許文献1には、パソコンなどのユーザインタフェース装置として、タッチデバイスとペンデバイスを備えているユーザインタフェース装置が開示されている。
このユーザインタフェース装置では、タッチデバイスで指示された画面上の位置情報と、ペンデバイスで指示された画面上の位置情報とから、操作内容であるイベントを決定している。
特開2014−89592号公報
従来のユーザインタフェース装置は以上のように構成されているので、タッチデバイスとペンデバイスを用いて、パソコンなどを操作することができる。しかし、タッチデバイス及びペンデバイスの機能は、マウスの機能と大きく変わらないため、タッチデバイス及びペンデバイスで操作が可能な内容は、マウスで操作が可能な内容とほとんど変わらない。このため、入力デバイスとして、マウスの代わりに、タッチデバイス及びペンデバイスを備えても、操作が可能な内容を増やすことができないという課題があった。
この発明は上記のような課題を解決するためになされたもので、操作が可能な内容を増やすことができるユーザインタフェース装置及びユーザインタフェース方法を得ることを目的とする。
この発明に係るユーザインタフェース装置は、操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、操作者を撮影するカメラと、カメラにより撮影された操作者の映像から、操作者のジェスチャーを検知するジェスチャー検知部と、ポインティングデバイスによるオブジェクトの選択受付状況とジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部とを設け、操作内容実行部が、操作内容決定部により決定された操作内容を実行し、操作内容決定部は、ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールする操作内容を決定するようにしたものである。
この発明によれば、ポインティングデバイスによるオブジェクトの選択受付状況とジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部を設け、操作内容実行部が、操作内容決定部により決定された操作内容を実行するように構成したので、操作が可能な内容を増やすことができる効果がある。
この発明の実施の形態1によるユーザインタフェース装置を示す構成図である。 この発明の実施の形態1によるユーザインタフェース装置における操作制御部10のハードウェア構成図である。 ユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 ユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。 操作内容記憶部16に記憶されている対応関係の一例を示す説明図である。 図5の操作内容Aが実行されることで、現在開いているウィンドウ内の画面を上下方向にスクロールしている様子を示す説明図である。 図5の操作内容Bが実行されることで、現在開いているウィンドウ内の画面を上下方向にスクロールして、選択が受け付けられたオブジェクトをスクロール後の画面上に移動している様子を示す説明図である。 図5の操作内容Cが実行されることで、現在開いているウィンドウを画面左右方向に移動している様子を示す説明図である。 図9Aは図5の操作内容Dが実行される前の状態を示す説明図、図9Bは図5の操作内容Dが実行された後の状態を示す説明図である。 図5の操作内容Eが実行されることで、現在開いているウィンドウのサイズを変更している様子を示す説明図である。 図5の操作内容Fが実行されることで、選択が受け付けられたオブジェクトのサイズを変更している様子を示す説明図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。
実施の形態1.
図1はこの発明の実施の形態1によるユーザインタフェース装置を示す構成図であり、図2はこの発明の実施の形態1によるユーザインタフェース装置における操作制御部10のハードウェア構成図である。
図1において、マウス1は操作対象のオブジェクトの選択を受け付けるポインティングデバイスである。
この実施の形態1では、ポインティングデバイスがマウス1である例を示しているが、ポインティングデバイスはマウス1に限るものではなく、例えば、タッチペンやジョイスティックなどであってもよい。
カメラ2は操作者を撮影する空間デバイスである。
操作制御部10はジェスチャー検知部11、操作内容決定部15及び操作内容実行部18を備えている。
ジェスチャー検知部11は手形状記憶部12、手検出部13及びジェスチャー判定部14を備えており、カメラ2により撮影された操作者の映像から、操作者のジェスチャーを検知する処理を実施する。
手形状記憶部12は例えば図2の手形状記憶回路21で実現されるものであり、各種の方向から撮影されている手の形状を示す映像(以下、「手映像」と称する)を記憶している。
手の形状は、指を開いている状態や、指を閉じている状態など、様々な状態で撮影されている。このため、手形状記憶部12は様々な状態で各種の方向から撮影されている手映像を記憶している。
手検出部13は例えば図2の手検出回路22で実現されるものであり、カメラ2により撮影された映像と手形状記憶部12により記憶された手映像とを比較することで、カメラ2により撮影された映像内に操作者の手が映っているか否かを判定し、操作者の手が映っていれば、手が映っている3次元座標を示す位置情報を出力する処理を実施する。
ジェスチャー判定部14は例えば図2のジェスチャー判定回路23で実現されるものであり、手検出部13から出力された位置情報が示す3次元座標の変化から、操作者のジェスチャーを検知する処理を実施する。
即ち、ジェスチャー判定部14は手検出部13から出力された位置情報が示す3次元座標の変化から手の移動方向を判定する処理を実施する。
また、ジェスチャー判定部14は手の移動方向が画面上下方向であれば、画面上下方向の移動動作を表現するジェスチャーを検知した旨を示す検知情報を出力し、手の移動方向が画面左右方向であれば、画面左右方向の移動動作を表現するジェスチャーを検知した旨を示す検知情報を出力し、手の移動方向が画面垂直方向であれば、画面垂直方向の移動動作を表現するジェスチャーを検知した旨を示す検知情報を出力する処理を実施する。
操作内容決定部15は操作内容記憶部16及び操作内容決定処理部17を備えており、マウス1によるオブジェクトの選択受付状況とジェスチャー検知部11により検知されたジェスチャーとから操作内容を決定する処理を実施する。
操作内容記憶部16は例えば図2の操作内容記憶回路24で実現されるものであり、マウス1によるオブジェクトの選択受付状況及びジェスチャーと操作内容の対応関係を記憶している。
操作内容決定処理部17は例えば図2の操作内容決定処理回路25で実現されるものであり、操作内容記憶部16を参照して、マウス1によるオブジェクトの選択受付状況とジェスチャー判定部14から出力された検知情報が示すジェスチャーとから操作内容を決定する処理を実施する。
操作内容実行部18は例えば図2の操作内容実行回路26で実現されるものであり、操作内容決定部15により決定された操作内容を実行する処理を実施する。
表示部3は例えばパソコンのディスプレイであり、操作内容実行部18により実行された操作内容等を表示する。
図1では、ユーザインタフェース装置における操作制御部10の構成要素である手形状記憶部12、手検出部13、ジェスチャー判定部14、操作内容記憶部16、操作内容決定処理部17及び操作内容実行部18のそれぞれが、図2に示すような専用のハードウェア、即ち、手形状記憶回路21、手検出回路22、ジェスチャー判定回路23、操作内容記憶回路24、操作内容決定処理回路25及び操作内容実行回路26で実現されるものを想定している。
ここで、手形状記憶回路21及び操作内容記憶回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、手検出回路22、ジェスチャー判定回路23、操作内容決定処理回路25及び操作内容実行回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
ただし、ユーザインタフェース装置における操作制御部10は専用のハードウェアで実現されるものに限るものではなく、操作制御部10がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
図3はユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
ユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合、手形状記憶部12及び操作内容記憶部16をコンピュータのメモリ31上に構成するとともに、手検出部13、ジェスチャー判定部14、操作内容決定処理部17及び操作内容実行部18の処理手順をコンピュータに実行させるためのプログラムをメモリ31に格納し、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行するようにすればよい。
図4はユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。
また、図2ではユーザインタフェース装置における操作制御部10の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、ユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される例を示しているが、操作制御部10における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
次に動作について説明する。
カメラ2は、操作者を撮影して、操作者の映像をジェスチャー検知部11の手検出部13に出力する。
ジェスチャー検知部11の手検出部13は、カメラ2から操作者の映像を受けると、その映像と手形状記憶部12により記憶されている手映像とを比較することで、カメラ2により撮影された映像内に操作者の手が映っているか否かを判定する。
即ち、手検出部13は、カメラ2から出力された映像内に存在している物体の切り出し処理を実施し(図4のステップST1)、切り出した物体の形状と手形状記憶部12により記憶されている手映像が示す形状とのパターンマッチングを実施することで、切り出した物体の形状が手の形状であるか否かを判定する。
手検出部13は、切り出した物体の形状が手の形状であれば(ステップST2:YESの場合)、カメラ2により撮影された映像内に操作者の手が映っていると判定する(ステップST3)。
手検出部13は、切り出した物体の形状が手の形状でなければ(ステップST2:NOの場合)、カメラ2により撮影された映像内に操作者の手が映っていないと判定し(ステップST4)、操作者の手が映っていない旨をジェスチャー判定部14に知らせる。
手形状記憶部12には、各種の方向から撮影されている手映像や、様々な状態で撮影されている手映像が記憶されているので、手検出部13は、それらの手映像のうち、いずれかの手映像が示す形状が、切り出した物体の形状との一致度が高ければ、切り出した物体の形状が手の形状であると判定する。
映像内に存在している物体の切り出し処理や、パターンマッチングの処理自体は公知の技術であるため詳細な説明を省略する。
手検出部13は、カメラ2により撮影された映像内に操作者の手が映っていると判定すると、切り出した物体の3次元座標を示す位置情報(x,y,z)をジェスチャー判定部14に出力する(ステップST5)。
xは表示部3に表示される画面の左右方向の座標、yは表示部3に表示される画面の上下方向の座標、zは表示部3に表示される画面に対する垂直方向の座標であり、操作者の手の位置が画面から遠いほど、大きな値となる。
また、物体の位置情報(x,y,z)として、その物体における複数の特徴点の位置情報を出力するようにしてもよいが、例えば、その物体の重心点を計算して、その重心点の位置情報を出力するようにしてもよい。
ジェスチャー判定部14は、手検出部13から位置情報(x,y,z)を受けると、その位置情報(x,y,z)を内部のメモリに格納し、そのメモリに格納している位置情報(x,y,z)の履歴から、操作者の手の移動方向を判定する(ステップST6)。
即ち、ジェスチャー判定部14は、画面左右方向の座標xが変化していれば、手の移動方向が画面左右方向であると判定し、画面上下方向の座標yが変化していれば、手の移動方向が画面上下方向であると判定する。
また、ジェスチャー判定部14は、画面に対する垂直方向の座標zが変化していれば、手の移動方向が画面垂直方向であると判定する。
なお、画面左右方向の座標x、画面上下方向の座標y及び画面垂直方向の座標zの全てが変化している場合、変化が最も大きい座標に対応する方向が、手の移動方向であると判定する。
したがって、例えば、画面左右方向の座標xの変化が最も大きければ、手の移動方向が画面左右方向、画面上下方向の座標yの変化が最も大きければ、手の移動方向が画面上下方向、画面垂直方向の座標zの変化が最も大きければ、手の移動方向が画面垂直方向であると判定する。
ジェスチャー判定部14は、手の移動方向が画面上下方向であれば、画面上下方向の移動動作を表現するジェスチャーが行われていると判断して、当該ジェスチャーを検知した旨を示す検知情報を操作内容決定部15に出力し、手の移動方向が画面左右方向であれば、画面左右方向の移動動作を表現するジェスチャーが行われていると判断して、当該ジェスチャーを検知した旨を示す検知情報を操作内容決定部15に出力する(ステップST7)。
また、ジェスチャー判定部14は、手の移動方向が画面垂直方向であれば、画面垂直方向の移動動作を表現するジェスチャーが行われていると判断して、当該ジェスチャーを検知した旨を示す検知情報を操作内容決定部15に出力する(ステップST7)。
ジェスチャー判定部14は、手検出部13から操作者の手が映っていない旨の知らせを受けると、ジェスチャーを検知していない旨を示す非検知情報を操作内容決定部15に出力する(ステップST8)。
マウス1は、操作対象のオブジェクトの選択を受け付ける処理を実施し、操作者がマウス1を用いて、操作対象のオブジェクトを選択した場合には、マウス1が、操作者により選択されたオブジェクトを示す選択情報を操作内容決定部15に出力する。
操作内容決定部15の操作内容記憶部16には、マウス1によるオブジェクトの選択受付状況及びジェスチャーと操作内容の対応関係を記憶している。
図5は操作内容記憶部16に記憶されている対応関係の一例を示す説明図である。
図5に記憶されている操作内容Aは、操作対象のオブジェクトが選択されていない状態で、画面上下方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウ内の画面を上下方向にスクロールする操作内容である。
図5に記憶されている操作内容Bは、操作対象のオブジェクトが選択されている状態で、画面上下方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウ内の画面を上下方向にスクロールして、選択が受け付けられたオブジェクトをスクロール後の画面上に移動する操作内容である。
図5に記憶されている操作内容Cは、操作対象のオブジェクトが選択されているか否かにかかわらず、画面左右方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウを画面左右方向に移動する操作内容である。
図5に記憶されている操作内容Dは、操作対象のオブジェクトが選択されているか否かにかかわらず、複数のウィンドウが開いている場合において、画面左右方向の移動動作を表現するジェスチャーが検知された場合、現在開いている複数のウィンドウを一緒に画面左右方向に移動する操作内容である。
図5に記憶されている操作内容Eは、操作対象のオブジェクトが選択されていない状態で、画面垂直方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウのサイズを変更する操作内容である。
図5に記憶されている操作内容Fは、操作対象のオブジェクトが選択されている状態で、画面垂直方向の移動動作を表現するジェスチャーが検知された場合、選択が受け付けられたオブジェクトのサイズを変更する操作内容である。
操作内容決定部15の操作内容決定処理部17は、ジェスチャー判定部14から検知情報を受けると、マウス1から選択情報を受けている場合(図4のステップST9:YESの場合)、その選択情報を考慮して、その検知情報が示すジェスチャーから操作内容を決定し、その操作内容を操作内容実行部18に出力する(ステップST10)。
操作内容決定処理部17は、マウス1から選択情報を受けていない場合(ステップST9:NOの場合)、その検知情報が示すジェスチャーのみから操作内容を決定し、その操作内容を操作内容実行部18に出力する(ステップST11)。
例えば、操作対象のオブジェクトが選択されていない状態で、画面上下方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウ内の画面を上下方向にスクロールする図5の操作内容Aを決定する。
例えば、操作対象のオブジェクトが選択されている状態で、画面上下方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウ内の画面を上下方向にスクロールして、選択が受け付けられたオブジェクトをスクロール後の画面上に移動する図5の操作内容Bを決定する。
例えば、操作対象のオブジェクトが選択されているか否かにかかわらず、画面左右方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウを画面左右方向に移動する図5の操作内容Cを決定する。
例えば、操作対象のオブジェクトが選択されているか否かにかかわらず、複数のウィンドウが開いている場合において、画面左右方向の移動動作を表現するジェスチャーが検知された場合、現在開いている複数のウィンドウを一緒に画面左右方向に移動する図5の操作内容Dを決定する。
例えば、操作対象のオブジェクトが選択されていない状態で、画面垂直方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウのサイズを変更する図5の操作内容Eを決定する。
例えば、操作対象のオブジェクトが選択されている状態で、画面垂直方向の移動動作を表現するジェスチャーが検知された場合、選択が受け付けられたオブジェクトのサイズを変更する図5の操作内容Fを決定する。
操作内容決定処理部17は、ジェスチャー判定部14から非検知情報を受けると、マウス1から選択情報を受けている場合(図4のステップST12:YESの場合)、操作者により操作対象のオブジェクトが選択された操作以降のマウス1の操作内容を操作内容実行部18に出力する(ステップST13)。
操作内容決定処理部17は、マウス1から選択情報を受けていない場合(図4のステップST12:NOの場合)、操作内容を決定せずに、一連の処理を終了する。
操作内容実行部18は、操作内容決定部15から操作内容を受けると、その操作内容を実行する(図4のステップST14)。
表示部3は、操作内容実行部18により実行された操作内容を表示する。
図6は図5の操作内容Aが実行されることで、現在開いているウィンドウ内の画面を上下方向にスクロールしている様子を示す説明図である。
図6の例では、移動動作が画面上方向であるため、現在開いているウィンドウ内の画面が上方向にスクロールしている。
図7は図5の操作内容Bが実行されることで、現在開いているウィンドウ内の画面を上下方向にスクロールして、選択が受け付けられたオブジェクトをスクロール後の画面上に移動している様子を示す説明図である。
図7の例では、移動動作が画面上方向であるため、現在開いているウィンドウ内の画面が上方向にスクロールしている。また、選択が受け付けられたオブジェクトは、スクロール後の画面上に存在している1つのフォルダ内に格納されている様子を示している。
図8は図5の操作内容Cが実行されることで、現在開いているウィンドウを画面左右方向に移動している様子を示す説明図である。
図8の例では、移動動作が画面右方向であるため、現在開いているウィンドウが画面右方向に移動している
図9は図5の操作内容Dが実行されることで、現在開いている複数のウィンドウを一緒に画面左右方向に移動している様子を示す説明図である。
図9Aは図5の操作内容Dが実行される前の状態を示し、図9Bは図5の操作内容Dが実行された後の状態を示している。図9Bでは、複数のウィンドウが画面右方向に移動されたことで、ウィンドウに隠れていた目的のフォルダが見つかっている状態を示している。
図9の例では、移動動作が画面右方向であるため、現在開いている複数のウィンドウが一緒に画面右方向に移動している。
マウス、タッチデバイス及びペンデバイスなどのポインティングデバイスでは、複数のウィンドウを一緒に移動させる操作を行うことは困難である。
図10は図5の操作内容Eが実行されることで、現在開いているウィンドウのサイズを変更している様子を示す説明図である。
図10の例では、移動動作が画面に近づく方向であるため、現在開いているウィンドウが拡大されている。移動動作が画面から遠ざかる方向であれば、現在開いているウィンドウが縮小される。
図11は図5の操作内容Fが実行されることで、選択が受け付けられたオブジェクトのサイズを変更している様子を示す説明図である。
図11の例では、移動動作が画面に近づく方向であるため、選択が受け付けられたオブジェクトが拡大されている。移動動作が画面から遠ざかる方向であれば、選択が受け付けられたオブジェクトが縮小される。
以上で明らかなように、この実施の形態1によれば、操作対象のオブジェクトの選択を受け付けるマウス1と、操作者を撮影するカメラ2と、カメラ2により撮影された操作者の映像から、操作者のジェスチャーを検知するジェスチャー検知部11と、マウス1によるオブジェクトの選択受付状況とジェスチャー検知部11により検知されたジェスチャーとから操作内容を決定する操作内容決定部15とを設け、操作内容実行部18が、操作内容決定部15により決定された操作内容を実行するように構成したので、操作が可能な内容を増やすことができる効果を奏する。
即ち、マウス、タッチデバイス及びペンデバイスなどのポインティングデバイスでは困難な操作を実現することができる。
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
この発明は、操作者のジェスチャーに対応する操作内容を実行するユーザインタフェース装置及びユーザインタフェース方法に適している。
1 マウス(ポインティングデバイス)、2 カメラ、3 表示部、10 操作制御部、11 ジェスチャー検知部、12 手形状記憶部、13 手検出部、14 ジェスチャー判定部、15 操作内容決定部、16 操作内容記憶部、17 操作内容決定処理部、18 操作内容実行部、21 手形状記憶回路、22 手検出回路、23 ジェスチャー判定回路、24 操作内容記憶回路、25 操作内容決定処理回路、26 操作内容実行回路、31 メモリ、32 プロセッサ。

Claims (11)

  1. 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
    操作者を撮影するカメラと、
    前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
    前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
    前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
    を備え、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールする操作内容を決定することを特徴とするユーザインタフェース装置。
  2. 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
    操作者を撮影するカメラと、
    前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
    前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
    前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
    を備え、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールして、前記選択が受け付けられたオブジェクトを前記スクロール後の画面上に移動する操作内容を決定するユーザインタフェース装置。
  3. 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
    操作者を撮影するカメラと、
    前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
    前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
    前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
    を備え、
    前記操作内容決定部は、前記ジェスチャー検知部により検知されたジェスチャーが画面左右方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウを画面左右方向に移動する操作内容を決定するユーザインタフェース装置。
  4. 前記操作内容決定部は、複数のウィンドウが開いている場合、前記複数のウィンドウを一緒に画面左右方向に移動する操作内容を決定することを特徴とする請求項記載のユーザインタフェース装置。
  5. 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
    操作者を撮影するカメラと、
    前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
    前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
    前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
    を備え、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウのサイズを変更する操作内容を決定するユーザインタフェース装置。
  6. 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
    操作者を撮影するカメラと、
    前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
    前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
    前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
    を備え、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、前記選択が受け付けられたオブジェクトのサイズを変更する操作内容を決定するユーザインタフェース装置。
  7. ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
    カメラが、操作者を撮影し、
    ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
    操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
    操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールする操作内容を決定するユーザインタフェース方法。
  8. ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
    カメラが、操作者を撮影し、
    ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
    操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
    操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールして、前記選択が受け付けられたオブジェクトを前記スクロール後の画面上に移動する操作内容を決定するユーザインタフェース方法。
  9. ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
    カメラが、操作者を撮影し、
    ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
    操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
    操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
    前記操作内容決定部は、前記ジェスチャー検知部により検知されたジェスチャーが画面左右方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウを画面左右方向に移動する操作内容を決定するユーザインタフェース方法。
  10. ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
    カメラが、操作者を撮影し、
    ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
    操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
    操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウのサイズを変更する操作内容を決定するユーザインタフェース方法。
  11. ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
    カメラが、操作者を撮影し、
    ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
    操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
    操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
    前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、前記選択が受け付けられたオブジェクトのサイズを変更する操作内容を決定するユーザインタフェース方法。
JP2018522285A 2016-06-10 2016-06-10 ユーザインタフェース装置及びユーザインタフェース方法 Active JP6373541B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/067377 WO2017212641A1 (ja) 2016-06-10 2016-06-10 ユーザインタフェース装置及びユーザインタフェース方法

Publications (2)

Publication Number Publication Date
JPWO2017212641A1 JPWO2017212641A1 (ja) 2018-08-09
JP6373541B2 true JP6373541B2 (ja) 2018-08-15

Family

ID=60577669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018522285A Active JP6373541B2 (ja) 2016-06-10 2016-06-10 ユーザインタフェース装置及びユーザインタフェース方法

Country Status (2)

Country Link
JP (1) JP6373541B2 (ja)
WO (1) WO2017212641A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251368A (ja) * 1996-03-18 1997-09-22 Hitachi Ltd 知的エージェントの構築支援システム
WO2010026587A1 (en) * 2008-09-04 2010-03-11 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
JP2015153353A (ja) * 2014-02-19 2015-08-24 パイオニア株式会社 情報処理装置及び方法、並びにコンピュータプログラム

Also Published As

Publication number Publication date
WO2017212641A1 (ja) 2017-12-14
JPWO2017212641A1 (ja) 2018-08-09

Similar Documents

Publication Publication Date Title
KR101761050B1 (ko) 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법
US11720181B2 (en) Cursor mode switching
JP6121534B2 (ja) ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体
US20070018966A1 (en) Predicted object location
US9513768B2 (en) Generation of depth images based upon light falloff
JP5453246B2 (ja) コンパクト・デバイスのためのカメラ・ベースのユーザ入力
WO2011142317A1 (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US20130293460A1 (en) Computer vision based control of an icon on a display
JP2014238727A (ja) 情報処理装置およびその方法
JP2018049432A5 (ja)
US20120133680A1 (en) Instantaneous panning using a groove metaphor
JP6373541B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
AU2015309688B2 (en) Methods and systems for positioning and controlling sound images in three-dimensional space

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180516

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180717

R150 Certificate of patent or registration of utility model

Ref document number: 6373541

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250