JP6373541B2 - ユーザインタフェース装置及びユーザインタフェース方法 - Google Patents
ユーザインタフェース装置及びユーザインタフェース方法 Download PDFInfo
- Publication number
- JP6373541B2 JP6373541B2 JP2018522285A JP2018522285A JP6373541B2 JP 6373541 B2 JP6373541 B2 JP 6373541B2 JP 2018522285 A JP2018522285 A JP 2018522285A JP 2018522285 A JP2018522285 A JP 2018522285A JP 6373541 B2 JP6373541 B2 JP 6373541B2
- Authority
- JP
- Japan
- Prior art keywords
- operation content
- gesture
- operator
- determination unit
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
Description
このユーザインタフェース装置では、タッチデバイスで指示された画面上の位置情報と、ペンデバイスで指示された画面上の位置情報とから、操作内容であるイベントを決定している。
図1はこの発明の実施の形態1によるユーザインタフェース装置を示す構成図であり、図2はこの発明の実施の形態1によるユーザインタフェース装置における操作制御部10のハードウェア構成図である。
図1において、マウス1は操作対象のオブジェクトの選択を受け付けるポインティングデバイスである。
この実施の形態1では、ポインティングデバイスがマウス1である例を示しているが、ポインティングデバイスはマウス1に限るものではなく、例えば、タッチペンやジョイスティックなどであってもよい。
操作制御部10はジェスチャー検知部11、操作内容決定部15及び操作内容実行部18を備えている。
ジェスチャー検知部11は手形状記憶部12、手検出部13及びジェスチャー判定部14を備えており、カメラ2により撮影された操作者の映像から、操作者のジェスチャーを検知する処理を実施する。
手の形状は、指を開いている状態や、指を閉じている状態など、様々な状態で撮影されている。このため、手形状記憶部12は様々な状態で各種の方向から撮影されている手映像を記憶している。
手検出部13は例えば図2の手検出回路22で実現されるものであり、カメラ2により撮影された映像と手形状記憶部12により記憶された手映像とを比較することで、カメラ2により撮影された映像内に操作者の手が映っているか否かを判定し、操作者の手が映っていれば、手が映っている3次元座標を示す位置情報を出力する処理を実施する。
即ち、ジェスチャー判定部14は手検出部13から出力された位置情報が示す3次元座標の変化から手の移動方向を判定する処理を実施する。
また、ジェスチャー判定部14は手の移動方向が画面上下方向であれば、画面上下方向の移動動作を表現するジェスチャーを検知した旨を示す検知情報を出力し、手の移動方向が画面左右方向であれば、画面左右方向の移動動作を表現するジェスチャーを検知した旨を示す検知情報を出力し、手の移動方向が画面垂直方向であれば、画面垂直方向の移動動作を表現するジェスチャーを検知した旨を示す検知情報を出力する処理を実施する。
操作内容記憶部16は例えば図2の操作内容記憶回路24で実現されるものであり、マウス1によるオブジェクトの選択受付状況及びジェスチャーと操作内容の対応関係を記憶している。
操作内容決定処理部17は例えば図2の操作内容決定処理回路25で実現されるものであり、操作内容記憶部16を参照して、マウス1によるオブジェクトの選択受付状況とジェスチャー判定部14から出力された検知情報が示すジェスチャーとから操作内容を決定する処理を実施する。
表示部3は例えばパソコンのディスプレイであり、操作内容実行部18により実行された操作内容等を表示する。
ここで、手形状記憶回路21及び操作内容記憶回路24は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
また、手検出回路22、ジェスチャー判定回路23、操作内容決定処理回路25及び操作内容実行回路26は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
図3はユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
ユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合、手形状記憶部12及び操作内容記憶部16をコンピュータのメモリ31上に構成するとともに、手検出部13、ジェスチャー判定部14、操作内容決定処理部17及び操作内容実行部18の処理手順をコンピュータに実行させるためのプログラムをメモリ31に格納し、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行するようにすればよい。
図4はユーザインタフェース装置における操作制御部10がソフトウェアやファームウェアなどで実現される場合の処理手順を示すフローチャートである。
カメラ2は、操作者を撮影して、操作者の映像をジェスチャー検知部11の手検出部13に出力する。
ジェスチャー検知部11の手検出部13は、カメラ2から操作者の映像を受けると、その映像と手形状記憶部12により記憶されている手映像とを比較することで、カメラ2により撮影された映像内に操作者の手が映っているか否かを判定する。
手検出部13は、切り出した物体の形状が手の形状であれば(ステップST2:YESの場合)、カメラ2により撮影された映像内に操作者の手が映っていると判定する(ステップST3)。
手検出部13は、切り出した物体の形状が手の形状でなければ(ステップST2:NOの場合)、カメラ2により撮影された映像内に操作者の手が映っていないと判定し(ステップST4)、操作者の手が映っていない旨をジェスチャー判定部14に知らせる。
映像内に存在している物体の切り出し処理や、パターンマッチングの処理自体は公知の技術であるため詳細な説明を省略する。
手検出部13は、カメラ2により撮影された映像内に操作者の手が映っていると判定すると、切り出した物体の3次元座標を示す位置情報(x,y,z)をジェスチャー判定部14に出力する(ステップST5)。
xは表示部3に表示される画面の左右方向の座標、yは表示部3に表示される画面の上下方向の座標、zは表示部3に表示される画面に対する垂直方向の座標であり、操作者の手の位置が画面から遠いほど、大きな値となる。
また、物体の位置情報(x,y,z)として、その物体における複数の特徴点の位置情報を出力するようにしてもよいが、例えば、その物体の重心点を計算して、その重心点の位置情報を出力するようにしてもよい。
即ち、ジェスチャー判定部14は、画面左右方向の座標xが変化していれば、手の移動方向が画面左右方向であると判定し、画面上下方向の座標yが変化していれば、手の移動方向が画面上下方向であると判定する。
また、ジェスチャー判定部14は、画面に対する垂直方向の座標zが変化していれば、手の移動方向が画面垂直方向であると判定する。
なお、画面左右方向の座標x、画面上下方向の座標y及び画面垂直方向の座標zの全てが変化している場合、変化が最も大きい座標に対応する方向が、手の移動方向であると判定する。
したがって、例えば、画面左右方向の座標xの変化が最も大きければ、手の移動方向が画面左右方向、画面上下方向の座標yの変化が最も大きければ、手の移動方向が画面上下方向、画面垂直方向の座標zの変化が最も大きければ、手の移動方向が画面垂直方向であると判定する。
また、ジェスチャー判定部14は、手の移動方向が画面垂直方向であれば、画面垂直方向の移動動作を表現するジェスチャーが行われていると判断して、当該ジェスチャーを検知した旨を示す検知情報を操作内容決定部15に出力する(ステップST7)。
ジェスチャー判定部14は、手検出部13から操作者の手が映っていない旨の知らせを受けると、ジェスチャーを検知していない旨を示す非検知情報を操作内容決定部15に出力する(ステップST8)。
マウス1は、操作対象のオブジェクトの選択を受け付ける処理を実施し、操作者がマウス1を用いて、操作対象のオブジェクトを選択した場合には、マウス1が、操作者により選択されたオブジェクトを示す選択情報を操作内容決定部15に出力する。
図5は操作内容記憶部16に記憶されている対応関係の一例を示す説明図である。
図5に記憶されている操作内容Aは、操作対象のオブジェクトが選択されていない状態で、画面上下方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウ内の画面を上下方向にスクロールする操作内容である。
図5に記憶されている操作内容Bは、操作対象のオブジェクトが選択されている状態で、画面上下方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウ内の画面を上下方向にスクロールして、選択が受け付けられたオブジェクトをスクロール後の画面上に移動する操作内容である。
図5に記憶されている操作内容Dは、操作対象のオブジェクトが選択されているか否かにかかわらず、複数のウィンドウが開いている場合において、画面左右方向の移動動作を表現するジェスチャーが検知された場合、現在開いている複数のウィンドウを一緒に画面左右方向に移動する操作内容である。
図5に記憶されている操作内容Fは、操作対象のオブジェクトが選択されている状態で、画面垂直方向の移動動作を表現するジェスチャーが検知された場合、選択が受け付けられたオブジェクトのサイズを変更する操作内容である。
操作内容決定処理部17は、マウス1から選択情報を受けていない場合(ステップST9:NOの場合)、その検知情報が示すジェスチャーのみから操作内容を決定し、その操作内容を操作内容実行部18に出力する(ステップST11)。
例えば、操作対象のオブジェクトが選択されている状態で、画面上下方向の移動動作を表現するジェスチャーが検知された場合、現在開いているウィンドウ内の画面を上下方向にスクロールして、選択が受け付けられたオブジェクトをスクロール後の画面上に移動する図5の操作内容Bを決定する。
例えば、操作対象のオブジェクトが選択されているか否かにかかわらず、複数のウィンドウが開いている場合において、画面左右方向の移動動作を表現するジェスチャーが検知された場合、現在開いている複数のウィンドウを一緒に画面左右方向に移動する図5の操作内容Dを決定する。
例えば、操作対象のオブジェクトが選択されている状態で、画面垂直方向の移動動作を表現するジェスチャーが検知された場合、選択が受け付けられたオブジェクトのサイズを変更する図5の操作内容Fを決定する。
操作内容決定処理部17は、マウス1から選択情報を受けていない場合(図4のステップST12:NOの場合)、操作内容を決定せずに、一連の処理を終了する。
表示部3は、操作内容実行部18により実行された操作内容を表示する。
図6は図5の操作内容Aが実行されることで、現在開いているウィンドウ内の画面を上下方向にスクロールしている様子を示す説明図である。
図6の例では、移動動作が画面上方向であるため、現在開いているウィンドウ内の画面が上方向にスクロールしている。
図7の例では、移動動作が画面上方向であるため、現在開いているウィンドウ内の画面が上方向にスクロールしている。また、選択が受け付けられたオブジェクトは、スクロール後の画面上に存在している1つのフォルダ内に格納されている様子を示している。
図8の例では、移動動作が画面右方向であるため、現在開いているウィンドウが画面右方向に移動している
図9は図5の操作内容Dが実行されることで、現在開いている複数のウィンドウを一緒に画面左右方向に移動している様子を示す説明図である。
図9Aは図5の操作内容Dが実行される前の状態を示し、図9Bは図5の操作内容Dが実行された後の状態を示している。図9Bでは、複数のウィンドウが画面右方向に移動されたことで、ウィンドウに隠れていた目的のフォルダが見つかっている状態を示している。
図9の例では、移動動作が画面右方向であるため、現在開いている複数のウィンドウが一緒に画面右方向に移動している。
マウス、タッチデバイス及びペンデバイスなどのポインティングデバイスでは、複数のウィンドウを一緒に移動させる操作を行うことは困難である。
図10の例では、移動動作が画面に近づく方向であるため、現在開いているウィンドウが拡大されている。移動動作が画面から遠ざかる方向であれば、現在開いているウィンドウが縮小される。
図11は図5の操作内容Fが実行されることで、選択が受け付けられたオブジェクトのサイズを変更している様子を示す説明図である。
図11の例では、移動動作が画面に近づく方向であるため、選択が受け付けられたオブジェクトが拡大されている。移動動作が画面から遠ざかる方向であれば、選択が受け付けられたオブジェクトが縮小される。
即ち、マウス、タッチデバイス及びペンデバイスなどのポインティングデバイスでは困難な操作を実現することができる。
Claims (11)
- 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
操作者を撮影するカメラと、
前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
を備え、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールする操作内容を決定することを特徴とするユーザインタフェース装置。 - 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
操作者を撮影するカメラと、
前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
を備え、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールして、前記選択が受け付けられたオブジェクトを前記スクロール後の画面上に移動する操作内容を決定するユーザインタフェース装置。 - 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
操作者を撮影するカメラと、
前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
を備え、
前記操作内容決定部は、前記ジェスチャー検知部により検知されたジェスチャーが画面左右方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウを画面左右方向に移動する操作内容を決定するユーザインタフェース装置。 - 前記操作内容決定部は、複数のウィンドウが開いている場合、前記複数のウィンドウを一緒に画面左右方向に移動する操作内容を決定することを特徴とする請求項3記載のユーザインタフェース装置。
- 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
操作者を撮影するカメラと、
前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
を備え、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウのサイズを変更する操作内容を決定するユーザインタフェース装置。 - 操作対象のオブジェクトの選択を受け付けるポインティングデバイスと、
操作者を撮影するカメラと、
前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知するジェスチャー検知部と、
前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定する操作内容決定部と、
前記操作内容決定部により決定された操作内容を実行する操作内容実行部と
を備え、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、前記選択が受け付けられたオブジェクトのサイズを変更する操作内容を決定するユーザインタフェース装置。 - ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
カメラが、操作者を撮影し、
ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールする操作内容を決定するユーザインタフェース方法。 - ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
カメラが、操作者を撮影し、
ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面上下方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウ内の画面を上下方向にスクロールして、前記選択が受け付けられたオブジェクトを前記スクロール後の画面上に移動する操作内容を決定するユーザインタフェース方法。 - ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
カメラが、操作者を撮影し、
ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
前記操作内容決定部は、前記ジェスチャー検知部により検知されたジェスチャーが画面左右方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウを画面左右方向に移動する操作内容を決定するユーザインタフェース方法。 - ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
カメラが、操作者を撮影し、
ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられていないときに、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、現在開いているウィンドウのサイズを変更する操作内容を決定するユーザインタフェース方法。 - ポインティングデバイスが操作対象のオブジェクトの選択を受け付ける処理を実施し、
カメラが、操作者を撮影し、
ジェスチャー検知部が、前記カメラにより撮影された操作者の映像から、前記操作者のジェスチャーを検知し、
操作内容決定部が、前記ポインティングデバイスによるオブジェクトの選択受付状況と前記ジェスチャー検知部により検知されたジェスチャーとから操作内容を決定し、
操作内容実行部が、前記操作内容決定部により決定された操作内容を実行し、
前記操作内容決定部は、前記ポインティングデバイスによりオブジェクトの選択が受け付けられた後に、前記ジェスチャー検知部により検知されたジェスチャーが画面垂直方向の移動動作を表現するジェスチャーであれば、前記選択が受け付けられたオブジェクトのサイズを変更する操作内容を決定するユーザインタフェース方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/067377 WO2017212641A1 (ja) | 2016-06-10 | 2016-06-10 | ユーザインタフェース装置及びユーザインタフェース方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017212641A1 JPWO2017212641A1 (ja) | 2018-08-09 |
JP6373541B2 true JP6373541B2 (ja) | 2018-08-15 |
Family
ID=60577669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018522285A Active JP6373541B2 (ja) | 2016-06-10 | 2016-06-10 | ユーザインタフェース装置及びユーザインタフェース方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6373541B2 (ja) |
WO (1) | WO2017212641A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09251368A (ja) * | 1996-03-18 | 1997-09-22 | Hitachi Ltd | 知的エージェントの構築支援システム |
WO2010026587A1 (en) * | 2008-09-04 | 2010-03-11 | Extreme Reality Ltd. | Method system and software for providing image sensor based human machine interfacing |
EP2891950B1 (en) * | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
JP2015153353A (ja) * | 2014-02-19 | 2015-08-24 | パイオニア株式会社 | 情報処理装置及び方法、並びにコンピュータプログラム |
-
2016
- 2016-06-10 WO PCT/JP2016/067377 patent/WO2017212641A1/ja active Application Filing
- 2016-06-10 JP JP2018522285A patent/JP6373541B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017212641A1 (ja) | 2017-12-14 |
JPWO2017212641A1 (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101761050B1 (ko) | 인간-컴퓨터 자연스러운 3차원 손 제스처 기반 내비게이션 방법 | |
US11720181B2 (en) | Cursor mode switching | |
JP6121534B2 (ja) | ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体 | |
US20070018966A1 (en) | Predicted object location | |
US9513768B2 (en) | Generation of depth images based upon light falloff | |
JP5453246B2 (ja) | コンパクト・デバイスのためのカメラ・ベースのユーザ入力 | |
WO2011142317A1 (ja) | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 | |
US20130293460A1 (en) | Computer vision based control of an icon on a display | |
JP2014238727A (ja) | 情報処理装置およびその方法 | |
JP2018049432A5 (ja) | ||
US20120133680A1 (en) | Instantaneous panning using a groove metaphor | |
JP6373541B2 (ja) | ユーザインタフェース装置及びユーザインタフェース方法 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
AU2015309688B2 (en) | Methods and systems for positioning and controlling sound images in three-dimensional space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180516 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180516 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6373541 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |