JP2016224686A - 情報処理装置、その制御方法、プログラム、及び記憶媒体 - Google Patents
情報処理装置、その制御方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP2016224686A JP2016224686A JP2015110215A JP2015110215A JP2016224686A JP 2016224686 A JP2016224686 A JP 2016224686A JP 2015110215 A JP2015110215 A JP 2015110215A JP 2015110215 A JP2015110215 A JP 2015110215A JP 2016224686 A JP2016224686 A JP 2016224686A
- Authority
- JP
- Japan
- Prior art keywords
- image
- recognition
- processing apparatus
- information processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】 本発明は、上記の目的を達成する一手段として、操作体を撮像した画像から、前記操作体の一部によって示される指示位置を検出し、前記画像から、前記操作体の状態に関する特徴を抽出し、前記検出手段によって検出された前記指示位置の数の遷移に応じて、前記検出された2つ以上の前記指示位置の位置関係の変化に基づいて所定の操作を認識する第1の認識処理と、前記抽出手段によって抽出された特徴に基づいて前記所定の操作を認識する第2の認識処理のうち、いずれかの認識結果に基づいて、表示部によって所定の表示面に表示される画像を制御する。
【選択図】 図1
Description
まず、第1の実施形態として、テーブルトップインタフェースシステムのテーブル面に投影されたアイテムに対し、拡縮・回転を指示するために、操作者が片手2本指によって入力するマルチタッチ操作を認識する処理の例を説明する。
図1は、本実施形態に係る情報処理装置100を設置したテーブルトップインタフェースシステムの外観の一例である。また、3次元空間内の位置情報を定義する座標軸も示す。操作面101は、テーブルトップインタフェースのテーブル部分であり、操作者は、操作面101をタッチすることでタッチ操作を入力することが可能である。本実施形態では、操作面101の上方に、操作面を見下ろすようにして距離画像センサ102が設置される。距離画像とは、各画素の値に、当該距離画像の撮像手段のレンズ中心などの基準位置から、当該画素に撮像された被写体表面までの距離に対応する情報が反映された画像である。本実施形態において、距離画像センサ102が撮像する距離画像の画素値には、距離画像センサ102から、操作面101あるいはその上方に存在する物体表面までの距離が反映される。撮像された距離画像は、情報処理装置100に入力画像として入力される。情報処理装置100は、入力画像を解析することで操作者の手106の三次元位置を取得し、入力される操作を認識する。従って操作者は、操作面101と距離画像センサ102の間の空間のうち、距離画像センサ102によって撮像可能な範囲で手などの所定の物体を動かすことによって、空間ジェスチャ操作を入力することも可能である。本実施形態では、赤外光の反射パターン(または反射時間)によって距離情報を取得する方式のセンサを利用する。
図2(a)は、本実施形態に係る情報処理装置100を含むテーブルトップインタフェースのハードウェア構成図である。中央処理ユニット(CPU)200は、RAM202をワークメモリとして、ROM201や記憶装置203に格納されたOSやプログラムを実行して、各種処理の演算や論理判断などを行い、システムバス204に接続された各構成を制御する。CPU200が実行する処理には、後述するマルチタッチ操作の認識処理が含まれる。記憶装置203は、ハードディスクドライブや各種インタフェースによって接続された外部記憶装置などであり、実施形態の操作認識処理にかかるプログラムや各種データを記憶する。距離画像センサ102は、CPU200の制御に従い、アイテムが表示されるテーブルとアイテムを操作する操作者の手を含む空間の距離画像を撮像し、撮影した距離画像をシステムバス204に出力する。本実施形態では、距離画像の取得方法として、環境光やテーブル面の表示の影響が小さい赤外パターン投影方式を基に説明するが、用途に応じて視差方式や赤外光の反射時間を利用する方式などを利用することも可能である。プロジェクタ104は、CPU200の制御に従い、テーブルに操作対象となる画像アイテムを投影表示する。
図3のフローチャートに従って第1の実施形態のマルチタッチ操作の認識処理を説明する。図3のフローチャートの処理は、情報処理装置の各機能部を構成するCPU200がROM201に記録されたプログラムをRAM202に展開して実行することで実現される。また、この処理は、距離画像センサ102によって撮影された距離画像が情報処理装置100に入力されたことに応じて起動される。
ここで、ステップS308において第1の認識処理が選択された場合に、ステップS315で実行される認識処理の詳細を説明する。第1の認識処理では、タッチ状態にある2つの指示位置の位置関係の変化に基づいて、マルチタッチ操作が認識される。本実施形態では、少なくとも2点の指示位置間の距離の変化に基づいて、表示されている画像を拡大あるいは縮小させる指示を入力するマルチタッチ操作を認識可能である。なお、2点の指示位置間の距離を広げることによって表示画像の拡大を指示するマルチタッチ操作はピンチアウト操作、2点の指示位置間の距離を狭めることによって表示画像の縮小を指示するマルチタッチ操作はピンチイン操作と呼ばれることがある。さらに本実施形態では、2点の指示位置の相対的な回転に基づいて表示されている画像を回転させる指示を入力するマルチタッチ操作を認識可能である。ただし、ここに挙げた操作は一例であり、これらに限られない。
次に、ステップS311において第2の認識処理が選択された場合に、ステップS315で実行される認識処理の詳細を説明する。第2の認識処理は、指示位置を2点検出できない場合の補完手段として、指示位置の検出可否に依存せずに、手領域から抽出することが可能な手の特徴が示す手の状態の変化に基づいて所定のマルチタッチ操作を認識する。第2の認識処理では、第1の認識処理で認識可能なピンチアウト操作、ピンチイン操作、回転操作による指示のそれぞれを第1の認識処理とは異なる方法で認識することが可能である。
ここで、本実施形態において、タッチ状態にある指示位置の検出数に基づいて、マルチタッチ操作の認識処理を選択および解除する、ステップS305からステップS314の処理について作用と効果を説明する。
2つのマルチタッチ操作の認識処理方法を切り替える際には、認識結果の出力値が不連続になる可能性がある。そこで、本実施形態に適用可能な変形例として、切り替え時に出力値が不連続とならないように補正を加える処理を説明する。
マルチタッチ操作の一例として、拡縮操作の認識方法が、第1の認識処理から第2の認識処理に切り替わる際に発生する出力値(拡縮倍率)が不連続となる場合の例を図7(a)に示す。図7(a)は、時刻t0からt5にかけて取得される2点間の距離、「手の大きさ」、前フレームで取得した情報との比率、結果として出力される拡縮倍率を、左から右に順に並べている。時刻t0からt2までは第1の認識処理が実行され、時刻t2からt3にかけて処理方法が切り替わり、t3からt5の間は第2の認識処理が実行されている。図7(a)の例では、時刻t2からt3にかけて処理方法が切り替わる際に、出力値が120%から100%となり不連続が発生する。
補正処理1では、図3のフローチャートのステップS315において、第1の認識処理による最新の出力値が出力される度に、その情報を最終出力値として保持する。そして、ステップS311で第2の認識処理が選択されると、続くステップS315では、第2の認識処理による結果の値を、最終出力値で補正した値を出力する。補正処理1を加えた場合の拡縮操作の認識結果の例を図8(a)に示す。図8(a)の例では、認識処理が切り替わる直前(時刻t2)に第1の認識処理によって求められた比率120%を最終比率として保持し、切り替え以降の第2の認識処理においては、その比率に最終比率120%を乗じた上で出力する。これにより、時刻t2からt3にかけて認識処理が切り替わる際にも、出力値が120%となり不連続とならない。なお、回転操作の場合は、第2の認識処理の出力値に最終出力値を加えた上で出力することにより不連続を抑制できる。
補正処理2においても、第1の認識処理中に、最新の出力値を最終出力値として保持する。また、第1の認識処理中に、最新のフレームに基づくステップS303の処理で得られた手の状態に関する特徴(手特徴)の値を、最終手特徴として保持する。そして、ステップS311で第2の認識処理が選択されると、続くステップS315では、最新フレームから取得した手特徴を基準にするのではなく、前のフレームに基づく第1の認識処理によって保持された最終手特徴を基準として出力値を算出する。第2の認識処理への切り替え以降は、最終手特徴を基準として取得した出力値を、最終出力値で補正した値を出力する。
マルチタッチ操作の一例として、拡縮操作の認識処理方法が、第2の認識処理から第1の認識処理に切り替わる際に発生する出力値(拡縮倍率)が不連続となる場合の例を図7(b)に示す。図7(b)の場合は、時刻t0からt2までは第2の認識処理が実行され、時刻t2からt3にかけて認識処理が切り替わり、t3からt5の間は第1の認識処理が実行されている。図7(b)の例では、時刻t2からt3にかけて処理方法が切り替わる際に、出力値が114%から100%となり不連続が発生する。
補正処理3では、ステップS308で第1の認識処理が選択され、ステップS315の処理が開始されると、第1の認識処理を開始するフレームについて、第1の認識処理と平行して、第2認識部217による第2の認識処理を実行し、比率を算出する。そして、第1認識部216による第1認識処理に基づく比率との差分を算出し、これを補正値とする。それ以降の第1の認識処理では、第1の認識処理の結果得られた出力値に、補正値による補正を加えた値を出力する。補正処理3を加えた場合の拡縮操作の認識結果の例を図9に示す。図9の例では、認識処理が切り替わった直後(時刻t3)の「手の大きさ」の170mmと、基準大きさである140mmにより比率121%を算出する。比率121%と。第1の認識処理によって取得される比率100%との差分21%を補正値とする。以降の第1の認識処理時には、基準距離65mmとの比率に補正値21%を加えた値を出力する。これにより、時刻t2からt3にかけて認識処理が切り替わる際に、出力値が114%から121%となり、出力値の連続的な変化を実現できる。なお、補正処理3において、補正値を乗算ではなく加算によって考慮するのは、手の外接円の直径と指先2点間の距離の変化量が比例関係にはなく、後者の方が変化の幅が大きいため、乗算を用いると出力値が過度に大きくなる可能性があるためである。
第2の実施形態では、壁面スクリーンに投影表示されたアイテムに対して、拡縮・回転を指示するために、操作者が両手によって入力する空間ジェスチャ操作を入力する処理の例を説明する。ここで空間ジェスチャ操作とは、操作体を操作面に接触あるいは近接させながら行うことが条件となるタッチ操作に対して、空中で操作体を移動させることによって入力される操作方法をいう。本実施形態では、特に、複数の独立した操作体を使って同時に複数個所を指示しながら、それらを予め定められた規則に従って動かすことによって、当該動きに対応付けられた指示コマンドを入力する空間ジェスチャ操作を認識対象とする。操作体としては、操作者の両方の手(手首から先の部分)が用いられるとし、特に全ての指を掌側に織り込んだ「こぶしを握るポーズ」をとった手を、操作入力中の操作体として追跡する。
図10(a)により、本実施形態に係るインタフェースシステムの外観の一例を示す。なお、第2実施形態にかかる情報処理装置100のハードウェアの構成は、第1の実施形態に準じるものとし、詳細な説明を省略する。第2の実施形態のシステムでは、スクリーン1000が投影面となるように設置されたプロジェクタ104によって、操作対象のアイテム105がスクリーン1000に投影される。また、スクリーン1000を背景とする空間を撮像可能なように、距離画像センサ102が設置される。当該空間には、スクリーン1000、投影された操作対象アイテム105、操作者1001が含まれる。なお、スクリーン1000をアイテム105の表示機能を備えるディスプレイ一体型のスクリーンとした場合、プロジェクタ104の構成を省略することも可能である。
図10(b)は、本実施形態における情報処理装置100の機能構成の一例を示すブロック図である。各機能部は、CPU200が、ROM201に格納されたプログラムをRAM202に展開し、第1の実施形態に準じた各フローチャートに従った処理を実行することで実現される。ただし、代替としてハードウェアを用いることも可能である。
図11のフローチャートにより第2の実施形態における操作の認識処理を説明する。なお、図3のフローチャートと同一の番号を付したステップでは、第1の実施形態と同等の処理が実行されるため、説明を省略し、第1の実施形態との差異部分を中心に説明する。図11のフローチャートの処理は、情報処理装置の各機能部を構成するCPU200がROM201に記録されたプログラムをRAM202に展開して実行することで実現される。また、この処理は、距離画像センサ102によって撮影された距離画像が情報処理装置100に入力されたことに応じて起動される。
ここで、第2の実施形態において、ステップS311で第2の認識処理が選択された場合に、ステップS1106で実行される認識処理の詳細を説明する。第2の認識処理は、指示位置を2点検出できない場合の補完手段として、指示位置の検出可否に依存せずに、手領域から抽出することが可能な手の特徴が示す手の状態の変化に基づいて所定の空間ジェスチャ操作を認識する。第2の実施形態においても、第1の認識処理では認識可能なピンチアウト操作、ピンチイン操作、回転操作による指示のそれぞれが認識可能であり、第2の認識処理では、第1の認識処理とは異なる方法でそれらを認識することが可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
211 手領域抽出部
212 検出部
213 特徴抽出部
214 判定部
215 選択部
216 第1認識部
217 第2認識部
218 表示制御部
Claims (22)
- 操作体を撮像した画像から、前記操作体の一部によって示される指示位置を検出する検出手段と、
前記操作体を撮像した画像から、前記操作体の状態に関する特徴を抽出する抽出手段と、
前記検出手段によって検出された2つ以上の前記指示位置の位置関係の変化に基づいて、所定の操作を認識する第1の認識手段と、
前記抽出手段によって抽出された特徴が示す前記操作体の状態の変化に基づいて、前記所定の操作を認識する第2の認識手段と、
前記第1の認識手段及び前記第2の認識手段のうち、前記検出手段によって検出された前記指示位置の数の遷移に応じたいずれかの認識結果に基づいて、表示部によって所定の表示面に表示される画像を制御する制御手段と、
を備える情報処理装置。 - 前記操作体の状態に関する特徴とは、前記操作体を撮像した画像に写っている前記操作体の一部の大きさ、又は前記操作体を撮像した画像に写っている前記操作体の方向を表す特徴を含むことを特徴とする請求項1に記載の情報処理装置。
- 前記制御手段は、前記検出手段によって検出された前記指示位置の数が2点に遷移した場合、前記第1の認識手段の認識結果に基づいて、前記表示部によって所定の表示面に表示される画像を制御する
ことを特徴とする請求項1又は2に記載の情報処理装置。 - 前記制御手段は、前記検出手段によって検出された指示位置の数が2点から1点に遷移した場合、前記第2の認識手段の認識結果に基づいて、前記表示部によって所定の表示面に表示される画像を制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 - 前記所定の操作とは、前記表示部によって表示されている画像に関する長さを変化させる指示を入力するための操作、及び、前記表示部によって表示されている画像に関する方向を変化させる指示を入力するための操作の少なくともいずれかを含むことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記所定の操作とは、前記表示部によって表示されている画像を拡大あるいは縮小させる指示を入力するためのマルチタッチ操作、及び、前記表示部によって表示されている画像を回転させる指示を入力するためのマルチタッチ操作の少なくともいずれかを含むことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 更に、前記検出手段によって検出された指示位置の数が0点に遷移した場合、前記操作体と、前記操作体を用いたタッチ入力の対象となる操作面との間の距離が所定の距離より小さいかを判定する判定手段を備え、
前記制御手段は、前記判定手段によって、前記距離が所定の距離よりも小さいと判定された場合、前記第2の認識手段の認識結果に基づいて、前記表示部によって所定の表示面に表示される画像を制御する
ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 - 前記制御手段は、前記検出手段によって検出された指示位置の数が3点以上に遷移した場合、前記第2の認識手段の認識結果に基づいて、前記表示部によって所定の表示面に表示される画像を制御する
ことを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。 - 前記第1の認識手段は、前記検出手段によって検出された2点の前記指示位置の間の距離の変化に基づいて、前記表示部によって表示されている画像を拡大あるいは縮小させる指示を入力するためのマルチタッチ操作を認識する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記第1の認識手段は、前記検出手段によって検出された2つ以上の前記指示位置の相対的な回転に基づいて、前記表示部によって表示されている画像を回転させる指示を入力するためのマルチタッチ操作を認識する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記抽出手段は、前記操作体を撮像した画像のうち、前記操作体の像が撮像された領域に基づいて、前記操作体の大きさに関する特徴を抽出し、
前記第2の認識手段は、前記抽出手段によって抽出された、前記操作体の大きさに対応する特徴に基づいて、前記操作体の大きさの変化に応じて前記表示部によって表示されている画像を拡大あるいは縮小させる指示を入力するためのマルチタッチ操作を認識することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。 - 前記抽出手段は、前記画像のうち、前記操作体の像が撮像された領域に基づいて、前記操作体の方向に関する特徴を抽出し、
前記第2の認識手段は、前記抽出手段によって抽出された、前記操作体の方向に対応する特徴に基づいて、前記操作体の回転に応じて前記表示部によって表示された画像を回転させる指示を入力するためのマルチタッチ操作を認識することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 - 更に、前記検出手段によって検出された前記指示位置の数の遷移に基づいて、前記第1の認識手段と前記第2の認識手段のいずれかを選択する選択手段を備え、
前記第1の認識手段及び前記第2の認識手段は、前記選択手段に選択されたことに応じて、前記操作体を用いて入力された操作の認識を実行することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 - 前記画像は、距離画像センサによって撮像された距離画像であって、
前記距離画像センサは、前記操作体と、前記操作体を用いたタッチ入力の対象となる操作面との間の距離に対応する軸に沿った距離情報が前記距離画像の画素値に反映されるように設置されることを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 - 前記操作体は、操作者の片手であって、
前記抽出手段は、前記画像のうち前記片手が撮像された手領域の特徴を抽出し、
前記検出手段は、前記手領域のうち、1以上の指先の位置を検出することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。 - 前記抽出手段は、前記手領域の少なくとも一部の面積に対応する情報を、前記操作体の状態に関する特徴として抽出し、
前記第2の認識手段は、前記手領域の少なくとも一部の面積の変化に基づいて、前記表示部によって表示された画像を拡大あるいは縮小させる指示を入力するための所定の操作を認識することを特徴とする請求項15に記載の情報処理装置。 - 前記抽出手段は、前記手領域の少なくとも一部の外接円の直径の大きさに対応する情報を、前記操作体の状態に関する特徴として抽出し、
前記第2の認識手段は、前記手領域の少なくとも一部の外接円の直径の変化に基づいて、前記表示部によって表示された画像を拡大あるいは縮小させる指示を入力するための所定の操作を認識することを特徴とする請求項15又は16に記載の情報処理装置。 - 前記抽出手段は、前記手領域の少なくとも一部の形状を近似した図形の大きさに対応する情報を、前記操作体の状態に関する特徴として抽出し、
前記第2の認識手段は、前記手領域の少なくとも一部の形状を近似した図形の大きさの変化に基づいて、前記表示部によって表示された画像を拡大あるいは縮小させる指示を入力するための所定の操作を認識することを特徴とする請求項15乃至17のいずれか1項に記載の情報処理装置。 - 前記抽出手段は、前記手領域の少なくとも一部の慣性主軸の方向に対応する情報を、前記特徴として抽出し、
前記第2の認識手段は、前記手領域の少なくとも一部の慣性主軸の方向の変化に基づいて、前記表示部によって表示された画像を回転させる指示を入力するためのマルチタッチ操作を認識することを特徴とする請求項15乃至18のいずれか1項に記載の情報処理装置。 - 検出手段により、操作体を撮像した画像から、前記操作体の一部によって示される指示位置を検出する検出工程と、
抽出手段により、前記画像から、前記操作体の状態に関する特徴を抽出する抽出工程と、
第1の認識手段により、前記検出工程において検出された2つ以上の前記指示位置の位置関係の変化に基づいて、所定の操作を認識する第1の認識工程と、
第2の認識手段により、前記抽出工程において抽出された特徴が示す前記操作体の状態の変化に基づいて、前記所定の操作を認識する第2の認識工程と、
制御手段により、前記第1の認識手段及び前記第2の認識手段のうち、前記検出手段によって検出された前記指示位置の数の遷移に応じたいずれかの認識結果に基づいて、表示部によって所定の表示面に表示される画像を制御する制御工程と、
を備える情報処理装置の制御方法。 - コンピュータに読み込ませ実行させることによって、前記コンピュータに、請求項20に記載された情報処理装置の制御方法を実行させるプログラム。
- 請求項21に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015110215A JP6618276B2 (ja) | 2015-05-29 | 2015-05-29 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
US15/164,123 US9916043B2 (en) | 2015-05-29 | 2016-05-25 | Information processing apparatus for recognizing user operation based on an image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015110215A JP6618276B2 (ja) | 2015-05-29 | 2015-05-29 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016224686A true JP2016224686A (ja) | 2016-12-28 |
JP2016224686A5 JP2016224686A5 (ja) | 2018-06-14 |
JP6618276B2 JP6618276B2 (ja) | 2019-12-11 |
Family
ID=57398497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015110215A Expired - Fee Related JP6618276B2 (ja) | 2015-05-29 | 2015-05-29 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9916043B2 (ja) |
JP (1) | JP6618276B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020059245A1 (ja) * | 2018-09-18 | 2020-03-26 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN111339877A (zh) * | 2020-02-19 | 2020-06-26 | 北京百度网讯科技有限公司 | 盲区的长度检测方法、装置、电子设备及存储介质 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9880267B2 (en) * | 2015-09-04 | 2018-01-30 | Microvision, Inc. | Hybrid data acquisition in scanned beam display |
JP6841232B2 (ja) * | 2015-12-18 | 2021-03-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11275498B2 (en) * | 2016-08-31 | 2022-03-15 | Sony Corporation | Information processing system, information processing method, and program |
CN110045825B (zh) * | 2018-03-27 | 2022-05-13 | 杭州凌感科技有限公司 | 用于车辆交互控制的手势识别系统 |
KR102469722B1 (ko) * | 2018-09-21 | 2022-11-22 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
CN113119103B (zh) * | 2019-12-31 | 2022-10-14 | 深圳富泰宏精密工业有限公司 | 确定标记物的深度标准值的方法、计算机装置 |
US20220261085A1 (en) * | 2021-02-12 | 2022-08-18 | Apple Inc. | Measurement based on point selection |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290585A (ja) * | 2000-01-31 | 2001-10-19 | Canon Inc | 位置情報処理装置及びその方法及びそのプログラム、操作装置及びその方法及びそのプログラム |
JP2011503709A (ja) * | 2007-11-07 | 2011-01-27 | エヌ−トリグ リミテッド | デジタイザのためのジェスチャ検出 |
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
JP2013065061A (ja) * | 2011-09-15 | 2013-04-11 | Funai Electric Co Ltd | プロジェクタ |
US20140240293A1 (en) * | 2011-06-16 | 2014-08-28 | Light Blue Optics Ltd | Touch Sensitive Display Devices |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6943774B2 (en) * | 2001-04-02 | 2005-09-13 | Matsushita Electric Industrial Co., Ltd. | Portable communication terminal, information display device, control input device and control input method |
US20110102570A1 (en) * | 2008-04-14 | 2011-05-05 | Saar Wilf | Vision based pointing device emulation |
JP2013205983A (ja) | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
US20140240225A1 (en) * | 2013-02-26 | 2014-08-28 | Pointgrab Ltd. | Method for touchless control of a device |
-
2015
- 2015-05-29 JP JP2015110215A patent/JP6618276B2/ja not_active Expired - Fee Related
-
2016
- 2016-05-25 US US15/164,123 patent/US9916043B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290585A (ja) * | 2000-01-31 | 2001-10-19 | Canon Inc | 位置情報処理装置及びその方法及びそのプログラム、操作装置及びその方法及びそのプログラム |
JP2011503709A (ja) * | 2007-11-07 | 2011-01-27 | エヌ−トリグ リミテッド | デジタイザのためのジェスチャ検出 |
JP2012003690A (ja) * | 2010-06-21 | 2012-01-05 | Toyota Infotechnology Center Co Ltd | ユーザインタフェース装置 |
US20140240293A1 (en) * | 2011-06-16 | 2014-08-28 | Light Blue Optics Ltd | Touch Sensitive Display Devices |
JP2013065061A (ja) * | 2011-09-15 | 2013-04-11 | Funai Electric Co Ltd | プロジェクタ |
Non-Patent Citations (3)
Title |
---|
笠松 英,外2名: "手の甲の特徴点による手指の形状推定モデルの検討", 第75回(平成25年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6019005264, 6 March 2013 (2013-03-06), pages 99 - 100 * |
笠松 英,外2名: "筋骨格モデルを用いた手の姿勢推定手法の検討", FIT2014 第13回情報科学技術フォーラム 講演論文集, JPN6019005266, 19 August 2014 (2014-08-19), pages 269 - 270 * |
遠藤 直樹,外1名: "セルフオクルージョンに頑健な指先位置推定", 映像情報メディア学会技術報告, vol. 38, no. 16, JPN6019005263, 17 March 2014 (2014-03-17), JP, pages 127 - 128 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020059245A1 (ja) * | 2018-09-18 | 2020-03-26 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN111339877A (zh) * | 2020-02-19 | 2020-06-26 | 北京百度网讯科技有限公司 | 盲区的长度检测方法、装置、电子设备及存储介质 |
CN111339877B (zh) * | 2020-02-19 | 2023-04-07 | 阿波罗智联(北京)科技有限公司 | 盲区的长度检测方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6618276B2 (ja) | 2019-12-11 |
US20160349925A1 (en) | 2016-12-01 |
US9916043B2 (en) | 2018-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
JP6711817B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP5658500B2 (ja) | 情報処理装置及びその制御方法 | |
JP6482196B2 (ja) | 画像処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6039248B2 (ja) | 情報処理装置およびその制御方法 | |
JP6207240B2 (ja) | 情報処理装置及びその制御方法 | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
JP2016224686A5 (ja) | ||
JP6562752B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP6452369B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP2012022458A (ja) | 情報処理装置およびその制御方法 | |
JP6816727B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020080107A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6555958B2 (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP6579866B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP6289655B2 (ja) | 画面操作装置及び画面操作方法 | |
JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2017228216A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
WO2021075103A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2019016029A (ja) | 情報処理装置及びその制御方法、並びに、プログラム | |
JP2016110517A (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180502 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191112 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6618276 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |