JP6711817B2 - 情報処理装置、その制御方法、プログラム、及び記憶媒体 - Google Patents
情報処理装置、その制御方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP6711817B2 JP6711817B2 JP2017509073A JP2017509073A JP6711817B2 JP 6711817 B2 JP6711817 B2 JP 6711817B2 JP 2017509073 A JP2017509073 A JP 2017509073A JP 2017509073 A JP2017509073 A JP 2017509073A JP 6711817 B2 JP6711817 B2 JP 6711817B2
- Authority
- JP
- Japan
- Prior art keywords
- condition
- proximity
- degree
- touch
- touch input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 72
- 230000010365 information processing Effects 0.000 title claims description 40
- 230000008569 process Effects 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 33
- 230000007704 transition Effects 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 11
- 238000013459 approach Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 description 22
- 230000004048 modification Effects 0.000 description 17
- 238000012986 modification Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
一般的に「タッチ」とは、テーブル面に投影されたアイテムの表示領域に指先を接触または近接させることにより当該アイテムに対するタッチ入力を開始する動作である。また、「リリース」とは、タッチ操作後のアイテムに接触または近接させた指先をアイテムから離すことにより、当該アイテムに対するタッチ入力を終了する動作である。タッチ操作を採用する多くの情報処理装置は、タッチからリリースに至る間の指先の位置・動き・速度等に基づいてタップ・ムーブ・フリック等の様々なタッチ操作を認識することができる。例えば、指先を対象面にタッチした後、対象面に沿った方向にはほぼ動かずにすぐリリースするという一流れの入力は、「タップ操作」と呼ばれ、表示されているアイテムを選択するための指示として認識されることが多い。本実施形態では、「タッチ」と「リリース」のそれぞれを「タッチ操作」及び「リリース操作」という単独の操作の入力として認識し、ユーザに対してフィードバックを行う情報処理装置を例に説明していく。例えば、タッチ操作が認識されたこと応じて、タッチされているアイテムの色を変更する。さらにリリース操作が認識された場合には、タッチされていたアイテムを拡大する。また、本実施形態では、タッチからリリースに至る間の操作体の状態を、タッチ入力中と表記する。
図1は、本実施形態に係る情報処理装置100を設置したテーブルトップインタフェースシステムの外観の一例である。また、3次元空間内の位置情報を定義する座標軸も示す。対象面101は、テーブルトップインタフェースのテーブル部分であり、ユーザは、対象面101をタッチすることでタッチ操作を入力することが可能である。本実施形態では、対象面101の上方に、対象面を見下ろすようにして距離画像センサ102が設置される。距離画像とは、各画素の値に、基準位置(例えば、撮像に利用された撮像手段のレンズ中心など)から、その画素に撮像された被写体表面までの距離に対応する情報が反映された画像である。本実施形態において、距離画像センサ102が撮像する距離画像の画素値には、距離画像センサ102から、対象面101あるいはその上方に存在する物体表面までの距離が反映される。撮像された距離画像は、情報処理装置100に入力画像として入力される。情報処理装置100は、入力画像を解析することでユーザの手106の三次元位置を取得し、入力される操作を認識する。従ってユーザは、対象面101と距離画像センサ102の間の空間の、距離画像センサ102によって撮像可能な範囲内で手などの所定の物体を動かすことにより、空間ジェスチャ操作を入力することが可能である。本実施形態では、赤外光を利用するパターン照射方式、あるいは、TOF(Time-of-Flight)方式のセンサを利用する。
図2(a)は、本実施形態に係る情報処理装置100を含むテーブルトップインタフェースのハードウェア構成図である。中央処理ユニット(CPU)200は、RAM202をワークメモリとして、ROM201や記憶装置203に格納されたOSやプログラムを実行して、各種処理の演算や論理判断などを行い、システムバス204に接続された各構成を制御する。CPU200が実行する処理には、後述するタッチ操作とリリース操作の認識処理が含まれる。記憶装置203は、ハードディスクドライブや各種インタフェースによって接続された外部記憶装置などであり、実施形態の操作認識処理にかかるプログラムや各種データを記憶する。距離画像センサ102は、CPU200の制御に従い、アイテムが表示されるテーブルとアイテムを操作するユーザの手を含む空間の距離画像を撮像し、撮影した距離画像をシステムバス204に出力する。本実施形態では、距離画像の取得方法として、環境光やテーブル面の表示の影響が小さい赤外光を利用する方式のセンサを例に説明するが、用途に応じて視差方式や赤外光の反射時間を利用する方式などを利用することも可能である。プロジェクタ104は、CPU200の制御に従い、テーブルに操作対象となる画像アイテムを投影する。
図3のフローチャートに従って第1実施形態の操作の認識処理を説明する。図3のフローチャートの処理は、情報処理装置の各機能部を構成するCPU200がROM201に記録されたプログラムをRAM202に展開して実行することで実現される。本実施形態では、距離画像センサ102によって撮影された距離画像が情報処理装置100に入力されたことに応じて図3のフローチャートの処理が開始される。また本実施形態では、図3のフローチャートの処理が、距離画像センサ102から距離画像が入力される毎に繰り返される。従って処理が繰り返される周期は、距離画像センサ102の撮像映像のフレームレートに一致する。
ここで、ステップS311で実行されるリリース閾値決定処理の詳細を説明する。まず、図5に、タッチ操作とリリース操作を連続して入力する指先の、タッチ対象面に対する近接の程度の遷移の一例を表す。図5(a)(b)において、縦軸はz座標を表す。z座標は本実施形態では、操作体とタッチ対象面(z=0の面)の間の近接の程度を表す距離である。また、z座標は、テーブル面(z=0)からの指先の高さと言いかえることもできる。横軸は時間である。図5(a)の軌跡501は、ユーザが手106の人差指の指先500を対象面101に接触させてタッチ操作を行い、その直後にリリース操作を行う(この入力は上述したタップ操作に相当する)場合の指先500の理想的な軌跡である。理想的な軌跡501の場合、時間が進むにつれて、z座標が一様に減少し、ピークを越えた後で一様に増加している。
ここで、ステップS310で実行されるタッチ閾値の決定処理の詳細を説明する。図6(b)は、本実施形態で実行されるタッチ閾値決定処理の流れの一例を表すフローチャートである。まず、ステップS611において、条件決定部215は、この時点がリリース操作の後、所定時間以内かを判定する。ステップS611の処理は、例えばユーザが変わった場合や、実行されるアプリケーションが変わった場合、あるいは装置が起動状態のまま放置された場合に、確実に閾値を初期状態に戻すための処理である。従って、ステップS611で判定される所定時間は、1人のユーザがアプリケーションに対して連続操作を行う平均的な時間の長さに対して、十分に長い時間として定められる。また環境によっては、ステップS611は省略してしまってもよい。本実施形態では、条件決定部215は、ステップS412でRAM202に最後にリリース操作が認識された時刻の情報を使って判定する。現在がリリース操作の後所定時間以内であると判定された場合(ステップS611でYes)、ステップS613に進む。現在がリリース操作の後所定時間以内であると判定されない場合(ステップS611でNo)、ステップS612に進む。本実施形態において条件決定部215は、ステップS611でNoと判定する場合、ステップS412でRAM202に最後にリリース操作が認識された時刻の情報を削除する。なお、情報処理装置100が起動されてからこの時点までに一度もタッチ操作とリリース操作が認識されていない状態(初期状態といえる)でステップS611の処理が実行されている場合、判定結果はNoとなる。ステップS612では、条件決定部215が、タッチ閾値を、タッチ閾値の初期値として与えられている値γ(γ>0)に決定する。そして、図3のフローチャートに戻って一連の処理を終了する。
次に、第1実施形態の変形例として、タッチ操作の入力からリリース操作の入力までの間に、指先がある程度の距離を移動する場合にも、適切なタッチ閾値及びリリース閾値の決定する変形例を示す。変形例第1以下では、タッチ操作の入力からリリース操作の入力までの間に、操作体をタッチ対象面に平行な方向に移動させる操作を、ムーブ操作と称する。ユーザがムーブ動作を入力する場合に、タッチ対象面と操作体の間の距離に検出誤差が発生すると、ユーザの意図に反してリリース閾値を越える動きが検出されてしまうことで、ムーブ操作の途中でリリースが誤検出される場合がある。そこで、本実施形態では特に、操作体がタッチ状態にある間の動きが、ムーブ操作としての意味を有する可能性を考慮し、リリース操作が認識されるための条件(第1条件)の厳しさを制御する。
変形例においても、メイン処理となる操作認識処理の全体の流れは、図3のフローチャートに従って実行される。ただし、変形例では、ステップS306のタッチ操作の認識処理は、図9(a)のフローチャートに沿って実行される。また、ステップS311のリリース閾値の決定処理は、図9(b)のフローチャートに沿って実行される。以下、これらの第1実施形態との差異部分について説明する。
図9(a)は変形例のステップS306において実行される、タッチ操作の認識処理のフローチャートである。変形例では、ステップS402において、認識部216が、指先の状態がタッチ状態に遷移したことを表す情報をRAM202に保持すると、ステップS901に処理が進む。ステップS901において、時間取得部221は、タッチ継続時間の取得を開始する。タッチ継続時間とは、指先の状態が非タッチ状態からタッチ状態に遷移した時点から経過時間である。ステップS902では、移動量取得部220が、ステップS303において検出された指先位置の移動距離の取得を開始する。本実施形態では、現フレームにおける指先位置の座標をタッチ開始位置として保持し、以降のフレームで検出される指先位置との間に生じた変移量を算出するための基準とする。
図9(b)は変形例のステップS311において実行される、リリース閾値決定処理の流れを表すフローチャートである。まず、ステップS911において、時間取得部221が、ステップS901の処理で計測を開始したタッチ継続時間が、所定時間を越えたかを判定する。タッチ継続時間が、所定時間を越えたと判定される場合(ステップS911でYes)、ステップS913に進む。一方、タッチ継続時間が、所定時間を越えたと判定されない場合(ステップS911でNo)、ステップS912に進む。ステップS912では、移動量取得部220は、ステップS902で保持されたタッチ開始位置と、ステップS303で検出された指先位置の間の距離を、タッチ状態での移動距離として取得し、所定距離を越えたかを判定する。移動距離が所定距離を越えたと判定される場合(ステップS912でYes)、ステップS913に進む。一方、移動距離が所定距離を越えたと判定されない場合(ステップS912でNo)、ステップS601に進む。ステップS913では、条件決定部215が、リリース閾値を所定値δに決定し、リリース閾値決定処理を終了する。本実施形態において所定値δは、タッチ閾値の初期値として与えられる値γと同じであるとする。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
211 領域抽出部
212 位置検出部
213 距離取得部
214 基準決定部
215 条件決定部
216 認識部
217 表示制御部
Claims (17)
- 所定の面に対する操作体の近接の程度を表す情報を取得する取得手段と、
前記操作体による前記所定の面へのタッチ入力の開始が認識された第1の時点より後の前記近接の程度の遷移に基づいて、前記近接の程度に関する第1基準値を決定する基準決定手段と、
前記基準決定手段によって特定された前記第1基準値に基づいて、前記第1の時点に開始が認識された前記タッチ入力の終了を認識するための前記近接の程度に関する第1条件を決定する条件決定手段と、
前記取得手段によって取得される情報が表す前記近接の程度が前記条件決定手段によって決定された前記第1条件を満たしたことに応じて、前記タッチ入力の終了を認識する認識手段と、
を備え、前記条件決定手段は、前記第1の時点より後で、前記操作体が所定速度で移動するまでの間、前記第1条件を前記タッチ入力の終了を認識するための条件として決定することを特徴とする情報処理装置。 - 前記条件決定手段は、タッチ入力の開始が認識される度に、該タッチ入力の終了を認識するための前記近接の程度に関する第1条件を決定することを特徴とする請求項1に記載の情報処理装置。
- 前記近接の程度を表す情報とは、
前記操作体と前記所定の面との間の距離に対応する値であることを特徴とする、
請求項1又は2に記載の情報処理装置。 - 前記近接の程度を表す情報とは、
前記操作体により前記所定の面に与えられる圧力の大きさに対応する値であることを特徴とする、
請求項1又は2に記載の情報処理装置。 - 前記近接の程度を表す情報とは、
前記操作体が近接することによって前記所定の面に生じる静電容量の変化量に対応する値であることを特徴とする、
請求項1又は2に記載の情報処理装置。 - 前記近接の程度を表す情報とは、
前記操作体と前記所定の面とが接触する面積の大きさに対応する値であることを特徴とする、
請求項1又は2に記載の情報処理装置。 - 前記基準決定手段は、
前記操作体による前記所定の面へのタッチ入力の開始が認識された後の前記近接の程度の遷移のうち、前記操作体が前記所定の面に最も近づいた時点での前記近接の程度に基づいて前記第1基準値を決定することを特徴とする、
請求項1乃至6のいずれか一項に記載の情報処理装置。 - 前記条件決定手段は、前記操作体と前記所定の面との間の距離が、前記第1基準値に所定値を加えたことで得られる閾値より大きいことを前記近接の程度に関する前記第1条件として決定することを特徴とする、
請求項1乃至7のいずれか一項に記載の情報処理装置。 - 前記条件決定手段は、前記操作体による前記所定の面へのタッチ入力の開始が認識された後、前記タッチ入力が継続されている時間が所定時間を越えるまでの間は、前記第1条件を前記タッチ入力の終了を認識するための条件として決定することを特徴とする、
請求項1乃至8のいずれか一項に記載の情報処理装置。 - 前記条件決定手段は、前記第1の時点より後で、前記タッチ入力中の前記操作体の移動距離が所定距離を越えるまでの間、前記第1条件を前記タッチ入力の終了を認識するための条件として決定することを特徴とする、
請求項1乃至8のいずれか一項に記載の情報処理装置。 - さらに、
前記基準決定手段は、前記操作体による前記所定の面へのタッチ入力の終了が認識された第2の時点の後の前記近接の程度に基づいて、前記近接の程度に関する第2基準値を決定し、
前記条件決定手段は、前記第2基準値に基づいて、前記第2の時点より後に開始されるタッチ入力の開始を認識するための前記近接の程度に関する第2条件を決定し、前記認識手段は、前記取得手段によって取得される情報が表す前記近接の程度が前記条件決定手段によって決定された前記第2条件を満たしたことに応じて、新たなタッチ入力が開始されたことを認識する
を備えることを特徴とする請求項1乃至10のいずれか一項に記載の情報処理装置。 - 前記基準決定手段は、
前記第2の時点より後の前記近接の程度の遷移のうち、前記操作体が前記所定の面から最も離れた時点での前記近接の程度に基づいて前記第2基準値を決定することを特徴とする、
請求項11に記載の情報処理装置。 - 前記条件決定手段は、前記操作体と前記所定の面との間の距離が、前記第2基準値から所定値を減じたることで得られる閾値より小さいことを前記近接の程度に関する前記第2条件として決定することを特徴とする、
請求項11又は12のいずれか一項に記載の情報処理装置。 - 前記条件決定手段は、
前記第2の時点の後で、前記操作体と前記所定の面との間の距離が所定の距離を越えるまでの間、前記第2条件を前記タッチ入力が開始されたことを認識するための条件として決定することを特徴とする、
請求項11乃至13のいずれか一項に記載の情報処理装置。 - 取得手段により、所定の面に対する操作体の近接の程度を表す情報を取得する取得工程と、
基準決定手段により、前記操作体による前記所定の面へのタッチ入力の開始が認識された第1の時点より後の前記近接の程度の遷移に基づいて、前記近接の程度に関する第1基準値を決定する特定工程と、
条件決定手段により、前記第1基準値に基づいて、前記第1の時点に開始が認識された前記タッチ入力の終了を認識するための前記近接の程度に関する第1条件を決定する決定工程と、
認識手段により、前記取得工程で取得される情報が表す前記近接の程度が前記決定工程で決定された前記第1条件を満たしたことに応じて、前記タッチ入力の終了を認識する認識工程と、
を備え、前記条件決定工程では、前記第1の時点より後で、前記操作体が所定速度で移動するまでの間、前記第1条件を前記タッチ入力の終了を認識するための条件として決定することを特徴とする情報処理装置の制御方法。 - コンピュータを、所定の面に対する操作体の近接の程度を表す情報を取得する取得手段と、
前記操作体による前記所定の面へのタッチ入力の開始が認識された第1の時点より後の前記近接の程度の遷移に基づいて、前記近接の程度に関する第1基準値を決定する基準決定手段と、
前記基準決定手段によって特定された前記第1基準値に基づいて、前記第1の時点に開始が認識された前記タッチ入力の終了を認識するための前記近接の程度に関する第1条件を決定する条件決定手段と、
前記取得手段によって取得される情報が表す前記近接の程度が前記条件決定手段によって決定された前記第1条件を満たしたことに応じて、前記タッチ入力の終了を認識する認識手段とを備え、前記条件決定手段は、前記第1の時点より後で、前記操作体が所定速度で移動するまでの間、前記第1条件を前記タッチ入力の終了を認識するための条件として決定する情報処理装置として機能させるプログラム。 - 請求項16に記載されたプログラムを格納したことを特徴とするコンピュータが読み取り可能な記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/073332 WO2017029749A1 (ja) | 2015-08-20 | 2015-08-20 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017029749A1 JPWO2017029749A1 (ja) | 2018-06-07 |
JP6711817B2 true JP6711817B2 (ja) | 2020-06-17 |
Family
ID=58050742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017509073A Expired - Fee Related JP6711817B2 (ja) | 2015-08-20 | 2015-08-20 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10156938B2 (ja) |
JP (1) | JP6711817B2 (ja) |
WO (1) | WO2017029749A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9880267B2 (en) * | 2015-09-04 | 2018-01-30 | Microvision, Inc. | Hybrid data acquisition in scanned beam display |
US9933851B2 (en) * | 2016-02-22 | 2018-04-03 | Disney Enterprises, Inc. | Systems and methods for interacting with virtual objects using sensory feedback |
US10891044B1 (en) * | 2016-10-25 | 2021-01-12 | Twitter, Inc. | Automatic positioning of content items in a scrolling display for optimal viewing of the items |
JP2018106535A (ja) * | 2016-12-27 | 2018-07-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP6770718B2 (ja) * | 2017-03-21 | 2020-10-21 | 株式会社東海理化電機製作所 | 触覚呈示装置 |
US10474248B2 (en) * | 2018-02-12 | 2019-11-12 | Microvision, Inc. | Smart pulsing in regions of interest in scanned beam 3D sensing systems |
US10671219B2 (en) | 2018-02-12 | 2020-06-02 | Microvision, Inc. | Scanning time of flight 3D sensing with smart pulsing |
KR102469722B1 (ko) * | 2018-09-21 | 2022-11-22 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4052498B2 (ja) | 1999-10-29 | 2008-02-27 | 株式会社リコー | 座標入力装置および方法 |
US8164573B2 (en) * | 2003-11-26 | 2012-04-24 | Immersion Corporation | Systems and methods for adaptive interpretation of input from a touch-sensitive input device |
US8381135B2 (en) * | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7619616B2 (en) * | 2004-12-21 | 2009-11-17 | Microsoft Corporation | Pressure sensitive controls |
EP2104024B1 (en) * | 2008-03-20 | 2018-05-02 | LG Electronics Inc. | Portable terminal capable of sensing proximity touch and method for controlling screen using the same |
US8363019B2 (en) * | 2008-05-26 | 2013-01-29 | Lg Electronics Inc. | Mobile terminal using proximity sensor and method of controlling the mobile terminal |
KR20100136649A (ko) * | 2009-06-19 | 2010-12-29 | 삼성전자주식회사 | 휴대단말기의 근접 센서를 이용한 사용자 인터페이스 구현 방법 및 장치 |
JP2011053971A (ja) * | 2009-09-02 | 2011-03-17 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US8481873B2 (en) * | 2009-09-30 | 2013-07-09 | Freescale Semiconductor, Inc. | Capacitive touch sensor device configuration systems and methods |
JP5579780B2 (ja) * | 2012-06-06 | 2014-08-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 入力装置、入力支援方法及びプログラム |
-
2015
- 2015-08-20 JP JP2017509073A patent/JP6711817B2/ja not_active Expired - Fee Related
- 2015-08-20 WO PCT/JP2015/073332 patent/WO2017029749A1/ja active Application Filing
-
2016
- 2016-08-15 US US15/237,182 patent/US10156938B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017029749A1 (ja) | 2017-02-23 |
US10156938B2 (en) | 2018-12-18 |
JPWO2017029749A1 (ja) | 2018-06-07 |
US20170052632A1 (en) | 2017-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6711817B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US9529527B2 (en) | Information processing apparatus and control method, and recording medium | |
US9069386B2 (en) | Gesture recognition device, method, program, and computer-readable medium upon which program is stored | |
JP6482196B2 (ja) | 画像処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6039248B2 (ja) | 情報処理装置およびその制御方法 | |
JP6723814B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US20120299852A1 (en) | Computer system with touch screen and gesture processing method thereof | |
JP2016520946A (ja) | 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 | |
US20130069876A1 (en) | Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof | |
EP3176675B1 (en) | Information processing device, information processing method and program | |
JP6452369B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
GB2530150A (en) | Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6555958B2 (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP5558899B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP6033061B2 (ja) | 入力装置およびプログラム | |
KR101068281B1 (ko) | 후면부 손가락 움직임 및 제스처 인식을 이용한 휴대형 정보 단말기 및 콘텐츠 제어 방법 | |
JP6579866B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
KR102346294B1 (ko) | 2차원 이미지로부터 사용자의 제스처를 추정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
JP2023139535A (ja) | ジェスチャ認識装置、頭部装着型表示装置、ジェスチャ認識方法、プログラム、および記憶媒体 | |
JP6570376B2 (ja) | 情報処理装置、その制御方法、プログラム、記憶媒体 | |
CN106575184B (zh) | 信息处理装置、信息处理方法及计算机可读介质 | |
JP2017211739A (ja) | ユーザインターフェース装置およびユーザインターフェースプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180802 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200528 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6711817 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |