JP6816727B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6816727B2 JP6816727B2 JP2017557769A JP2017557769A JP6816727B2 JP 6816727 B2 JP6816727 B2 JP 6816727B2 JP 2017557769 A JP2017557769 A JP 2017557769A JP 2017557769 A JP2017557769 A JP 2017557769A JP 6816727 B2 JP6816727 B2 JP 6816727B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- detection
- operating body
- estimated
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
1.本開示の一実施形態に係る情報処理装置の概要
2.第1の実施形態(基本形態)
2−1.装置の構成
2−2.装置の処理
2−3.第1の実施形態のまとめ
2−4.変形例
3.第2の実施形態(ペンの姿勢に基づく処理)
3−1.装置の構成
3−2.第2の実施形態のまとめ
3−3.変形例
4.第3の実施形態(複数同時入力の判定)
4−1.装置の構成
4−2.装置の処理
4−3.第3の実施形態のまとめ
5.第4の実施形態(タッチ入力についての有効検出領域の設定)
5−1.装置の構成
5−2.装置の処理
5−3.第4の実施形態のまとめ
5−4.変形例
6.本開示の一実施形態に係る情報処理装置のハードウェア構成
7.むすび
まず、図1を参照して、本開示の一実施形態に係る情報処理装置100の概要について説明する。図1は、本開示の一実施形態に係る情報処理装置100の外観構成の例を概略的に示す図である。
推定位置:画像情報に基づいて推定される操作体の位置を意味し、3次元的な位置であり、入力の検出面に対応する位置(2次元的な位置)を含む。
推定接触領域(推定領域):推定位置の2次元的な位置を内包する、入力の検出面における領域を意味する。
入力の検出位置(検出位置):操作体の近接に基づき検出される入力の検出面における位置を意味する。
有効検出領域(検出領域):入力が検出される検出面における領域を意味する。
以上、本開示の一実施形態に係る情報処理装置100の概要について説明した。次に、本開示の第1の実施形態に係る情報処理装置100−1について説明する。
まず、図5を参照して、本開示の第1の実施形態に係る情報処理装置100−1の機能構成について説明する。図5は、本開示の第1の実施形態に係る情報処理装置100−1の概略的な機能構成の例を示すブロック図である。
撮像部102は、操作体が被写体となるように撮像する。具体的には、撮像部102は、タッチ入力部106の検出面および当該検出面の周辺が撮像範囲となるように設置され、撮像により得られる画像を入力位置推定部104に提供する。なお、撮像部102は、可視光カメラまたはIR(Infrared)カメラであってもよく、当該可視光カメラおよびIRカメラの組合せであってもよい。また、撮像部102は複数設けられてもよい。また、撮像部102の代わりにまたはそれに加えて、操作体の3次元的な測位が可能な任意のセンサシステムに係るセンサにより実現される測定部が備えられてもよい。
入力位置推定部104は、制御部の一部として、操作体を被写体とする撮像により得られる画像情報に基づいて操作体の位置を推定する。具体的には、当該操作体の位置は、検出面に近接する位置または当該検出面に近接しない位置である。以下、推定される操作体の位置を推定位置とも称する。また、操作体は、ユーザにより操作される物体、例えばペン形状の物体またはユーザの手もしくは指を含み、それに対応して、入力位置推定部104は、ペン入力位置推定機能と手指入力位置推定機能とを有する。さらに、図6〜図8を参照して、入力位置推定機能について詳細に説明する。図6は、本実施形態に係る情報処理装置100−1におけるIRマーカの設置例を示す図であり、図7は、本実施形態における空間座標系の設定例を示す図である。また、図8は、本実施形態におけるユーザの入力操作の例を示す図である。
タッチ入力部106は、検出装置として、操作体による入力を検出する。具体的には、タッチ入力部106は、操作体の近接(接近または接触)に基づいて入力を検出する。そして、タッチ入力部106は、入力の検出位置が特定される検出結果を入力判定部108に提供する。より具体的には、タッチ入力部106は、感圧方式を用いて入力を検出する。例えば、タッチ入力部106は、操作体の接触による圧力の有無または圧力の大きさに基づいて入力を検出する。なお、タッチ入力部106は、静電容量方式または電磁誘導方式といった別の入力検出方式を用いてもよい。また、タッチ入力部106は、複数の入力検出方式を用いてもよく、操作体の種類毎に異なる入力検出方式を用いてもよい。
入力判定部108は、制御部の一部として、タッチ入力部106から得られる入力の検出結果の示す入力の検出位置と、入力位置推定部104により推定される操作体の位置である推定位置とに基づいて入力に応じた処理を制御する。具体的には、入力判定部108は、当該推定位置が当該検出位置に相当するかに応じて当該処理の検出面に対応する位置を制御する。当該推定位置が当該検出位置に相当するかは、当該推定位置の当該入力の検出面に対応する位置を含む推定接触領域に当該検出位置が含まれるかに基づいて判定される。さらに、図8を参照して、入力判定部108の機能について詳細に説明する。
図5を参照して、情報処理装置100−1の構成の説明に戻ると、アプリケーション110は、入力判定部108から得られる入力判定結果に基づいて処理を行う。具体的には、アプリケーション110は、入力判定部108から通知される接触点について、当該接触点に係る入力に基づく処理を行う。例えば、アプリケーション110は、当該処理として、通知された接触点に係る入力に応じて、文字、図形、記号または写真といった表示オブジェクトを含む画像を生成し、生成される画像を投影部112に投影させる。また、アプリケーション110は、当該処理として、通知された接触点に係る入力に応じた内部処理、例えば記憶処理、計算処理または通信処理等を行ってもよい。
投影部112は、アプリケーション110から提供される画像を投影する。具体的には、投影部112は、タッチ入力部106の検出面に画像を投影する。なお、投影先である検出面の形状に沿った画像がアプリケーションから提供され、例えばプロジェクションマッピングのように当該画像が投影されてもよい。
次に、本実施形態に係る情報処理装置100−1の処理について説明する。
まず、図10を参照して、本実施形態に係る情報処理装置100−1の処理の概要について説明する。図10は、本実施形態に係る情報処理装置100−1の処理の概要を概念的に示すフローチャートである。
続いて、図11を参照して、既知の接触点に係る処理について説明する。図11は、本実施形態に係る情報処理装置100−1における既知の接触点に係る処理を概念的に示すフローチャートである。
続いて、図12を参照して、新規の接触点に係る処理について説明する。図12は、本実施形態に係る情報処理装置100−1における新規の接触点に係る処理を概念的に示すフローチャートである。
このように、本開示の第1の実施形態によれば、情報処理装置100−1は、操作体の近接に応じた入力の検出結果に基づく当該入力の検出位置に係る情報と、当該操作体を被写体とする撮像により得られる画像情報を用いて推定される当該操作体の位置(推定位置)に係る情報と、に基づいて当該入力に応じた処理を制御する。このため、操作体の近接による入力の検出結果に加えて操作体の映る画像に基づいて入力に応じた処理が実行されることにより、操作体の近接による入力の検出結果のみを用いる場合と比べて、処理の正確性を向上させることができる。従って、入力を操作するユーザの意図に沿った処理を行わせることが可能となる。また、本実施形態によれば、操作中の操作体について入力位置が推定されるため、実際に行われている操作に応じた処理対象となる入力の選別が可能である。従って、ユーザが毎回異なる態様で操作を行う場合であっても、当該ユーザが意図する入力に応じた処理をアプリケーション110等に行わせることができる。
以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
以上、本開示の第1の実施形態に係る情報処理装置100−1について説明した。続いて、本開示の第2の実施形態に係る情報処理装置100−2について説明する。まず、図15および図16を参照して、第2の実施形態の背景について説明する。図15は、ペン200−2を持つ手の指による入力操作の例を示す図であり、図16は、ペン200−2を持つ手の指による入力操作が行われることを考慮しない場合における処理の例を説明するための図である。
まず、図17を参照して、本開示の第2の実施形態に係る情報処理装置100−2の機能構成について説明する。図17は、本開示の第2の実施形態に係る情報処理装置100−2の概略的な機能構成の例を示すブロック図である。なお、第1の実施形態に係る機能構成と実質的に同一の機能構成については説明を省略する。
通信部120は、ペン200−2と通信する。具体的には、通信部120は、ペン200−2から当該ペン200−2の姿勢が特定される情報(以下、姿勢情報とも称する。)を受信する。例えば、通信部120は、Bluetooth(登録商標)またはWi−Fi(登録商標)といった無線通信方式を用いてペン200−2と通信する。なお、通信部120は、有線通信方式でペン200−2と通信してもよい。
入力位置推定部104は、ペン200−2の姿勢情報に基づいて推定位置に係る処理を制御する。具体的には、入力位置推定部104は、操作体がペン形状の物体である場合、当該ペン形状の物体の姿勢に基づいて当該ペン形状の物体に係る推定位置に係る処理を制御する。図18を参照して、姿勢情報に基づく推定位置に係る処理を詳細に説明する。図18は、本実施形態におけるユーザの入力操作の例を示す図である。
なお、ペン200−2の機能構成についても説明する。ペン200−2は、図示されていないが、ペン200−2の姿勢を検出するセンサおよび情報処理装置100−2と通信する通信モジュールを備える。
このように、本開示の第2の実施形態によれば、情報処理装置100−2は、操作体がユーザにより操作される物体である場合、当該ユーザにより操作される物体の姿勢に基づいて当該ユーザにより操作される物体による入力についての処理の位置を制御する。このため、操作体として用いられていないペン200−2による入力についての推定位置に係る処理が行われないことにより、入力の誤判定を回避することができる。従って、上述したようなペン200−2を持つ手の指による入力をユーザの意図通りに処理することが可能となる。
以上、本開示の第2の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
以上、本開示の第2の実施形態に係る情報処理装置100−2について説明した。続いて、本開示の第3の実施形態に係る情報処理装置100−3について説明する。本実施形態に係る情報処理装置100−3は、複数の操作体による同時入力(以下、マルチタッチとも称する。)の判定機能を有する。
まず、本開示の第3の実施形態に係る情報処理装置100−3の機能構成について説明する。なお、情報処理装置100−3の構成は、情報処理装置100−1または100−2の構成と実質的に同一であるため説明を省略し、情報処理装置100−1および100−2の機能と異なる機能についてのみ説明する。
入力判定部108は、上述したマルチタッチの入力判定を行う。具体的には、入力判定部108は、検出位置に相当する推定位置に係る第1の操作体以外の第2の操作体と入力の検出面との位置関係に基づいて当該第2の操作体についての処理の位置を制御する。なお、第2の操作体は、第1の操作体と同じ種類の操作体であってもよい。例えば、第2の操作体は、第1の操作体が親指である場合の当該親指以外の他の指(人差し指、中指、薬指、小指)であってもよい。また、当然ながら、第1の操作体と第2の操作体とは種類が異なってもよい。さらに、図19を参照して、マルチタッチの入力判定処理について詳細に説明する。図19は、マルチタッチ操作の例を示す図である。
次に、図20を参照して、マルチタッチの入力判定処理について説明する。図20は、本実施形態に係る情報処理装置100−3におけるマルチタッチの入力判定処理を概念的に示すフローチャートである。
このように、本開示の第3の実施形態によれば、情報処理装置100−3は、検出位置に相当する第1の推定位置に係る操作体以外の第2の操作体と入力の検出面との位置関係に基づいて第2の操作体についての処理の位置を制御する。ここで、入力操作の形態の一つである、複数の操作体による同時入力すなわちマルチタッチにおいては、同時に意図する入力が検出されることが望ましい。しかし、意図する入力に係る複数の操作体の間で入力の検出タイミングがずれることがある。その場合、マルチタッチとして処理が行われない可能性がある。これに対し、本実施形態によれば、直後の接触が予測される操作体については接触したとして扱うことにより、入力の検出タイミングのずれが補間される。従って、マルチタッチの操作性を向上させることが可能となる。
以上、本開示の第3の実施形態に係る情報処理装置100−3について説明した。続いて、本開示の第4の実施形態に係る情報処理装置100−4について説明する。本実施形態に係る情報処理装置100−4は、タッチ入力部106の入力検出機能を制御する機能を有する。
まず、図21を参照して、本開示の第4の実施形態に係る情報処理装置100−4の機能構成について説明する。図21は、本開示の第4の実施形態に係る情報処理装置100−4の概略的な機能構成の例を示すブロック図である。なお、第1〜第3の実施形態に係る機能構成と実質的に同一の機能構成については説明を省略する。
タッチ入力部106は、タッチ入力制御部140により設定される検出パラメタに基づいて入力を検出する。具体的には、タッチ入力部106は、タッチ入力制御部140により設定される検出領域(以下、有効検出領域とも称する。)についてのみ入力を検出する。例えば、タッチ入力部106は、入力検出周期の単位で設定される検出パラメタに適応する。なお、検出パラメタは、有効検出領域の大きさまたは形状のみならず、有効検出領域における入力の検出感度等であってもよい。
タッチ入力制御部140は、制御部の一部として、タッチ入力部106の入力検出機能を制御する。具体的には、タッチ入力制御部140は、推定位置の2次元的な位置を含むように有効検出領域を設定する。さらに、図22Aおよび図22Bを参照して、有効検出領域について詳細に説明する。図22Aは、1つの推定位置の2次元的な位置に基づいて設定される有効検出領域の例を示す図であり、図22Bは、複数の推定位置の2次元的な位置に基づいて設定される有効検出領域の例を示す図である。
次に、図23〜図26を参照して、情報処理装置100−4の処理について説明する。図23〜図26は、本実施形態に係る情報処理装置100−4の処理を説明するための図である。
このように、本開示の第4の実施形態によれば、情報処理装置100−4は、上記推定位置の上記入力の検出面に対応する位置(推定位置の2次元的な位置)を含む、入力が検出される有効検出領域を設定し、当該有効検出領域に含まれる検出位置と当該推定位置の2次元的な位置とに基づいて入力に応じた処理の位置を制御する。このため、入力検出範囲が適切に縮小されることにより、操作性を維持したまま、入力に対する応答速度の向上および入力判定処理における負荷の低減が可能となる。また、検出装置すなわちタッチ入力部106の処理速度の向上および処理負荷の低減が可能となる。
以上、本開示の第4の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
以上、本開示の各実施形態に係る情報処理装置100について説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置100のハードウェアとの協働により実現される。
以上、本開示の第1の実施形態によれば、操作体の近接による入力の検出結果に加えて操作体の映る画像に基づいて入力位置すなわち入力に応じた処理の位置が決定されることにより、操作体の近接による入力の検出結果のみを用いる場合と比べて、処理の位置の正確性を向上させることができる。従って、入力を操作するユーザの意図に沿った処理を行わせることが可能となる。また、本実施形態によれば、操作中の操作体について入力位置が推定されるため、実際に行われている操作に応じた処理対象となる入力の選別が可能である。従って、ユーザが毎回異なる態様で操作を行う場合であっても、当該ユーザが意図する入力に応じた処理をアプリケーション110等に行わせることができる。
(1)
操作体の近接に応じた入力の検出結果に基づく前記入力の検出位置に係る情報と、前記操作体を被写体とする撮像により得られる画像情報を用いて推定される前記操作体の位置に係る情報と、に基づいて前記入力に応じた処理を制御する制御部、
を備える、情報処理装置。
(2)
前記推定される前記操作体の位置は、前記入力の検出面に近接しない位置を含む、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記推定される前記操作体の位置の前記入力の検出面に対応する位置を含む、前記入力が検出される検出領域を設定し、
前記検出領域に含まれる前記検出位置と前記推定される前記操作体の位置の前記入力の検出面に対応する位置とに基づいて前記処理の位置情報を制御する、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、前記検出領域においてのみ前記入力が検出されるように、前記入力を検出する検出装置を制御する、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記操作体以外の物体の検出結果および前記入力に応じた処理を行うアプリケーションに係る情報の少なくとも一方に基づいて前記検出領域を設定する、前記(3)または(4)に記載の情報処理装置。
(6)
前記アプリケーションに係る情報は、前記アプリケーションの種類が特定される情報を含む、前記(5)に記載の情報処理装置。
(7)
前記アプリケーションに係る情報は、前記アプリケーションによって表示される領域についての前記入力に係る属性が特定される情報を含む、前記(5)または(6)に記載の情報処理装置。
(8)
前記検出領域に関するパラメタは、前記操作体の種類に応じて異なる、前記(3)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記検出領域に関するパラメタは、前記検出領域の大きさ、前記検出領域の形状および前記検出領域における前記入力の検出感度の少なくとも1つを含む、前記(8)に記載の情報処理装置。
(10)
前記制御部は、前記検出位置に相当する前記推定される前記操作体の位置に係る第1の操作体以外の第2の操作体と前記入力の検出面との位置関係に基づいて前記第2の操作体についての前記処理の位置情報を制御する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記制御部は、前記推定される前記操作体の位置が前記検出位置に相当するかに応じて前記処理を制御する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記推定される前記操作体の位置が前記検出位置に相当するかは、前記推定される前記操作体の位置の前記入力の検出面に対応する位置を含む推定領域に前記検出位置が含まれるかに基づいて判定される、前記(11)に記載の情報処理装置。
(13)
前記制御部は、前記入力が断続的に検出される場合、前記検出位置の間隔における前記推定される前記操作体の位置と前記検出位置とに基づいて前記処理を決定する、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記操作体は、ユーザにより操作される物体を含み、
前記制御部は、前記操作体が前記ユーザにより操作される物体であるかに応じて、前記ユーザにより操作される物体の周辺で検出される前記入力について前記処理を制御する、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記制御部は、前記操作体が前記ユーザにより操作される物体である場合、前記ユーザにより操作される物体の姿勢に基づいて前記ユーザにより操作される物体による前記入力についての前記処理を制御する、前記(14)に記載の情報処理装置。
(16)
前記ユーザにより操作される物体の姿勢が特定される情報は、通信を介して得られる、前記(15)に記載の情報処理装置。
(17)
前記操作体は、ユーザの手または指を含む、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記制御部は、前記推定される前記操作体の位置と前記入力の検出面との位置関係に基づいて前記処理を制御する、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
プロセッサにより、
操作体の近接に応じた入力の検出結果に基づく前記入力の検出位置に係る情報と、前記操作体を被写体とする撮像により得られる画像情報を用いて推定される前記操作体の位置に係る情報と、に基づいて前記入力に応じた処理を制御すること、
を含む、情報処理方法。
(20)
操作体の近接に応じた入力の検出結果に基づく前記入力の検出位置に係る情報と、前記操作体を被写体とする撮像により得られる画像情報を用いて推定される前記操作体の位置に係る情報と、に基づいて前記入力に応じた処理を制御する制御機能、
をコンピュータに実現させるためのプログラム。
(21)
操作体の近接に基づく入力を検出する検出装置と、
前記操作体を被写体とする撮像を行う撮像装置と、
前記検出装置から前記入力の検出結果を得て、前記撮像装置から前記撮像により得られる画像情報を得る取得部と、前記画像情報に基づいて前記操作体の位置を推定する推定部と、前記検出結果に基づく前記入力の検出位置に係る情報と、推定される前記操作体の位置に係る情報と、に基づいて前記入力に応じた処理を制御する制御部と、を備える、情報処理装置と、
前記処理に基づいて出力を行う出力装置と、
を備える、情報処理システム。
102 撮像部
104 入力位置推定部
106 タッチ入力部
108 入力判定部
110 アプリケーション
112 投影部
120 通信部
140 タッチ入力制御部
Claims (19)
- 操作体の近接に応じた入力の検出結果に基づく前記入力の検出位置に係る情報と、前記操作体を被写体とする撮像により得られる画像情報を用いて推定される前記操作体の位置に係る情報と、に基づいて前記入力に応じた処理を制御する制御部を備え、
前記制御部は、前記入力が断続的に検出される場合、前記検出位置の間隔における前記推定される前記操作体の位置と前記検出位置とに基づいて前記処理を決定する、
情報処理装置。 - 前記推定される前記操作体の位置は、前記入力の検出面に近接しない位置を含む、請求項1に記載の情報処理装置。
- 前記制御部は、前記推定される前記操作体の位置の前記入力の検出面に対応する位置を含む、前記入力が検出される検出領域を設定し、
前記検出領域に含まれる前記検出位置と前記推定される前記操作体の位置の前記入力の検出面に対応する位置とに基づいて前記処理の位置情報を制御する、請求項1又は2に記載の情報処理装置。 - 前記制御部は、前記検出領域においてのみ前記入力が検出されるように、前記入力を検出する検出装置を制御する、請求項3に記載の情報処理装置。
- 前記制御部は、前記操作体以外の物体の検出結果および前記入力に応じた処理を行うアプリケーションに係る情報の少なくとも一方に基づいて前記検出領域を設定する、請求項3又は4に記載の情報処理装置。
- 前記アプリケーションに係る情報は、前記アプリケーションの種類が特定される情報を含む、請求項5に記載の情報処理装置。
- 前記アプリケーションに係る情報は、前記アプリケーションによって表示される領域についての前記入力に係る属性が特定される情報を含む、請求項5又は6に記載の情報処理装置。
- 前記検出領域に関するパラメタは、前記操作体の種類に応じて異なる、請求項3〜7のいずれか1項に記載の情報処理装置。
- 前記検出領域に関するパラメタは、前記検出領域の大きさ、前記検出領域の形状および前記検出領域における前記入力の検出感度の少なくとも1つを含む、請求項8に記載の情報処理装置。
- 前記制御部は、前記検出位置に相当する前記推定される前記操作体の位置に係る第1の操作体以外の第2の操作体と前記入力の検出面との位置関係に基づいて前記第2の操作体についての前記処理の位置情報を制御する、請求項1〜9のいずれか1項に記載の情報処理装置。
- 前記制御部は、前記推定される前記操作体の位置が前記検出位置に相当するかに応じて前記処理を制御する、請求項1〜10のいずれか1項に記載の情報処理装置。
- 前記推定される前記操作体の位置が前記検出位置に相当するかは、前記推定される前記操作体の位置の前記入力の検出面に対応する位置を含む推定領域に前記検出位置が含まれるかに基づいて判定される、請求項11に記載の情報処理装置。
- 前記操作体は、ユーザにより操作される物体を含み、
前記制御部は、前記操作体が前記ユーザにより操作される物体であるかに応じて、前記ユーザにより操作される物体の周辺で検出される前記入力について前記処理を制御する、請求項1〜12のいずれか1項に記載の情報処理装置。 - 前記制御部は、前記操作体が前記ユーザにより操作される物体である場合、前記ユーザにより操作される物体の姿勢に基づいて前記ユーザにより操作される物体による前記入力についての前記処理を制御する、請求項13に記載の情報処理装置。
- 前記ユーザにより操作される物体の姿勢が特定される情報は、通信を介して得られる、請求項14に記載の情報処理装置。
- 前記操作体は、ユーザの手または指を含む、請求項1〜15のいずれか1項に記載の情報処理装置。
- 前記制御部は、前記推定される前記操作体の位置と前記入力の検出面との位置関係に基づいて前記処理を制御する、請求項1〜16のいずれか1項に記載の情報処理装置。
- プロセッサにより、
操作体の近接に応じた入力の検出結果に基づく前記入力の検出位置に係る情報と、前記操作体を被写体とする撮像により得られる画像情報を用いて推定される前記操作体の位置に係る情報と、に基づいて前記入力に応じた処理を制御すること、
を含み、
前記入力が断続的に検出される場合、前記検出位置の間隔における前記推定される前記操作体の位置と前記検出位置とに基づいて前記処理を決定する、
情報処理方法。 - 操作体の近接に応じた入力の検出結果に基づく前記入力の検出位置に係る情報と、前記操作体を被写体とする撮像により得られる画像情報を用いて推定される前記操作体の位置に係る情報と、に基づいて前記入力に応じた処理を制御する制御機能、
をコンピュータに実現させるためのプログラムであって、
前記制御機能は、前記入力が断続的に検出される場合、前記検出位置の間隔における前記推定される前記操作体の位置と前記検出位置とに基づいて前記処理を決定する、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015248231 | 2015-12-21 | ||
JP2015248231 | 2015-12-21 | ||
PCT/JP2016/082581 WO2017110257A1 (ja) | 2015-12-21 | 2016-11-02 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017110257A1 JPWO2017110257A1 (ja) | 2018-10-04 |
JP6816727B2 true JP6816727B2 (ja) | 2021-01-20 |
Family
ID=59089250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017557769A Active JP6816727B2 (ja) | 2015-12-21 | 2016-11-02 | 情報処理装置、情報処理方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20180373392A1 (ja) |
EP (1) | EP3396499A4 (ja) |
JP (1) | JP6816727B2 (ja) |
KR (1) | KR20180096606A (ja) |
CN (1) | CN108475134A (ja) |
WO (1) | WO2017110257A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7087364B2 (ja) * | 2017-12-04 | 2022-06-21 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システムおよびプログラム |
JP2021033543A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社ワコム | 入力装置 |
JP6850334B1 (ja) * | 2019-11-19 | 2021-03-31 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置及びその入力制御方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW528981B (en) * | 2001-10-25 | 2003-04-21 | Compal Electronics Inc | Portable computer and related method for preventing input interruption by write-tracking input region |
GB0622451D0 (en) * | 2006-11-10 | 2006-12-20 | Intelligent Earth Ltd | Object position and orientation detection device |
US8610744B2 (en) * | 2009-07-10 | 2013-12-17 | Adobe Systems Incorporated | Methods and apparatus for natural media painting using proximity-based tablet stylus gestures |
KR101811636B1 (ko) * | 2011-04-05 | 2017-12-27 | 삼성전자주식회사 | 디스플레이 장치 및 이의 오브젝트 표시 방법 |
JP5774350B2 (ja) | 2011-04-12 | 2015-09-09 | シャープ株式会社 | 電子機器、手書き入力方法、および手書き入力プログラム |
CN103150100A (zh) * | 2011-12-06 | 2013-06-12 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
CN103324352A (zh) * | 2012-03-22 | 2013-09-25 | 中强光电股份有限公司 | 指示单元、指示装置及指示方法 |
US8933912B2 (en) * | 2012-04-02 | 2015-01-13 | Microsoft Corporation | Touch sensitive user interface with three dimensional input sensor |
US20130300672A1 (en) * | 2012-05-11 | 2013-11-14 | Research In Motion Limited | Touch screen palm input rejection |
US20130300696A1 (en) * | 2012-05-14 | 2013-11-14 | N-Trig Ltd. | Method for identifying palm input to a digitizer |
KR102040857B1 (ko) * | 2012-07-17 | 2019-11-06 | 삼성전자주식회사 | 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기 |
WO2014065203A1 (ja) * | 2012-10-26 | 2014-05-01 | シャープ株式会社 | 座標入力装置、及びそれを備えた表示装置 |
JP2014174801A (ja) * | 2013-03-11 | 2014-09-22 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
US9542040B2 (en) * | 2013-03-15 | 2017-01-10 | Smart Technologies Ulc | Method for detection and rejection of pointer contacts in interactive input systems |
JP2015022442A (ja) * | 2013-07-17 | 2015-02-02 | 株式会社東芝 | 電子機器、電子機器の制御方法、電子機器の制御プログラム |
US10108305B2 (en) * | 2013-08-13 | 2018-10-23 | Samsung Electronics Company, Ltd. | Interaction sensing |
CN105745606B (zh) * | 2013-09-24 | 2019-07-26 | 惠普发展公司,有限责任合伙企业 | 基于图像识别触摸敏感表面的目标触摸区域 |
US9563956B2 (en) * | 2014-03-26 | 2017-02-07 | Intel Corporation | Efficient free-space finger recognition |
US9870083B2 (en) * | 2014-06-12 | 2018-01-16 | Microsoft Technology Licensing, Llc | Multi-device multi-user sensor correlation for pen and computing device interaction |
US10191603B2 (en) * | 2014-06-26 | 2019-01-29 | Sony Corporation | Information processing device and information processing method |
JP6340958B2 (ja) * | 2014-07-02 | 2018-06-13 | 株式会社リコー | プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 |
US9804707B2 (en) * | 2014-09-12 | 2017-10-31 | Microsoft Technology Licensing, Llc | Inactive region for touch surface based on contextual information |
US9720446B2 (en) * | 2015-04-21 | 2017-08-01 | Dell Products L.P. | Information handling system projected work space calibration |
-
2016
- 2016-11-02 KR KR1020187015945A patent/KR20180096606A/ko unknown
- 2016-11-02 EP EP16878155.7A patent/EP3396499A4/en not_active Withdrawn
- 2016-11-02 JP JP2017557769A patent/JP6816727B2/ja active Active
- 2016-11-02 CN CN201680073277.4A patent/CN108475134A/zh active Pending
- 2016-11-02 US US15/780,899 patent/US20180373392A1/en not_active Abandoned
- 2016-11-02 WO PCT/JP2016/082581 patent/WO2017110257A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN108475134A (zh) | 2018-08-31 |
EP3396499A4 (en) | 2018-12-05 |
KR20180096606A (ko) | 2018-08-29 |
US20180373392A1 (en) | 2018-12-27 |
EP3396499A1 (en) | 2018-10-31 |
WO2017110257A1 (ja) | 2017-06-29 |
JPWO2017110257A1 (ja) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8976136B2 (en) | Proximity-aware multi-touch tabletop | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
EP2766793B1 (en) | Enhanced target selection for a touch-based input enabled user interface | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
US10572012B2 (en) | Electronic device for performing gestures and methods for determining orientation thereof | |
CN106605187B (zh) | 信息处理装置、信息处理方法以及程序 | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JPWO2014119258A1 (ja) | 情報処理方法及び情報処理装置 | |
JP2010055510A (ja) | 情報処理装置及び情報処理方法 | |
US20150301647A1 (en) | Touch panel-type input device, method for controlling the same, and storage medium | |
US10296096B2 (en) | Operation recognition device and operation recognition method | |
JP6816727B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JPWO2017029749A1 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2017199289A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US11886643B2 (en) | Information processing apparatus and information processing method | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2022525326A (ja) | 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 | |
JP2017027311A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP2010086367A (ja) | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 | |
CN110291495B (zh) | 信息处理系统、信息处理方法及程序 | |
JP2017228216A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US20240134451A1 (en) | Ray casting system and method | |
US20240231488A9 (en) | Ray casting system and method | |
JP2015219609A (ja) | 情報処理方法、情報処理装置及び記録媒体 | |
JP2020149633A (ja) | 表示装置、表示方法、表示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200923 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6816727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |