JP6233314B2 - 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 - Google Patents
情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- JP6233314B2 JP6233314B2 JP2014545628A JP2014545628A JP6233314B2 JP 6233314 B2 JP6233314 B2 JP 6233314B2 JP 2014545628 A JP2014545628 A JP 2014545628A JP 2014545628 A JP2014545628 A JP 2014545628A JP 6233314 B2 JP6233314 B2 JP 6233314B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- input
- work space
- virtual object
- extended work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 47
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims description 43
- 238000004458 analytical method Methods 0.000 claims description 35
- 238000001514 detection method Methods 0.000 claims description 29
- 230000033001 locomotion Effects 0.000 claims description 20
- ORMNNUPLFAPCFD-DVLYDCSHSA-M phenethicillin potassium Chemical compound [K+].N([C@@H]1C(N2[C@H](C(C)(C)S[C@@H]21)C([O-])=O)=O)C(=O)C(C)OC1=CC=CC=C1 ORMNNUPLFAPCFD-DVLYDCSHSA-M 0.000 description 45
- 238000000034 method Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/401—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
- H04L65/4015—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
Description
1.本開示の実施形態
1.1.拡張作業空間システムの構成例
1.2.情報認識表示装置の機能構成
1.3.入力情報に対応した情報フィードバック処理
1.4.キャリブレーションへの適用
1.5.デジタル情報のトラッキング表示
1.6.リモート機能
1.7.デジタル情報の物理的操作
2.ハードウェア構成例
[1.1.拡張作業空間システムの構成例]
まず、図1を参照して、本開示の実施形態に係る拡張作業空間システムの構成例について説明する。なお、図1は、本実施形態に係る拡張作業空間システムの一構成例を示す説明図である。
次に、図2に基づいて、情報認識表示装置100およびペン入力検出デバイス210の機能構成について説明する。なお、図2は、本実施形態に係る情報認識表示装置100およびペン入力検出デバイス210の機能構成を示すブロック図である。まず、本実施形態に係る情報認識表示装置100は、投影部110と、検出部120と、撮像部130と、情報処理部140と、通信部150とから構成される。
本実施形態に係る拡張作業空間システムでは、拡張作業空間において認識された入力情報に対応する付加情報を拡張作業空間に反映するとともに、反映された付加情報に対する操作入力に応じて仮想オブジェクトの表示を制御する。このような情報の表示制御によるフィードバックにより、インタラクティブな操作を実現し、ユーザに対して直観的にわかりやい、興味を引くような情報を提供することができる。
上述したように、本実施形態に係る拡張作業空間システムにおいては、プロジェクタの投影領域と、デジタルペン200の動きをトラッキングする領域とが同一空間に存在し、これらの関係を、キャリブレーションにより予め取得しておく。キャリブレーションの方法としては、例えば、図7上に示すように、拡張作業空間に置かれた紙4の四隅に指定されている4つのポイントP1〜P4をデジタルペンで指定する方法がある。
本実施形態に係る拡張作業空間システムでは、デジタルペン200を用いた情報の入力が可能である。上述したように、本実施形態に係るデジタルペン200は、オンオフの切り替え機構によりインクの吐出を制御することができる。ユーザは、インクを吐出させて紙4に実際に文字等を書くことも可能であり、インクを吐出させずにタッチ等の入力操作を行ったり実際のインクではなくデジタル情報として表示される文字等を書いたりすることも可能である。
本実施形態に係る拡張作業空間システムは、複数の拡張作業空間の情報を互いに表示するリモート機能を備えてもよい。リモート機能により、遠隔にあるユーザによる協調作業や作業アシスタントが可能となる。リモート機能を用いた作業アシスタントの一例として、図11に実際にテキストブックを用いて勉強している生徒の学習アシスタントを行う例を示す。
拡張作業空間に表示されるデジタル情報は、拡張作業空間内に存在する紙等の実際の物体を用いる物理法則に従った操作により操作できるようにしてもよい。この場合、情報認識表示装置100は、拡張作業空間において認識された実際の物体と、当該物体に対して行われた操作とに基づいて、拡張作業空間に表示されているデジタル情報の表示処理を行う。
例えば、図12左に示すように、拡張作業空間にある紙4の上に、デジタル情報410が投影されているとする。なお、図12左および右の図では、上側に拡張作業空間の作業面2を上から見た状態を示しており、下側に拡張作業空間を側面から見た状態を示している。また、図12では、説明のため、紙4の上に表示されているデジタル情報410に厚みを持たせて示しているが、実際はデジタル情報410の厚みはなくてもよい。
また、拡張作業空間に存在する実際の物体に対してデジタル情報を表示する際に、物体自体にデジタル情報が記載されているような表示方法を提示することもできる。例えば図13に示すように、拡張作業空間の作業面2に、表面4aに問題311が印字された紙4が置かれているとする。ユーザが紙4をめくり裏面4bをみると、裏面4bに問題311の解答がデジタル情報411により表示される。このように、実際には印字されていない紙4の裏面4bにデジタル情報411を表示させることで、ユーザに直観的に情報を提示することができる。
さらに、拡張作業空間に表示されたデジタル情報を、当該空間内にある物体によって移動させるようにしてもよい。例えば図14上に示すように、拡張作業空間の作業面2にデジタル情報412が投影されているとする。次いで、実際の物体、例えば紙4が拡張作業空間に持ち込まれ、作業面2に投影されているデジタル情報412が当該紙4の上に表示されるように置かれたとする。図14中央に示すように、デジタル情報412は紙4上に表示されると、情報認識表示装置100は、デジタル情報412を紙4と一体に移動させるように取り扱う。
上述の実施形態に係る情報認識表示装置100の情報処理部140による処理は、ハードウェアにより実行させることもでき、ソフトウェアによって実行させることもできる。この場合、情報処理部140は、図15に示すように構成することもできる。以下、図15に基づいて、情報処理部140の一ハードウェア構成例について説明する。
(1) 実体と仮想オブジェクトとを操作可能な拡張作業空間内において入力された入力情報に基づいて、前記入力情報に対応する付加情報を決定する解析部と、
前記入力情報への新たな操作入力を受けて、前記付加情報を用いて当該拡張作業空間に対して表示される仮想オブジェクトの表示制御を行う表示制御部と、
を備える、情報処理装置。
(2) 前記解析部は、前記拡張作業空間内においてユーザが手書き入力した筆跡を認識し、当該入力情報に対応する前記付加情報を決定する、前記(1)に記載の情報処理装置。
(3) 前記解析部は、ユーザが手書き入力した前記筆跡を、手書き入力を行う筆記用機器から発信される信号処理を行う入力検出デバイスから受信する、前記(2)に記載の情報処理装置。
(4) 前記筆記用機器は、仮想的な筆記入力が可能であり、
前記解析部は、前記仮想的な筆記入力の筆跡を認識し、当該筆跡を前記付加情報とする、前記(3)に記載の情報処理装置。
(5) 前記解析部は、前記拡張作業空間内に存在する実体に含まれる情報を入力情報として認識し、当該入力情報に対応する前記付加情報を決定する、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6) 前記付加情報は、前記仮想オブジェクトを表示するか否かを判定するための情報である、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7) 前記仮想オブジェクトは、前記解析部により認識された前記入力情報に関連する情報である、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8) 前記拡張作業空間内において実体に対して表示されている仮想オブジェクトの位置情報を、当該仮想オブジェクトに関連する前記拡張作業空間内の実体に固有の物体座標系に変換する座標処理部をさらに備え、
前記拡張作業空間において前記実体を移動する操作入力があったとき、前記表示制御部は、当該物体の移動に応じて前記仮想オブジェクトの表示位置を移動させる、前記(1)に記載の情報処理装置。
100 情報認識表示装置
110 投影部
120 検出部
130 撮像部
140 情報処理部
142 解析部
144 座標処理部
146 表示制御部
148 設定記憶部
150 通信部
200 デジタルペン
210 ペン入力検出デバイス
212 信号受信部
214 信号処理部
216 入力情報送信部
Claims (10)
- 実体と仮想オブジェクトとを操作可能な拡張作業空間内において入力された入力情報に基づいて、前記入力情報に対応する付加情報を決定する解析部と、
前記入力情報に基づく第1の仮想オブジェクトを前記拡張作業空間に表示するとともに、前記入力情報に基づく前記第1の仮想オブジェクトへの新たな操作入力を受けて、前記付加情報を用いて当該拡張作業空間に対して表示される第2の仮想オブジェクトの表示制御を行う表示制御部と、
を備える、情報処理装置。 - 前記解析部は、前記拡張作業空間内においてユーザが手書き入力した筆跡を認識し、当該入力情報に対応する前記付加情報を決定する、請求項1に記載の情報処理装置。
- 前記解析部は、ユーザが手書き入力した前記筆跡を、手書き入力を行う筆記用機器から発信される信号処理を行う入力検出デバイスから受信する、請求項2に記載の情報処理装置。
- 前記筆記用機器は、仮想的な筆記入力が可能であり、
前記解析部は、前記仮想的な筆記入力の筆跡を認識し、当該筆跡を前記入力情報とする、請求項3に記載の情報処理装置。 - 前記解析部は、前記拡張作業空間内に存在する実体に含まれる情報を入力情報として認識し、当該入力情報に対応する前記付加情報を決定する、請求項1〜4のいずれか1項に記載の情報処理装置。
- 前記付加情報は、前記第2の仮想オブジェクトを表示するか否かを判定するための情報である、請求項1〜5のいずれか1項に記載の情報処理装置。
- 前記第2の仮想オブジェクトは、前記解析部により認識された前記入力情報に関連する情報である、請求項1〜6のいずれか1項に記載の情報処理装置。
- 前記拡張作業空間内において実体に対して表示されている前記第1の仮想オブジェクトの位置情報を、当該第1の仮想オブジェクトに関連する前記拡張作業空間内の実体に固有の物体座標系に変換する座標処理部をさらに備え、
前記拡張作業空間において前記実体を移動する操作入力があったとき、前記表示制御部は、当該実体の移動に応じて前記第1の仮想オブジェクトの表示位置を移動させる、請求項1に記載の情報処理装置。 - 実体と仮想オブジェクトとを操作可能な拡張作業空間内において入力された入力情報に基づいて、前記入力情報に対応する付加情報を決定すること、
前記入力情報に基づく第1の仮想オブジェクトを前記拡張作業空間に表示すること、
前記入力情報に基づく前記第1の仮想オブジェクトへの新たな操作入力を受けて、前記付加情報を用いて当該拡張作業空間に対して表示される第2の仮想オブジェクトの表示制御を行うこと、
を含む、情報処理方法。 - コンピュータに、
実体と仮想オブジェクトとを操作可能な拡張作業空間内において入力された入力情報に基づいて、前記入力情報に対応する付加情報を決定する解析部と、
前記入力情報に基づく第1の仮想オブジェクトを前記拡張作業空間に表示するとともに、前記入力情報に基づく前記第1の仮想オブジェクトへの新たな操作入力を受けて、前記付加情報を用いて当該拡張作業空間に対して表示される第2の仮想オブジェクトの表示制御を行う表示制御部と、
を備える、情報処理装置として機能させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012247842 | 2012-11-09 | ||
JP2012247842 | 2012-11-09 | ||
PCT/JP2013/078102 WO2014073346A1 (ja) | 2012-11-09 | 2013-10-16 | 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014073346A1 JPWO2014073346A1 (ja) | 2016-09-08 |
JP6233314B2 true JP6233314B2 (ja) | 2017-11-22 |
Family
ID=50684458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014545628A Active JP6233314B2 (ja) | 2012-11-09 | 2013-10-16 | 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9632593B2 (ja) |
EP (1) | EP2919104B1 (ja) |
JP (1) | JP6233314B2 (ja) |
WO (1) | WO2014073346A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101714050B1 (ko) * | 2010-11-01 | 2017-03-08 | 삼성전자주식회사 | 휴대단말기의 데이터 표시장치 및 방법 |
FR2976681B1 (fr) * | 2011-06-17 | 2013-07-12 | Inst Nat Rech Inf Automat | Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme |
WO2015005242A1 (ja) * | 2013-07-11 | 2015-01-15 | シャープ株式会社 | 表示装置 |
KR20150031384A (ko) * | 2013-09-13 | 2015-03-24 | 현대자동차주식회사 | 맞춤형 인터페이스 시스템 및 그 동작 방법 |
US10152136B2 (en) * | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US10126822B2 (en) | 2013-12-16 | 2018-11-13 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual configuration |
CN103729096A (zh) * | 2013-12-25 | 2014-04-16 | 京东方科技集团股份有限公司 | 交互识别系统以及显示装置 |
JP2016053774A (ja) * | 2014-09-03 | 2016-04-14 | コニカミノルタ株式会社 | 手書き入力装置及び手書き情報取得方法並びに手書き情報取得プログラム |
KR101648446B1 (ko) * | 2014-10-07 | 2016-09-01 | 삼성전자주식회사 | 전자 회의 시스템 및 이의 제어 방법, 그리고 디지털 펜 |
KR101797682B1 (ko) * | 2015-12-08 | 2017-11-15 | (주)뮤테이션 | 사용자와의 상호 작용을 기반으로 한 학습 방법 및 장치 |
JP2018028804A (ja) * | 2016-08-18 | 2018-02-22 | 株式会社デンソーテン | 入力制御装置、入力制御方法、入力制御プログラムおよび入力制御システム |
US20190287285A1 (en) * | 2016-12-12 | 2019-09-19 | Sony Corporation | Information processing device, information processing method, and program |
KR101963867B1 (ko) * | 2016-12-23 | 2019-07-31 | (주)뮤테이션 | 이러닝 서버, 이를 포함하는 이러닝 시스템 및 그 서비스 방법 |
EP3435250A1 (en) * | 2017-07-27 | 2019-01-30 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method, apparatus and computer program for overlaying a web page on a 3d object |
JP2019061590A (ja) | 2017-09-28 | 2019-04-18 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP7119338B2 (ja) * | 2017-10-30 | 2022-08-17 | 株式会社リコー | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
JP7087364B2 (ja) * | 2017-12-04 | 2022-06-21 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システムおよびプログラム |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US11538205B2 (en) * | 2018-09-19 | 2022-12-27 | Chegg, Inc. | Augmented reality mathematics in learning platforms |
US11175791B1 (en) * | 2020-09-29 | 2021-11-16 | International Business Machines Corporation | Augmented reality system for control boundary modification |
US11487400B1 (en) * | 2021-08-13 | 2022-11-01 | International Business Machines Corporation | Aggregated multidimensional user interface display with electronic pen for holographic projection |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH075978A (ja) * | 1993-06-18 | 1995-01-10 | Sony Corp | 入力装置 |
JPH11144024A (ja) * | 1996-11-01 | 1999-05-28 | Matsushita Electric Ind Co Ltd | 画像合成装置、画像合成方法及び媒体 |
JPH1145149A (ja) * | 1997-07-28 | 1999-02-16 | Sony Corp | データ表示装置及び方法並びに記録媒体、データ送信装置及び方法 |
JP2001154781A (ja) * | 1999-11-29 | 2001-06-08 | Nec Corp | デスクトップ情報装置 |
EP1315120A1 (de) * | 2001-11-26 | 2003-05-28 | Siemens Aktiengesellschaft | Stifteingabesystem |
JP4769942B2 (ja) * | 2006-03-14 | 2011-09-07 | 国立大学法人電気通信大学 | 3dデザイン支援システム及び3dデザイン支援方法 |
US20100045705A1 (en) * | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
JP2010512693A (ja) * | 2006-12-07 | 2010-04-22 | アダックス,インク. | データの付加、記録および通信のためのシステムと方法 |
US8427424B2 (en) * | 2008-09-30 | 2013-04-23 | Microsoft Corporation | Using physical objects in conjunction with an interactive surface |
JP5315111B2 (ja) | 2009-03-31 | 2013-10-16 | 株式会社エヌ・ティ・ティ・ドコモ | 端末装置、情報提示システム及び端末画面表示方法 |
KR101559178B1 (ko) * | 2009-04-08 | 2015-10-12 | 엘지전자 주식회사 | 명령어 입력 방법 및 이를 적용한 이동 통신 단말기 |
JP2011028629A (ja) * | 2009-07-28 | 2011-02-10 | Sanyo Electric Co Ltd | プレゼンテーションシステム |
US20120042288A1 (en) * | 2010-08-16 | 2012-02-16 | Fuji Xerox Co., Ltd. | Systems and methods for interactions with documents across paper and computers |
GB2486445B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction apparatus system and method |
JP5741079B2 (ja) * | 2011-03-09 | 2015-07-01 | セイコーエプソン株式会社 | 画像生成装置およびプロジェクター |
US8806352B2 (en) * | 2011-05-06 | 2014-08-12 | David H. Sitrick | System for collaboration of a specific image and utilizing selected annotations while viewing and relative to providing a display presentation |
US9164603B2 (en) * | 2011-10-28 | 2015-10-20 | Atmel Corporation | Executing gestures with active stylus |
JP5533837B2 (ja) * | 2011-11-02 | 2014-06-25 | コニカミノルタ株式会社 | 手書き入力装置及び手書き入力制御プログラム |
-
2013
- 2013-10-16 WO PCT/JP2013/078102 patent/WO2014073346A1/ja active Application Filing
- 2013-10-16 JP JP2014545628A patent/JP6233314B2/ja active Active
- 2013-10-16 EP EP13854118.0A patent/EP2919104B1/en active Active
- 2013-10-16 US US14/440,394 patent/US9632593B2/en active Active
-
2017
- 2017-04-04 US US15/478,307 patent/US11132063B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11132063B2 (en) | 2021-09-28 |
EP2919104B1 (en) | 2019-12-04 |
EP2919104A4 (en) | 2016-07-13 |
JPWO2014073346A1 (ja) | 2016-09-08 |
US9632593B2 (en) | 2017-04-25 |
US20150277583A1 (en) | 2015-10-01 |
EP2919104A1 (en) | 2015-09-16 |
WO2014073346A1 (ja) | 2014-05-15 |
US20170205895A1 (en) | 2017-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6233314B2 (ja) | 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体 | |
JP5451599B2 (ja) | マルチモーダルスマートペンのコンピューティングシステム | |
US9304599B2 (en) | Gesture controlled adaptive projected information handling system input and output devices | |
US8860675B2 (en) | Drawing aid system for multi-touch devices | |
US9348420B2 (en) | Adaptive projected information handling system output devices | |
JP6902234B2 (ja) | 文字列に文字を挿入するための方法および対応するデジタルデバイス | |
US9736137B2 (en) | System and method for managing multiuser tools | |
JP6991486B2 (ja) | 文字列に文字を挿入するための方法およびシステム | |
EP2919103A1 (en) | Information processing device, information processing method and computer-readable recording medium | |
JP2014062962A (ja) | 情報処理装置、筆記具、情報処理方法およびプログラム | |
JP6595896B2 (ja) | 電子機器及び表示制御方法 | |
US20150268731A1 (en) | Interactive Projected Information Handling System Support Input and Output Devices | |
CN113703631A (zh) | 书写控制方法、装置、电子设备及存储介质 | |
JP6056263B2 (ja) | 端末装置、電子ペンシステム及びプログラム | |
JP5165661B2 (ja) | 制御装置、制御方法、制御プログラム、及び記録媒体 | |
Tian et al. | An exploration of pen tail gestures for interactions | |
JP2021197024A (ja) | 表示装置、表示方法及びプログラム | |
US11782594B2 (en) | Display apparatus, display system, and display method | |
JP6241060B2 (ja) | コンピュータ装置及びプログラム | |
JP6244647B2 (ja) | コンピュータ装置及びプログラム | |
JP7030529B2 (ja) | 電子機器、情報処理方法、プログラム及び記憶媒体 | |
CA2929900C (en) | System and method for managing multiuser tools | |
Karthick et al. | Artificial Intelligence Based Enhanced Virtual Mouse Hand Gesture Tracking Using Yolo Algorithm | |
JP2022146853A (ja) | 表示装置、プログラム、表示方法、表示システム | |
CN115993894A (zh) | 一种触控响应方法、装置、交互平板及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160926 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171009 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6233314 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |