JP6390799B2 - 入力装置、入力方法、及びプログラム - Google Patents
入力装置、入力方法、及びプログラム Download PDFInfo
- Publication number
- JP6390799B2 JP6390799B2 JP2017543168A JP2017543168A JP6390799B2 JP 6390799 B2 JP6390799 B2 JP 6390799B2 JP 2017543168 A JP2017543168 A JP 2017543168A JP 2017543168 A JP2017543168 A JP 2017543168A JP 6390799 B2 JP6390799 B2 JP 6390799B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- marker
- user
- captured image
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 81
- 239000003550 marker Substances 0.000 claims description 236
- 238000001514 detection method Methods 0.000 claims description 84
- 230000033001 locomotion Effects 0.000 claims description 70
- 238000004364 calculation method Methods 0.000 claims description 50
- 230000008859 change Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 17
- 230000001133 acceleration Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 35
- 239000011521 glass Substances 0.000 description 29
- 238000003384 imaging method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000007689 inspection Methods 0.000 description 10
- 230000007704 transition Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明の第2の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、2)前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である。
本発明の第3の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、2)前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識手段と、3)前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出手段と、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である。
本発明の第2の入力方法は、コンピュータによって実行される入力方法である。当該入力方法は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、2)前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である。
本発明の第3の入力方法は、コンピュータによって実行される入力方法である。当該入力方法は、1)ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、2)前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識ステップと、3)前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出ステップと、を有する。前記指定される場所は、前記マーカから離れた場所である。前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である。
図1は、実施形態1に係る入力装置2000を例示するブロック図である。図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
入力装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、入力装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図5は、実施形態1の入力装置2000によって実行される処理の流れを例示するフローチャートである。位置算出部2020はセンサの検出結果を把握する(S102)。位置算出部2020は撮像画像22を取得する(S104)。位置算出部2020は、撮像画像22に含まれるマーカの位置を算出する(106)。入力認識部2040は、算出されたマーカの位置に基づいて、そのマーカから離れた撮像画像22上の場所を指定する入力を認識する(S108)。
ユーザに身に付けられるセンサは、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサであり、前述した振動センサに限定されない。例えばセンサは、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサなどでもよい。加速度センサや振動スイッチは、振動センサと同様に、例えばデバイス10の内部に設けられる。圧力センサや静電容量センサは、例えばデバイス10のタッチパネルに設けられる。また例えば、圧力センサや静電容量センサは、ユーザの腕や手などに貼られたり巻き付けられたりするシートなどに設けられてもよい。また例えば、圧力センサや静電容量センサは、ユーザの衣服(袖など)に設けられてもよい。
<<センサの検出結果を把握する方法>>
位置算出部2020は、入力装置2000のユーザの身体に取り付けられたセンサの検出結果を把握する(S102)。位置算出部2020がセンサの検出結果を把握する方法は様々である。以下、その方法を例示する。なお以下では、センサが図2で説明したセンサ12(振動センサ)である場合を例として説明する。
例えば位置算出部2020は、センサ12を内蔵するデバイス10と無線通信を行うことにより、センサ12の検出結果を示す情報を取得することで、センサ12の検出結果を把握する。例えば、デバイス10は、センサ12が所定の大きさ以上の振動を検出したタイミングで、位置算出部2020に対して所定の信号を送信する。この場合、位置算出部2020は、この所定の信号を受信することにより、「センサ12によって振動が検出された」というセンサ12の検出結果を取得することができる。
デバイス10は、センサ12による振動の検出に応じてデバイス10の外観を変化させてもよい。この場合、位置算出部2020は、カメラ20によって生成された画像を用いてこの所定の変化を検出することで、センサ12の検出結果(センサ12によって振動が検出されたこと)を把握する。
位置算出部2020は撮像画像22を取得する(S104)。位置算出部2020が撮像画像22を取得する方法は様々である。例えば位置算出部2020は、カメラ20から撮像画像22を取得する。この場合、入力装置2000とカメラ20とは通信可能に接続されている。
位置算出部2020は、撮像画像22に含まれるマーカの位置を算出する(S106)。マーカの位置の算出には、センサの検出結果に基づくタイミングにおけるマーカが含まれる撮像画像22が利用される。以下、「センサの検出結果に基づくタイミング」をセンサタイミングと表記する。
マーカは、撮像画像22において少なくともその位置が特定できる任意のマーカである。例えばマーカは、3次元の座標系の決定に利用できるマーカである。3次元の座標系の決定に利用できるマーカは、例えば AR(Augmented Reality)マーカである。ただし、3次元の座標系の決定に利用できるマーカは、参照方向によらず、或る基準点からの相互に直交する3つの方向を一定に得ることができるものであればよく、AR マーカには限定されない。
位置算出部2020は、取得した撮像画像22からマーカを検出し、そのマーカの位置を算出する。例えば、位置算出部2020は、マーカに関する形状、サイズ、色などについての情報を予め保持しており、このような既知の情報を用いて、取得された撮像画像22からマーカを検出し、その位置を算出する。ここで、画像内から所定の物を検出し、さらにその物の画像内における位置を算出する技術は既知の技術であるため、この技術の詳細については省略する。
入力認識部2040は、算出されたマーカの位置に基づいて、そのマーカから離れた撮像画像22上の場所を指定する入力を認識する(S108)。前述したように、入力によって指定される場所は、撮像画像22上の一点であってもよいし、撮像画像22上の領域であってもよい。
領域62の位置は、入力位置60によって定まる。例えば入力認識部2040は、中心や1つの頂点の位置が入力位置60で定まる領域を領域62とする。
図10は、実施形態2に係る入力装置2000を例示するブロック図である。図10において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。特に説明する場合を除き、実施形態2の入力装置2000は、実施形態1の入力装置2000と同様の機能を有する。
実施形態2の入力装置2000は、実施形態1の入力装置2000と同様に、計算機1000で実現される。実施形態2の計算機1000のストレージ1080は、上述した入力装置2000の各機能を実現するプログラムモジュールをさらに有する。
本実施形態の入力装置2000によれば、ユーザの身体に取り付けられたマーカを用いるという、ユーザにとって直感的な方法で、撮像画像から部分画像を抽出する領域を指定できる。よって、撮像画像からその一部を抽出したい場合に、ユーザが直感的に容易に抽出したい部分を指定できる。なお、撮像画像から部分画像を抽出することには、撮像画像の内の特に注目したい部分について、その部分の保存や表示を行ったり、その部分について画像解析を行ったりすることができるなど、様々な利点がある。
図12は、実施形態3に係る入力装置2000を例示するブロック図である。図12において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。実施形態3の入力装置2000は、特に説明する点を除き、実施形態2の入力装置2000と同様の機能を有する。
図13は、実施形態3の入力装置2000を実現する計算機1000のハードウエア構成を例示する図である。この計算機1000の構成は、実施形態1の入力装置2000を実現する計算機1000の構成と同様である。ただし、実施形態3の計算機1000が有するストレージ1080は、本実施形態の入力装置2000が有する各機能を実現するためのプログラムモジュールをさらに有する。
本実施形態の入力装置2000によれば、撮像画像22から抽出された部分画像24が、表示画面上の所定位置に固定して表示される。そのため、ユーザがマーカを動かしても(撮像画像22に含まれるマーカの位置が変化しても)、部分画像24が表示される表示画面上の位置が変わらない。図14は、マーカの位置が変わっても部分画像24の表示位置が変わらない様子を例示する図である。図14(a)はマーカを動かす前の様子を表し、図14(b)はマーカを動かした後の様子を表す。
図16は、実施形態4に係る入力装置2000を例示するブロック図である。図16において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。特に説明する場合を除き、本実施形態の入力装置2000は、実施形態3の入力装置2000と同様の機能を有する。
動き検出部2100は、センサ12の検出結果を取得する。動き検出部2100がセンサ12の検出結果を把握する方法は、位置算出部2020がセンサの検出結果を把握する方法と同様である。
第2入力認識部2120は、検出したマーカの動きに基づいて入力を認識する。第2入力認識部2120は、1)検出したマーカの動きに基づく形状を入力として認識としてもよいし、2)検出したマーカの動きに対応する所定の入力操作を入力として認識してもよい。
図20は、マーカの動き40によって定まる形状を入力として認識する様子を例示する図である。図20(a)では、第2入力認識部2120は、マーカの動き40−Aが表す形状41や、動き40−Bが表す形状42を入力として認識する。例えばこの入力は、ユーザが手書き入力を行う際に利用される。
検出したマーカの動きに対応する所定の入力操作は、いわゆるジェスチャ入力による入力操作である。図21は、ジェスチャ入力を例示する図である。図21(a)はフリック動作を表し、図21(b)は回転動作を表している。
第2入力認識部2120は、1)マーカを動かす動作が行われた位置に関係なく、そのマーカの動きのみを入力として認識してもよいし、2)マーカの動きと、そのマーカを動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、マーカを動かす動作が撮像画像22上のどの場所で行われても、同じマーカの動きは同じ入力を表す。一方後者の場合、マーカを動かす動作が撮像画像22上のどの場所で行われたかが意味を持つこととなる。
実施形態4の入力装置2000は、入力認識部2040と第2入力認識部2120のいずれかによってユーザの入力を認識する。入力装置2000が、入力認識部2040と第2入力認識部2120のどちらによってユーザの入力を認識するかを決定する方法は様々である。
本実施形態によれば、ユーザは、マーカから離れた場所を指定する入力操作(入力認識部2040によって認識される入力操作)に加え、マーカの動きを用いた入力操作(第2入力認識部2120によって認識される入力操作)を行えるようになる。よって、ユーザによる入力操作のバリエーションが増え、入力装置2000の利便性が向上する。
以下、上述した入力装置2000を、より具体的な実施例に沿って説明する。なお、この実施例は入力装置2000の利用方法の一例であり、入力装置2000の利用方法を限定するものではない。
実施例の入力装置2000は、ガイド80を表示するために、第2表示制御部2140を有する。図30は、第2表示制御部2140を有する入力装置2000を例示するブロック図である。
1. ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
前記算出されたマーカの位置に基づいて、前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力装置。
2. 前記入力認識手段は、前記算出されたマーカの位置から離れた位置にある領域を入力として認識し、
前記撮像画像から、前記領域に含まれる部分画像を抽出する抽出手段を有する、1.に記載の入力装置。
3. 前記部分画像を表示画面の所定位置に表示する表示制御手段を有する、2.に記載の入力装置。
4. 前記表示制御手段は、前記撮像画像から抽出された前記部分画像を、他の撮像画像に重畳させて前記表示画面に表示する、3.に記載の入力装置。
5. 前記表示画面は、ヘッドマウントディスプレイの表示画面又はプロジェクタの投影面である、3.又は4.に記載の入力装置。
6. 前記表示制御手段は、前記指定される場所を表す表示を前記表示画面に表示する、3.乃至5.いずれか一つに記載の入力装置。
7. 前記ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングを含む時間における前記マーカの動きを検出する動き検出手段と、
前記検出したマーカの動きを入力操作として認識する第2入力認識手段と、を有する1.乃至6.いずれか一つに記載の入力装置。
ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
前記算出されたマーカの位置に基づいて、前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力方法。
9. 前記入力認識ステップにおいて、前記算出されたマーカの位置から離れた位置にある領域を入力として認識し、
前記撮像画像から、前記領域に含まれる部分画像を抽出する抽出ステップを有する、8.に記載の入力方法。
10. 前記部分画像を表示画面の所定位置に表示する表示制御ステップを有する、9.に記載の入力方法。
11. 前記表示制御ステップにおいて、前記撮像画像から抽出された前記部分画像を、他の撮像画像に重畳させて前記表示画面に表示する、10.に記載の入力方法。
12. 前記表示画面は、ヘッドマウントディスプレイの表示画面又はプロジェクタの投影面である、10.又は11.に記載の入力方法。
13. 前記表示制御ステップにおいて、前記指定される場所を表す表示を前記表示画面に表示する、10.乃至12.いずれか一つに記載の入力方法。
14. 前記ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングを含む時間における前記マーカの動きを検出する動き検出ステップと、
前記検出したマーカの動きを入力操作として認識する第2入力認識ステップと、を有する8.乃至13.いずれか一つに記載の入力方法。
Claims (18)
- ユーザの身体に取り付けられた装着物に設けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、前記装着物に描画又は印字されたものである、入力装置。 - ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識手段と、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である、入力装置。 - 前記入力認識手段は、前記算出されたマーカの位置から離れた位置にある領域を入力として認識し、
前記撮像画像から、前記領域に含まれる部分画像を抽出する抽出手段を有する、請求項1又は2に記載の入力装置。 - ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出手段と、
前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識手段と、
前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出手段と、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力装置。 - 前記抽出手段によって前記部分画像が抽出されたことに応じ、前記ユーザの操作を介することなく前記部分画像を表示画面の所定位置に表示する表示制御手段を有する、請求項3又は4に記載の入力装置。
- 前記部分画像が表示される前記表示画面の前記所定位置は、前記部分画像が前記抽出手段によって抽出されたタイミングにおける前記表示画面上の前記部分画像の位置である、請求項5に記載の入力装置。
- 前記表示制御手段は、前記撮像画像から抽出された前記部分画像を、他の撮像画像に重畳させて前記表示画面に表示する、請求項5又は6に記載の入力装置。
- 前記表示画面は、ヘッドマウントディスプレイの表示画面又はプロジェクタの投影面である、請求項5乃至7いずれか一項に記載の入力装置。
- 前記表示制御手段は、前記指定される場所を表す表示を前記表示画面に表示する、請求項5乃至8いずれか一項に記載の入力装置。
- 前記入力認識手段は、前記算出されたマーカの位置を基準とする所定の大きさ又は所定の形状の領域を指定する入力を認識する、請求項3乃至9いずれか一項に記載の入力装置。
- 前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を表すガイドを表示し、
前記入力認識手段は、前記ガイドで表される領域を指定する入力を受け付ける、請求項3乃至10いずれか一項に記載の入力装置。 - 前記センサは、前記ユーザの身体が触れられたことを検知する振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、請求項1乃至11いずれか一項に記載の入力装置。
- 前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
前記位置算出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、請求項1乃至12いずれか一項に記載の入力装置。 - 前記ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングを含む時間における前記マーカの動きを検出する動き検出手段と、
前記検出したマーカの動きを入力操作として認識する第2入力認識手段と、を有する請求項1乃至13いずれか一項に記載の入力装置。 - コンピュータによって実行される入力方法であって、
ユーザの身体に取り付けられた装着物に設けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、前記装着物に描画又は印字されたものである、入力方法。 - コンピュータによって実行される入力方法であって、
ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
前記算出されたマーカの位置を基準として定まる前記撮像画像上の場所を指定する入力を認識する入力認識ステップと、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である、入力方法。 - コンピュータによって実行される入力方法であって、
ユーザの身体に取り付けられたセンサの検出結果に基づくタイミングにおけるマーカの位置を、前記マーカが含まれる撮像画像を用いて算出する位置算出ステップと、
前記算出されたマーカの位置に基づいて定まる前記撮像画像上の領域を指定する入力を認識する入力認識ステップと、
前記指定された領域に含まれる部分画像を前記撮像画像から抽出する抽出ステップと、を有し、
前記指定される場所は、前記マーカから離れた場所であり、
前記マーカは、ユーザの身体に取り付けられているか、又は前記ユーザの身体の一部である、入力方法。 - 請求項15乃至17いずれか一項に記載の入力方法に係る各ステップをコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015190239 | 2015-09-28 | ||
JP2015190239 | 2015-09-28 | ||
PCT/JP2016/077730 WO2017057107A1 (ja) | 2015-09-28 | 2016-09-20 | 入力装置、入力方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017057107A1 JPWO2017057107A1 (ja) | 2018-06-14 |
JP6390799B2 true JP6390799B2 (ja) | 2018-09-19 |
Family
ID=58427555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017543168A Active JP6390799B2 (ja) | 2015-09-28 | 2016-09-20 | 入力装置、入力方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10234955B2 (ja) |
JP (1) | JP6390799B2 (ja) |
CN (1) | CN108027654B (ja) |
WO (1) | WO2017057107A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6390799B2 (ja) * | 2015-09-28 | 2018-09-19 | 日本電気株式会社 | 入力装置、入力方法、及びプログラム |
CN108027655A (zh) * | 2016-02-25 | 2018-05-11 | 日本电气株式会社 | 信息处理系统、信息处理设备、控制方法和程序 |
US11487353B2 (en) * | 2016-11-14 | 2022-11-01 | Logitech Europe S.A. | Systems and methods for configuring a hub-centric virtual/augmented reality environment |
US10545578B2 (en) * | 2017-12-22 | 2020-01-28 | International Business Machines Corporation | Recommending activity sensor usage by image processing |
US10546426B2 (en) * | 2018-01-05 | 2020-01-28 | Microsoft Technology Licensing, Llc | Real-world portals for virtual reality displays |
US10839603B2 (en) | 2018-04-30 | 2020-11-17 | Microsoft Technology Licensing, Llc | Creating interactive zones in virtual environments |
JP7166813B2 (ja) * | 2018-07-06 | 2022-11-08 | 株式会社コロプラ | 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ |
NL2022598B1 (en) * | 2019-02-19 | 2020-08-31 | Easee Health B V | A method of performing an eye examination test for examining eyes of a user as well as a corresponding computing device. |
WO2023067836A1 (ja) * | 2021-10-18 | 2023-04-27 | 東芝デジタルソリューションズ株式会社 | コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム |
JP7330323B2 (ja) * | 2021-10-18 | 2023-08-21 | 東芝デジタルソリューションズ株式会社 | コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5799099A (en) * | 1993-02-12 | 1998-08-25 | George S. Allen | Automatic technique for localizing externally attached fiducial markers in volume images of the head |
SE507680C2 (sv) * | 1997-01-13 | 1998-07-06 | Qualisys Ab | Metod och anordning för att bestämma positionen av ett objekt |
JP2000102036A (ja) | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法 |
US9619143B2 (en) * | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US8269842B2 (en) * | 2008-06-11 | 2012-09-18 | Nokia Corporation | Camera gestures for user interface control |
JP2011257943A (ja) | 2010-06-08 | 2011-12-22 | Canon Inc | ジェスチャ操作入力装置 |
CN102402680B (zh) * | 2010-09-13 | 2014-07-30 | 株式会社理光 | 人机交互系统中手部、指示点定位方法和手势确定方法 |
EP2620849B1 (en) * | 2010-09-22 | 2019-08-28 | Shimane Prefectural Government | Operation input apparatus, operation input method, and program |
KR20140066258A (ko) | 2011-09-26 | 2014-05-30 | 마이크로소프트 코포레이션 | 투시 근안 디스플레이에 대한 센서 입력에 기초한 비디오 디스플레이 수정 |
JP2013114467A (ja) * | 2011-11-29 | 2013-06-10 | Nikon Corp | 表示システム、表示方法およびプログラム |
CN103135756B (zh) * | 2011-12-02 | 2016-05-11 | 深圳泰山体育科技股份有限公司 | 生成控制指令的方法和系统 |
JP2013190941A (ja) | 2012-03-13 | 2013-09-26 | Nikon Corp | 情報入出力装置、及び頭部装着表示装置 |
JP2013200793A (ja) * | 2012-03-26 | 2013-10-03 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
JP2014092940A (ja) * | 2012-11-02 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
JP5962547B2 (ja) * | 2013-03-08 | 2016-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10025486B2 (en) * | 2013-03-15 | 2018-07-17 | Elwha Llc | Cross-reality select, drag, and drop for augmented reality systems |
ITTO20130541A1 (it) * | 2013-06-28 | 2014-12-29 | St Microelectronics Srl | Dispositivo a semiconduttore integrante un partitore resistivo e procedimento di fabbricazione di un dispositivo a semiconduttore |
US20150186708A1 (en) * | 2013-12-31 | 2015-07-02 | Sagi Katz | Biometric identification system |
CN104199602B (zh) * | 2014-08-26 | 2018-11-09 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN108027656B (zh) * | 2015-09-28 | 2021-07-06 | 日本电气株式会社 | 输入设备、输入方法和程序 |
JP6390799B2 (ja) * | 2015-09-28 | 2018-09-19 | 日本電気株式会社 | 入力装置、入力方法、及びプログラム |
WO2017138545A1 (ja) * | 2016-02-08 | 2017-08-17 | 日本電気株式会社 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
JP6256497B2 (ja) * | 2016-03-04 | 2018-01-10 | 日本電気株式会社 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
-
2016
- 2016-09-20 JP JP2017543168A patent/JP6390799B2/ja active Active
- 2016-09-20 US US15/759,323 patent/US10234955B2/en active Active
- 2016-09-20 WO PCT/JP2016/077730 patent/WO2017057107A1/ja active Application Filing
- 2016-09-20 CN CN201680053037.8A patent/CN108027654B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108027654A (zh) | 2018-05-11 |
WO2017057107A1 (ja) | 2017-04-06 |
CN108027654B (zh) | 2021-01-12 |
JPWO2017057107A1 (ja) | 2018-06-14 |
US10234955B2 (en) | 2019-03-19 |
US20180260032A1 (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6390799B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP6288372B2 (ja) | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP5900393B2 (ja) | 情報処理装置、操作制御方法及びプログラム | |
EP2956843B1 (en) | Human-body-gesture-based region and volume selection for hmd | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
JP5412227B2 (ja) | 映像表示装置、および、その表示制御方法 | |
JP6350772B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
US10489981B2 (en) | Information processing device, information processing method, and program for controlling display of a virtual object | |
US20140240225A1 (en) | Method for touchless control of a device | |
KR101343748B1 (ko) | 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치 | |
US10713488B2 (en) | Inspection spot output apparatus, control method, and storage medium | |
JP6341343B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
JP2012238293A (ja) | 入力装置 | |
JPWO2020080107A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2016126687A (ja) | ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under section 34 (pct) |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20180322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180322 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180322 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180424 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180724 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6390799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |