JPWO2016185845A1 - インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム - Google Patents
インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2016185845A1 JPWO2016185845A1 JP2017519077A JP2017519077A JPWO2016185845A1 JP WO2016185845 A1 JPWO2016185845 A1 JP WO2016185845A1 JP 2017519077 A JP2017519077 A JP 2017519077A JP 2017519077 A JP2017519077 A JP 2017519077A JP WO2016185845 A1 JPWO2016185845 A1 JP WO2016185845A1
- Authority
- JP
- Japan
- Prior art keywords
- marker
- user
- image
- interface control
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 119
- 239000003550 marker Substances 0.000 claims abstract description 425
- 238000001514 detection method Methods 0.000 claims abstract description 167
- 230000004044 response Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 39
- 238000003860 storage Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 24
- 230000008901 benefit Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 230000005484 gravity Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 210000000707 wrist Anatomy 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Abstract
Description
図1は、実施形態1に係るインタフェース制御システム2000を例示するブロック図である。図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
本実施形態のインタフェース制御システム2000によれば、ユーザが入力操作に利用する操作画像が、ユーザの腕部に重畳されて見えるように、ヘッドマウントディスプレイ30の表示画面32に表示される。ここで、操作画像60の表示はユーザの腕部にある第1マーカに基づいて行われるため、ユーザが腕部を動かすと、その動きに合わせて操作画像60を移動させることもできる。そのためユーザは、望む位置や姿勢で容易に操作画像60を表示させることができる。よって、本実施形態のインタフェース制御システム2000には、操作画像60の位置や姿勢が固定されている入力インタフェースと比較し、入力インタフェースの利便性が高いという利点がある。
実施形態1のインタフェース制御システム2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、インタフェース制御システム2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
ヘッドマウントディスプレイ30は、ユーザの視界に入る表示画面32を有する任意のヘッドマウントディスプレイである。例えば表示画面32は、非透過型のディスプレイである。この場合、ヘッドマウントディスプレイ30は、ユーザの周囲(例えばユーザの顔方向)を撮像するカメラによって撮像された画像と、その他の物を表す画像とを重畳させて表示画面32に表示する。ユーザは、この表示画面32を見ることで、周囲の景色にその他の物が重畳された様子を見ることができる。そこで、インタフェース制御システム2000は、カメラによって撮像されたユーザの腕部の画像に対して操作画像60を重畳したものを表示画面32に表示する。なお、「ユーザの周囲を撮像するカメラ」は、カメラ20であってもよいし、これとは別途設けられるカメラであってもよい。
カメラ20は撮像を行って画像を生成する任意のカメラである。カメラ20は、2次元(2D)カメラであってもよいし、3次元(3D)カメラであってもよい。
図8は、実施形態1のインタフェース制御システム2000によって実行される処理の流れを例示するフローチャートである。第1マーカ検出部2020は、カメラ20によって撮像された撮像画像を取得する(S102)。第1マーカ検出部2020は、取得した撮像画像に第1マーカが写っているか否かを判定する(S104)。第1マーカが写っていない場合(S104:NO)、図8の処理はS104に進む。一方、第1マーカが写っている場合(S104:YES)、図8の処理はS106に進む。S106において、表示制御部2040は、第1マーカに基づき、ユーザの腕部に重畳されるように、ヘッドマウントディスプレイ30の表示画面32上に操作画像60を表示する。
第1マーカ検出部2020は、カメラ20によって撮像された撮像画像を取得する(S102)。第1マーカ検出部2020は、カメラ20から直接撮像画像を取得してもよいし、カメラ20によって生成された撮像画像が記憶されている記憶装置から撮像画像を取得してもよい。
表示制御部2040は、第1マーカ検出部2020によって第1マーカ50が検出された場合に(S104:YES)、第1マーカ50に基づき、ユーザの腕部に重畳されるように、ヘッドマウントディスプレイ30の表示画面32上に操作画像60を表示する(S106)。ユーザの腕部に操作画像60が重畳して見えるように操作画像60を表示するために、表示制御部2040は、検出された第1マーカ50に基づいて、操作画像60の姿勢、位置、及び大きさの少なくとも1つを決定する。以下、これらの決定方法について説明する。
表示制御部2040は、第1マーカ50の姿勢に応じて、操作画像60の姿勢を決定する。具体的にはまず、表示制御部2040は、撮像画像に写っている第1マーカ50を用いて、第1マーカ50に対応した3次元の座標系を決定する。図9は、第1マーカ50に基づいて決定される座標系80を例示する図である。座標系80は、x 方向、y 方向、及び z 方向で定まる3次元の座標系である。なお、画像に写っているマーカの形状等に基づいて3次元の座標系を決定する技術には、例えば AR マーカを用いて3次元の座標系を決定する既知の技術などを利用できる。そのため、この技術に関する詳細な説明は省略する。
表示制御部2040は、撮像画像に写っている第1マーカ50の大きさに応じて、表示画面32に表示する操作画像60の大きさを決定する。例えば予め、第1マーカ50の大きさと操作画像60の大きさとの比率を定めておく。そして、表示制御部2040は、この比率及び撮像画像に写っている第1マーカ50の大きさに基づいて、表示画面32に表示する操作画像60の大きさを決定する。上記比率は、表示制御部2040に予め設定されていてもよいし、表示制御部2040からアクセス可能な記憶装置に記憶されていてもよい。なお、操作画像60が複数種類ある場合、上記比率は、操作画像60ごとに定めておく。
表示制御部2040は、撮像画像に写っている第1マーカ50の位置に応じて表示画面32に表示する操作画像60の位置を決定する。例えば予め、操作画像60の位置を、上述した座標系80における位置として予め定義しておく。この座標系80における位置は、表示制御部2040に予め設定されていてもよいし、表示制御部2040からアクセス可能な記憶装置に記憶されていてもよい。
操作画像60の位置は、第1マーカ50がユーザの左の腕部と右の腕部のどちらにあるかによって異なる。この点を考慮する方法は様々である。例えば、第1マーカ50が左右どちらの腕部にあるのかを、インタフェース制御システム2000に対して予め設定しておく。そして表示制御部2040は、この設定に応じた位置に操作画像60を表示する。
上述した操作画像60の姿勢、大きさ、及び位置は、撮像画像に写っている第1マーカ50に基づいて定まる三次元の座標系80における操作画像60の姿勢、大きさ、及び位置である。しかし実際には、表示制御部2040は、操作画像60を二次元平面である表示画面32に描画する。そこで表示制御部2040は、三次元の座標系80における操作画像60を表示画面32の二次元平面にマッピングする処理を行い、このマッピングされた操作画像60を表示画面32に表示する。これにより、表示画面32を見るユーザは、ユーザの腕部に上述した姿勢等で重畳された操作画像60を見ることができる。
ユーザによる入力操作に用いられる操作画像60には、様々な画像が利用できる。図12は、操作画像60の一例を示す図である。操作画像60−1はキーボードの画像である。操作画像60−2は電話型のテンキーの画像である。操作画像60−3は YES と NO の2択を選択するボタンを表す画像である。インタフェース制御システム2000が扱う操作画像60は1種類のみであってもよいし、複数種類であってもよい。
前述したように、第1マーカ50は複数種類あってもよい。この場合、第2表示制御部2060は、表示画面72に表示する第1マーカ50を変更する機能を有する。例えば第2表示制御部2060は、デバイス70に対する操作に応じて、第1マーカ50を変更する。デバイス70の操作は、例えばデバイス70に設けられた物理ボタンに対する操作である。また、表示画面72がタッチパネルである場合、デバイス70の操作は、表示画面72に対するタップ操作やスワイプ操作であってもよい。
インタフェース制御システム2000は、ユーザによって操作画像60が操作されたことを検出することで、ユーザによる入力操作を受け付ける。例えばユーザが、キーボードを表す操作画像60における T のキーに対して操作を加えた場合、インタフェース制御システム2000は、T のキーに対して操作が加えられたことを検出する。ここで、ユーザによる操作画像60の操作をインタフェース制御システム2000が検出する方法は任意である。この方法の具体的な例については、後述の実施形態で説明する。
ユーザは、操作画像60に対して操作を行うことで種々の計算機を制御する。例えばユーザは、操作画像60に対して操作を行うことで、ヘッドマウントディスプレイ30で動作しているアプリケーションや OS(Operating System)など(以下、アプリケーション等)を操作する。また例えば、ユーザは、操作画像60を操作することで、デバイス70で動作しているアプリケーション等を制御する。また例えば、ユーザは、操作画像60に対して操作を行うことで、PC やスマートフォンなどで動作するアプリケーション等を操作してもよい。さらに、ユーザは、操作画像60に対して操作を行うことで、工場等の施設に設置された各種の機械を制御してもよい。なお、制御対象の計算機は、インタフェース制御システム2000を実現する計算機1000(図7参照)であってもよいし、その他の計算機であってもよい。後者の場合、制御対象となる各種計算機は、計算機1000と通信可能に接続されている。例えばこれらの各種計算機は、入出力インタフェース1100を介して計算機1000と接続されている。
上述したように、ユーザは、操作画像60を操作することで、デバイス70で動作しているアプリケーション等を制御してもよい。この場合、ユーザは、操作画像60に対して操作を行うことで、表示画面72に表示される第1マーカ50を変更してもよい。
図14は、実施形態2に係るインタフェース制御システム2000を例示するブロック図である。図14において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。以下で説明する点を除き、実施形態2のインタフェース制御システム2000は、実施形態1のインタフェース制御システム2000と同様の機能を有する。
第1マーカ決定部2080は、撮像画像内の背景の色彩の特徴を算出する。そして、第1マーカ決定部2080は、撮像画像内の背景の色彩の特徴に応じて、第1マーカ50の色彩を決定する。例えば上記背景の色彩の特徴は、背景の色彩分布によって定まる。第1マーカ決定部2080は、背景の色彩分布を用いて、背景の色彩に利用されていない色彩領域を割り出す。そして、第1マーカ決定部2080は、この利用されていない色彩領域に含まれる色を用いて、第1マーカ50の色彩を決定する。
第1マーカ決定部2080は、撮像画像内の背景の模様の特徴を算出する。そして、第1マーカ決定部2080は、この模様の特徴に応じて、第1マーカ50の形状又は模様を決定する。例えば、撮像画像内の背景の模様が直線を多く含む場合、第1マーカ決定部2080は、第1マーカ50の形状を曲線で構成される形状(円形など)にするか、又は第1マーカ50の模様を、曲線を多く含む模様(水玉模様など)にする。一方、撮像画像内の背景の模様が曲線を多く含む場合、第1マーカ決定部2080は、第1マーカ50の形状を直線で構成される形状(四角形など)にするか、又は第1マーカ50の模様を、直線を多く含む模様(格子模様など)にする。
撮像画像のうち、背景の特徴の算出に利用する領域は、撮像画像全体であってもよいし、撮像画像の一部の領域であってもよい。後者の場合、例えば利用する領域は、第1マーカ50の表示場所(例えばデバイス70の表示画面72)を含む所定の範囲である。第1マーカ50の表示場所を含む所定の範囲は、例えば第1マーカ50の表示場所の中心を中心とし、かつ所定長の半径を持つ円で表される領域である。この所定長は、第1マーカ50の表示場所の大きさに依存しない絶対値で定義されていてもよいし、第1マーカ50の表示場所の大きさとの相対値で定義されていてもよい。第1マーカ50の表示場所や上記所定長を示す情報は、第1マーカ決定部2080に予め設定されていてもよいし、第1マーカ決定部2080からアクセス可能な記憶装置に記憶されていてもよい。なお、上記所定の範囲の形状は円に限定されない。
第1マーカ決定部2080は、決定した特徴に基づいて、第1マーカ50の生成又は取得を行う。前者の場合、所定の色彩、形状、及び模様を持つ画像を生成する技術には、既知の技術を利用できる。そのため、第1マーカ50の生成方法の詳細な説明は省略する。第2表示制御部2060は、第1マーカ決定部2080によって生成された第1マーカ50を表示画面72に表示する。
実施形態3に係るインタフェース制御システム2000は、例えば実施形態1と同様に図1で表される。以下で説明する点を除き、実施形態3のインタフェース制御システム2000は、実施形態1又は2のインタフェース制御システム2000と同様である。
表示制御部2040は、撮像画像における第1マーカ50の位置、表示画面32における第2マーカ90の位置、及び撮像画像上の座標と表示画面32上の座標との対応関係(表示画面32上の座標を撮像画像上の座標に変換する変換式など)に基づいて、ユーザの視界における第1マーカ50と第2マーカ90との位置関係を把握することができる。例えば表示制御部2040は、撮像画像上の座標と表示画面32上の座標との対応関係を用いて、表示画面32上における第2マーカ90の位置を、撮像画像上の位置に変換する(第2マーカ90を撮像画像上にマッピングする)。そして、表示制御部2040は、撮像画像における第1マーカ50の位置と第2マーカ90の位置とを用いて、これらの位置関係が所定の位置関係にあるか否かを判定する。
インタフェース制御システム2000は、第1マーカ検出部2020が撮像画像から第1マーカ50を検出する範囲を、第2マーカ90を基準とする所定範囲に限定することで、第1マーカ50と第2マーカ90とが所定の位置関係にある場合にのみ操作画像60が表示されるようにしてもよい。具体的にはまず第1マーカ検出部2020は、撮像画像に第1マーカ50が写っているか否かの検出を行う前に、第2マーカ90の位置を撮像画像上の位置に変換する。そして、第1マーカ検出部2020は、撮像画像に含まれる領域のうち、第2マーカ90の位置を基準とする所定範囲内のみを対象として、第1マーカ50の検出を行う。これにより、第2マーカ90と第1マーカ50とが所定の位置関係にある場合のみ、第1マーカ50が検出される。この場合、表示制御部2040は、第1マーカ検出部2020によって第1マーカ50が検出された場合に操作画像60を表示する。
表示制御部2040は、複数の第2マーカ90を表示画面32のそれぞれ異なる位置に表示してもよい。この場合、表示制御部2040は、第1マーカ50と或る第2マーカ90とが所定の位置関係になった場合に、その第2マーカ90に応じた操作画像60を表示してもよい。例えば表示制御部2040は、第1マーカ50と第2マーカ90−1とが所定の位置関係になった場合にキーボードを表す操作画像60を表示し、第1マーカ50と第2マーカ90−2とが所定の位置関係になった場合にテンキーを表す操作画像60を表示する。これにより、ユーザは、容易な方法で複数種類の操作画像60を利用することができる。なお、第2マーカ90と操作画像60との対応関係は、予め表示制御部2040に設定されていてもよいし、表示制御部2040からアクセス可能な記憶装置に記憶されていてもよい。またこの場合、第2マーカ90に、その第2マーカ90に対応する操作画像60の名称や略称などを含めることで、ユーザが第2マーカ90と操作画像60との対応関係を容易に把握できるようになる。
例えば実施形態2のインタフェース制御システム2000のハードウエア構成は、実施形態1のインタフェース制御システム2000と同様に、図7で表される。本実施形態において、前述したストレージ1080に記憶される各プログラムモジュールには、本実施形態で説明する各機能を実現するプログラムがさらに含まれる。
本実施形態のインタフェース制御システム2000によれば、表示画面32に第2マーカ90が表示され、ユーザの視界において第1マーカ50と第2マーカ90とが所定の位置関係になった場合に、操作画像60が表示される。よって、第1マーカ50がユーザの視界に入った場合に常に操作画像60が表示される形態と比較し、第1マーカ50が視界に入る状態においても、ユーザが操作画像60の操作以外の作業を容易に行えるようになる。
図20は、実施形態4に係るインタフェース制御システム2000を例示するブロック図である。図20において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。以下で説明する点を除き、実施形態4のインタフェース制御システム2000は、実施形態1から3いずれかのインタフェース制御システム2000と同様である。
<<検出方法1>>
操作検出部2100は、ユーザの視界において操作画像に重畳する位置に操作体が配置されている場合に、操作画像に対して操作が行われたことを検出する。ここで、操作体とは、操作画像の操作に用いられるもの全般を意味する。操作体は、ユーザの身体の一部(例えば指など)であってもよいし、ユーザの身体以外のもの(例えばペンなど)であってもよい。
操作検出部2100は、ユーザの腕部に振動が加わった場合に、操作画像60が操作されたと検出してもよい。この場合、ユーザの腕部には、振動を検出するためのセンサ(例えば加速度センサ)が取り付けられる。例えば操作検出部2100は、このセンサによって所定の大きさ以上の衝撃が検出された場合に、操作画像60が操作されたと検出する。この所定の大きさは、操作検出部2100に予め設定されていてもよいし、操作検出部2100からアクセス可能な記憶装置に記憶されていてもよい。
検出方法3において操作検出部2100は、検出方法2と同様の方法で、ユーザの腕部に所定の振動が加えられたことを検出する。そして、ユーザの腕部に所定の振動が加えられたことが検出された場合、第2表示制御部2060が、表示画面72に表示されている第1マーカ50を変更する。次いで、操作検出部2100が、カメラ20から得られる撮像画像を解析することで、第1マーカ50が変更されたか否かを判定する。そして、操作検出部2100は、第1マーカ50が変更された場合に、操作画像60が操作されたと判定する。図22は、操作画像60がタップされた場合に第1マーカ50が変更される様子を例示する図である。
操作検出部2100は、操作体を検出する処理を、操作画像全体を対象として行ってもよいし、撮像画像の一部の領域を対象として行ってもよい。後者の場合、操作検出部2100は、操作体の検出対象とする領域(以下、検出領域)を、操作画像に含まれる領域のうち、操作画像60を操作する場合に操作体が位置すると考えられる領域に限定する。以下、その限定方法の具体例について述べる。
操作検出部2100は、撮像画像に含まれる領域のうち、表示制御部2040によって操作画像60が表示されている領域を、検出領域とする。ここで、「撮像画像に含まれる領域のうち、表示制御部2040によって操作画像60が表示されている領域」には、操作画像60の表示処理の過程で表示制御部2040によって算出されたものを利用できる。なお、透過型のヘッドマウントディスプレイを用いる場合、操作画像60は撮像画像上に表示されない。この場合、「撮像画像に含まれる領域のうち、表示制御部2040によって操作画像60が表示されている領域」は、表示画面32上における操作画像60の領域が撮像画像上にマッピングされたものを意味する。
操作検出部2100は、撮像画像に写っている第1マーカ50に基づいて、操作体の検出領域を決定する。操作画像60が操作される際の操作体の位置は操作画像60が表示される領域内であり、操作画像60が表示される領域は第1マーカ50に基づいて決定されるためである。
操作対象特定部2120は、複数の操作対象のうち、操作体が重畳されている操作対象を特定する。そして、操作対象特定部2120は、操作体が重畳されている操作対象を、操作が加えられた操作対象として特定する。
操作対象特定部2120は、撮像画像に写っている操作体を表す領域を用いて、操作点を算出する。例えば操作点は指先やペン先などである。そして操作対象特定部2120は、操作点に重畳されている操作対象を、操作が加えられた操作対象として特定する。
操作対象特定部2120は、操作体が重畳されている複数の操作対象の相対的な位置関係に基づいて、操作された操作対象を特定する。例えば操作対象特定部2120は、操作体が重畳されている操作対象のうち、操作画像60を平面視した場合に最も上にある操作対象を、操作された操作対象として特定する。例えば図25や図26のキーボードの例の場合、操作対象特定部2120は、操作体が重畳されている操作画像60の内、最も上にある T のキーを、操作された操作対象として特定する。なお、図25や図26に示すような平面視の操作画像60は、例えば撮像画像に含まれる操作画像60の領域を切り出し、第1マーカ50によって定まる座標系80に基づいて座標変換することで得ることができる。
実施形態5に係るインタフェース制御システム2000は、例えば実施形態1と同様に図1で表される。以下で説明する点を除き、実施形態5のインタフェース制御システム2000は、実施形態1から4いずれかのインタフェース制御システム2000と同様の機能を有する。
実施形態6に係るインタフェース制御システム2000は、例えば実施形態1と同様に図1で表される。以下で説明する点を除き、実施形態6のインタフェース制御システム2000は、実施形態1から5いずれかのインタフェース制御システム2000と同様の機能を有する。
図32は、実施形態7に係るインタフェース制御システム2000を例示するブロック図である。図32において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。以下で説明する点を除き、実施形態7のインタフェース制御システム2000は、実施形態1から6いずれかのインタフェース制御システム2000と同様である。
前述したように、キャリブレーション部2140がキャリブレーションを実行する際には、撮像画像の特定の領域に操作体が写っていることが前提となる。そのため、この特定の領域に操作体が写るようにする必要がある。
キャリブレーション部2140がキャリブレーションを行う時には、操作体が特定の領域に配置されている必要がある。ここで、キャリブレーション部2140は、操作体が特定の領域に配置されたことを検出してもよいし、検出しなくてもよい。前者の場合、例えばキャリブレーション部2140は、前述したセンサによる検出に基づいて、操作体が特定の領域に配置されたことを検出する。この場合、ユーザは、ガイド画像160によって示される位置に操作体を配置した状態で、センサによる検出が行われるような動作を行う。例えばセンサとして加速度センサが設けられている場合、ユーザは、ガイド画像160に示される場所に対してタップなどを行う。キャリブレーション部2140は、上記センサによる検出が行われたタイミング又はそれに近いタイミングで生成された撮像画像を対象としてキャリブレーションを実行する。
キャリブレーション部2140は、キャリブレーション対象の撮像画像における特定の領域の色相に基づいて、操作体の色相範囲を算出する。例えばキャリブレーション部2140は、上記特定の領域に含まれる各画素の色相を算出し、算出された色相の統計値を用いて操作体の色相範囲を定める。例えばキャリブレーション部2140は、上記特定の領域に含まれる各画素の色相の平均値μ及び標準偏差σを算出し、「μ−kσ以上、μ+kσ以下」の範囲を操作体の色相範囲とする。ここで、kは任意の実数である。
キャリブレーション部2140は、ユーザがインタフェース制御システム2000を利用する際に操作体の背景となる領域(以下、背景領域)についても色相範囲を算出し、その色相範囲を用いて操作体の色相範囲を算出してもよい。具体的には、キャリブレーション部2140は、操作体の色相範囲を算出する方法と同様の方法で、背景領域の色相範囲を算出する。さらにキャリブレーション部2140は、操作体の色相範囲の算出対象である上記特定の領域について算出した色相範囲から、背景領域の色相範囲にも含まれている領域を排除する。キャリブレーション部2140は、この排除の結果残った色相範囲を操作体の色相範囲とする。
キャリブレーション部2140は、操作画像の特定の領域に背景が配置された状態で、背景についてのキャリブレーションを実行する。この特定の領域は、操作体が配置される領域と同じであってもよいし、異なってもよい。前者の場合、例えばキャリブレーション部2140は、まず特定の領域に操作体が配置された状態でキャリブレーションを行うことで第1の色相範囲(図36の色相範囲200)を算出する。次にキャリブレーション部2140は、その特定の領域に背景領域が配置された状態でキャリブレーションを行うことで第2の色相範囲を算出する(図36の色相範囲210)。そしてキャリブレーション部2140は、第1の色相範囲から第2の色相範囲を除外することで、操作体の色相範囲を算出する(図36の色相範囲220)。この場合、操作体の色相範囲の算出に、2つの撮像画像が必要となる。
例えば実施形態7のインタフェース制御システム2000のハードウエア構成は、実施形態1のインタフェース制御システム2000と同様に、図7で表される。本実施形態において、前述したストレージ1080に記憶される各プログラムモジュールには、本実施形態で説明する各機能を実現するプログラムがさらに含まれる。
本実施形態によれば、操作体の色相範囲を予め算出しておくキャリブレーションが行われ、その後のユーザによる入力操作において、操作体の検出が上記色相範囲を用いて行われる。こうすることで、操作体の算出を精度よく、なおかつ容易に行うことができるようになる。
実施形態7のインタフェース制御システム2000が実行するキャリブレーションは、背景の色相範囲の算出のみであってもよい。この場合、操作検出部2100や操作対象特定部2120は、背景領域の色相範囲に含まれる色相を有する領域を撮像画像から除外し、残った領域に対してオブジェクト認識などを行うことで操作体を検出する。こうすることで、操作体の周囲の領域である背景領域が撮像画像から除外されるため、操作体を精度よくかつ容易に検出することができるようになる。
1. ユーザに身につけられたカメラから得られる画像に基づいて、前記ユーザの身体に取り付けられた第1マーカを検出する検出手段と、
前記ユーザの身体に重畳されて前記ユーザに視認されるように、前記検出手段によって検出された前記第1マーカに基づいて、前記ユーザによって装着されるヘッドマウントディスプレイの表示画面上に操作画像を表示する表示制御手段と、
前記ユーザによって前記操作画像が操作されたことを判定する操作検出手段と、
を有するインタフェース制御システム。
2. 前記検出手段は、前記第1マーカを検出することにより、前記第1マーカの位置、大きさ、又は姿勢を特定し、
前記表示制御手段は、前記検出手段によって特定された前記第1マーカの位置、大きさ、又は姿勢に基づいて、前記ヘッドマウントディスプレイの表示画面における前記操作画像の位置、大きさ、又は姿勢を決定する、
1.に記載のインタフェース制御システム。
3. 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である、1.又は2.に記載のインタフェース制御システム。
4. 前記表示制御手段は、前記カメラから得られる画像に写っている前記第1マーカの種類に基づいて、表示する前記操作画像を決定する、1.乃至3.いずれか一つに記載のインタフェース制御システム。
5. 前記デバイスに対するユーザ操作に応じて、前記デバイスの表示画面上に表示される第1マーカの種類を切り替える第2表示制御手段を更に有し、
前記検出手段は、前記カメラから得られる画像から検出された前記第1マーカの種類を特定し、
前記表示制御手段は、表示されている操作画面を、前記特定された第1マーカの種類に対応する操作画面に切り替える、3.に記載のインタフェース制御システム。
6. 前記表示制御手段は、前記ユーザが前記操作画像に対して行った操作に基づいて、表示する前記操作画像を変更する、1.乃至5.いずれか一つに記載のインタフェース制御システム。
7. 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像であり、
前記カメラから得られる画像内の背景の特徴を抽出し、前記抽出した特徴に基づいて、前記デバイスの表示画面上に表示される第1マーカの形状、模様、又は色彩を決定する第1マーカ決定手段を有する、1.乃至6.いずれか一つに記載のインタフェース制御システム。
8. 前記表示制御手段は、
前記ヘッドマウントディスプレイの表示画面上に第2マーカを表示し、
前記ヘッドマウントディスプレイを介して前記ユーザに視認される前記第1マーカと前記第2マーカの位置関係が所定の位置関係になった場合に前記操作画像を表示する、1.乃至7.いずれか一つに記載のインタフェース制御システム。
9. 前記検出手段は、前記ヘッドマウントディスプレイの表示画面上の一部の所定位置に表示される前記第2マーカに対応する部分領域を対象に前記第1マーカを検出する、
8.に記載のインタフェース制御システム。
10. 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像であり、
ユーザの腕部の振動を検出するセンサによって所定の振動が検出された場合に、前記デバイスの表示画面上に所定の表示を行う第2表示制御手段を有し、
前記操作検出手段は、前記カメラによって前記所定の表示が撮像された場合に、前記ユーザによって前記操作画像が操作されたと判定する、1.乃至9.いずれか一つに記載のインタフェース制御システム。
11. 前記操作検出手段は、ユーザの腕部の振動を検出するセンサによって所定の振動が検出された場合に、前記ユーザによって前記操作画像が操作されたと判定する、1.乃至9.いずれか一つに記載のインタフェース制御システム。
12. 前記操作検出手段は、前記カメラから得られる画像に含まれる領域のうち、前記第1マーカに基づいて定まる一部の領域について操作体の検出を行い、前記一部の領域において操作体が検出された場合に、前記ユーザによって前記操作画像が操作されたと判定する、1.乃至9.いずれか一つに記載のインタフェース制御システム。
13. 前記操作画像に複数の操作対象が含まれ、前記操作画像に対して操作を行う前記ユーザの手が複数の操作対象と重なっている場合、それら複数の操作対象の内、所定割合以上の面積が前記ユーザの手と重なっている操作対象の中から、前記ユーザによって操作された操作対象として決定する操作対象特定手段を有する、1.乃至12.いずれか一つに記載のインタフェース制御システム。
14. 前記操作画像に複数の操作対象が含まれ、前記操作画像に対して操作を行う前記ユーザの手が複数の操作対象と重なっている場合、それら複数の操作対象の内、最も左上又は最も右上の操作対象を、前記ユーザによって操作された操作対象として決定する操作対象特定手段を有する、1.乃至13.いずれか一つに記載のインタフェース制御システム。
15. 前記表示制御手段は、前記ヘッドマウントディスプレイを介して前記ユーザによって視認される前記操作画像とその操作画像を操作する前記ユーザの手が重なる場合、前記ユーザの手がある位置に手の画像を重畳させた操作画像を、前記ヘッドマウントディスプレイの表示画面上に表示する、1.乃至14.いずれか一つに記載のインタフェース制御システム。
16. 前記表示制御手段は、前記ユーザの身体の姿勢に応じて、前記操作画像の一部のみを表示する、1.乃至15.いずれか一つに記載のインタフェース制御システム。
17. 1.乃至16.いずれか一つに記載の各手段を有するインタフェース制御装置。
18. コンピュータによって実行されるインタフェース制御方法であって、
ユーザに身につけられたカメラから得られる画像に基づいて、前記ユーザの身体に取り付けられた第1マーカを検出する検出ステップと、
前記ユーザの身体に重畳されて前記ユーザに視認されるように、前記検出ステップによって検出された前記第1マーカに基づいて、前記ユーザによって装着されるヘッドマウントディスプレイの表示画面上に操作画像を表示する表示制御ステップと、
前記ユーザによって前記操作画像が操作されたことを判定する操作検出ステップと、
を有するインタフェース制御方法。
19. 前記検出ステップは、前記第1マーカを検出することにより、前記第1マーカの位置、大きさ、又は姿勢を特定し、
前記表示制御ステップは、前記検出ステップによって特定された前記第1マーカの位置、大きさ、又は姿勢に基づいて、前記ヘッドマウントディスプレイの表示画面における前記操作画像の位置、大きさ、又は姿勢を決定する、
18.に記載のインタフェース制御方法。
20. 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である、18.又は19.に記載のインタフェース制御方法。
21. 前記表示制御ステップは、前記カメラから得られる画像に写っている前記第1マーカの種類に基づいて、表示する前記操作画像を決定する、18.乃至20.いずれか一つに記載のインタフェース制御方法。
22. 前記デバイスに対するユーザ操作に応じて、前記デバイスの表示画面上に表示される第1マーカの種類を切り替える第2表示制御ステップを更に有し、
前記検出ステップは、前記カメラから得られる画像から検出された前記第1マーカの種類を特定し、
前記表示制御ステップは、表示されている操作画面を、前記特定された第1マーカの種類に対応する操作画面に切り替える、20.に記載のインタフェース制御方法。
23. 前記表示制御ステップは、前記ユーザが前記操作画像に対して行った操作に基づいて、表示する前記操作画像を変更する、18.乃至22.いずれか一つに記載のインタフェース制御方法。
24. 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像であり、
前記カメラから得られる画像内の背景の特徴を抽出し、前記抽出した特徴に基づいて、前記デバイスの表示画面上に表示される第1マーカの形状、模様、又は色彩を決定する第1マーカ決定ステップを有する、18.乃至23.いずれか一つに記載のインタフェース制御方法。
25. 前記表示制御ステップは、
前記ヘッドマウントディスプレイの表示画面上に第2マーカを表示し、
前記ヘッドマウントディスプレイを介して前記ユーザに視認される前記第1マーカと前記第2マーカの位置関係が所定の位置関係になった場合に前記操作画像を表示する、18.乃至24.いずれか一つに記載のインタフェース制御方法。
26. 前記検出ステップは、前記ヘッドマウントディスプレイの表示画面上の一部の所定位置に表示される前記第2マーカに対応する部分領域を対象に前記第1マーカを検出する、
25.に記載のインタフェース制御方法。
27. 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像であり、
ユーザの腕部の振動を検出するセンサによって所定の振動が検出された場合に、前記デバイスの表示画面上に所定の表示を行う第2表示制御ステップを有し、
前記操作検出ステップは、前記カメラによって前記所定の表示が撮像された場合に、前記ユーザによって前記操作画像が操作されたと判定する、18.乃至26.いずれか一つに記載のインタフェース制御方法。
28. 前記操作検出ステップは、ユーザの腕部の振動を検出するセンサによって所定の振動が検出された場合に、前記ユーザによって前記操作画像が操作されたと判定する、18.乃至26.いずれか一つに記載のインタフェース制御方法。
29. 前記操作検出ステップは、前記カメラから得られる画像に含まれる領域のうち、前記第1マーカに基づいて定まる一部の領域について操作体の検出を行い、前記一部の領域において操作体が検出された場合に、前記ユーザによって前記操作画像が操作されたと判定する、18.乃至26.いずれか一つに記載のインタフェース制御方法。
30. 前記操作画像に複数の操作対象が含まれ、前記操作画像に対して操作を行う前記ユーザの手が複数の操作対象と重なっている場合、それら複数の操作対象の内、所定割合以上の面積が前記ユーザの手と重なっている操作対象の中から、前記ユーザによって操作された操作対象として決定する操作対象特定ステップを有する、18.乃至29.いずれか一つに記載のインタフェース制御方法。
31. 前記操作画像に複数の操作対象が含まれ、前記操作画像に対して操作を行う前記ユーザの手が複数の操作対象と重なっている場合、それら複数の操作対象の内、最も左上又は最も右上の操作対象を、前記ユーザによって操作された操作対象として決定する操作対象特定ステップを有する、18.乃至30.いずれか一つに記載のインタフェース制御方法。
32. 前記表示制御ステップは、前記ヘッドマウントディスプレイを介して前記ユーザによって視認される前記操作画像とその操作画像を操作する前記ユーザの手が重なる場合、前記ユーザの手がある位置に手の画像を重畳させた操作画像を、前記ヘッドマウントディスプレイの表示画面上に表示する、18.乃至31.いずれか一つに記載のインタフェース制御方法。
33. 前記表示制御ステップは、前記ユーザの身体の姿勢に応じて、前記操作画像の一部のみを表示する、18.乃至32.いずれか一つに記載のインタフェース制御方法。
34. 18.乃至33.いずれか一つに記載の各ステップをコンピュータに実行させるプログラム。
Claims (19)
- ユーザに身につけられたカメラから得られる画像に基づいて、前記ユーザの身体に取り付けられた第1マーカを検出する検出手段と、
前記ユーザの身体に重畳されて前記ユーザに視認されるように、前記検出手段によって検出された前記第1マーカに基づいて、前記ユーザによって装着されるヘッドマウントディスプレイの表示画面上に操作画像を表示する表示制御手段と、
前記ユーザによって前記操作画像が操作されたことを判定する操作検出手段と、
を有するインタフェース制御システム。 - 前記検出手段は、前記第1マーカを検出することにより、前記第1マーカの位置、大きさ、又は姿勢を特定し、
前記表示制御手段は、前記検出手段によって特定された前記第1マーカの位置、大きさ、又は姿勢に基づいて、前記ヘッドマウントディスプレイの表示画面における前記操作画像の位置、大きさ、又は姿勢を決定する、
請求項1に記載のインタフェース制御システム。 - 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像である、請求項1又は2に記載のインタフェース制御システム。
- 前記表示制御手段は、前記カメラから得られる画像に写っている前記第1マーカの種類に基づいて、表示する前記操作画像を決定する、請求項1乃至3いずれか一項に記載のインタフェース制御システム。
- 前記デバイスに対するユーザ操作に応じて、前記デバイスの表示画面上に表示される第1マーカの種類を切り替える第2表示制御手段を更に有し、
前記検出手段は、前記カメラから得られる画像から検出された前記第1マーカの種類を特定し、
前記表示制御手段は、表示されている操作画面を、前記特定された第1マーカの種類に対応する操作画面に切り替える、請求項3に記載のインタフェース制御システム。 - 前記表示制御手段は、前記ユーザが前記操作画像に対して行った操作に基づいて、表示する前記操作画像を変更する、請求項1乃至5いずれか一項に記載のインタフェース制御システム。
- 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像であり、
前記カメラから得られる画像内の背景の特徴を抽出し、前記抽出した特徴に基づいて、前記デバイスの表示画面上に表示される第1マーカの形状、模様、又は色彩を決定する第1マーカ決定手段を有する、請求項1乃至6いずれか一項に記載のインタフェース制御システム。 - 前記表示制御手段は、
前記ヘッドマウントディスプレイの表示画面上に第2マーカを表示し、
前記ヘッドマウントディスプレイを介して前記ユーザに視認される前記第1マーカと前記第2マーカの位置関係が所定の位置関係になった場合に前記操作画像を表示する、請求項1乃至7いずれか一項に記載のインタフェース制御システム。 - 前記検出手段は、前記ヘッドマウントディスプレイの表示画面上の一部の所定位置に表示される前記第2マーカに対応する部分領域を対象に前記第1マーカを検出する、
請求項8に記載のインタフェース制御システム。 - 前記第1マーカは、前記ユーザの腕部に取り付けられるデバイスの表示画面上に表示される画像であり、
ユーザの腕部の振動を検出するセンサによって所定の振動が検出された場合に、前記デバイスの表示画面上に所定の表示を行う第2表示制御手段を有し、
前記操作検出手段は、前記カメラによって前記所定の表示が撮像された場合に、前記ユーザによって前記操作画像が操作されたと判定する、請求項1乃至9いずれか一項に記載のインタフェース制御システム。 - 前記操作検出手段は、ユーザの腕部の振動を検出するセンサによって所定の振動が検出された場合に、前記ユーザによって前記操作画像が操作されたと判定する、請求項1乃至9いずれか一項に記載のインタフェース制御システム。
- 前記操作検出手段は、前記カメラから得られる画像に含まれる領域のうち、前記第1マーカに基づいて定まる一部の領域について操作体の検出を行い、前記一部の領域において操作体が検出された場合に、前記ユーザによって前記操作画像が操作されたと判定する、請求項1乃至9いずれか一項に記載のインタフェース制御システム。
- 前記操作画像に複数の操作対象が含まれ、前記操作画像に対して操作を行う前記ユーザの手が複数の操作対象と重なっている場合、それら複数の操作対象の内、所定割合以上の面積が前記ユーザの手と重なっている操作対象の中から、前記ユーザによって操作された操作対象として決定する操作対象特定手段を有する、請求項1乃至12いずれか一項に記載のインタフェース制御システム。
- 前記操作画像に複数の操作対象が含まれ、前記操作画像に対して操作を行う前記ユーザの手が複数の操作対象と重なっている場合、それら複数の操作対象の内、最も左上又は最も右上の操作対象を、前記ユーザによって操作された操作対象として決定する操作対象特定手段を有する、請求項1乃至13いずれか一項に記載のインタフェース制御システム。
- 前記表示制御手段は、前記ヘッドマウントディスプレイを介して前記ユーザによって視認される前記操作画像とその操作画像を操作する前記ユーザの手が重なる場合、前記ユーザの手がある位置に手の画像を重畳させた操作画像を、前記ヘッドマウントディスプレイの表示画面上に表示する、請求項1乃至14いずれか一項に記載のインタフェース制御システム。
- 前記表示制御手段は、前記ユーザの身体の姿勢に応じて、前記操作画像の一部のみを表示する、請求項1乃至15いずれか一項に記載のインタフェース制御システム。
- 請求項1乃至16いずれか一項に記載の各手段を有するインタフェース制御装置。
- コンピュータによって実行されるインタフェース制御方法であって、
ユーザに身につけられたカメラから得られる画像に基づいて、前記ユーザの身体に取り付けられた第1マーカを検出する検出ステップと、
前記ユーザの身体に重畳されて前記ユーザに視認されるように、前記検出ステップによって検出された前記第1マーカに基づいて、前記ユーザによって装着されるヘッドマウントディスプレイの表示画面上に操作画像を表示する表示制御ステップと、
前記ユーザによって前記操作画像が操作されたことを判定する操作検出ステップと、
を有するインタフェース制御方法。 - 請求項18に記載の各ステップをコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015103905 | 2015-05-21 | ||
JP2015103905 | 2015-05-21 | ||
PCT/JP2016/062240 WO2016185845A1 (ja) | 2015-05-21 | 2016-04-18 | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016185845A1 true JPWO2016185845A1 (ja) | 2018-02-15 |
JP6288372B2 JP6288372B2 (ja) | 2018-03-07 |
Family
ID=57319980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017519077A Active JP6288372B2 (ja) | 2015-05-21 | 2016-04-18 | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10698535B2 (ja) |
JP (1) | JP6288372B2 (ja) |
CN (1) | CN107615214B (ja) |
WO (1) | WO2016185845A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10698535B2 (en) * | 2015-05-21 | 2020-06-30 | Nec Corporation | Interface control system, interface control apparatus, interface control method, and program |
JP6344530B2 (ja) * | 2015-09-28 | 2018-06-20 | 日本電気株式会社 | 入力装置、入力方法、及びプログラム |
CN108027655A (zh) * | 2016-02-25 | 2018-05-11 | 日本电气株式会社 | 信息处理系统、信息处理设备、控制方法和程序 |
US9973647B2 (en) | 2016-06-17 | 2018-05-15 | Microsoft Technology Licensing, Llc. | Suggesting image files for deletion based on image file parameters |
US20180095960A1 (en) * | 2016-10-04 | 2018-04-05 | Microsoft Technology Licensing, Llc. | Automatically uploading image files based on image capture context |
JP6790769B2 (ja) * | 2016-11-30 | 2020-11-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US20180158244A1 (en) * | 2016-12-02 | 2018-06-07 | Ayotle | Virtual sensor configuration |
WO2019059044A1 (ja) | 2017-09-20 | 2019-03-28 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
US10705673B2 (en) * | 2017-09-30 | 2020-07-07 | Intel Corporation | Posture and interaction incidence for input and output determination in ambient computing |
WO2019069575A1 (ja) * | 2017-10-05 | 2019-04-11 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
EP3489800A1 (de) * | 2017-11-27 | 2019-05-29 | EUCHNER GmbH + Co. KG | Sicherheitssystem |
US10902680B2 (en) * | 2018-04-03 | 2021-01-26 | Saeed Eslami | Augmented reality application system and method |
CN108509430A (zh) * | 2018-04-10 | 2018-09-07 | 京东方科技集团股份有限公司 | 智能眼镜及其翻译方法 |
CN108549487A (zh) * | 2018-04-23 | 2018-09-18 | 网易(杭州)网络有限公司 | 虚拟现实交互方法与装置 |
US10977867B2 (en) * | 2018-08-14 | 2021-04-13 | Goodrich Corporation | Augmented reality-based aircraft cargo monitoring and control system |
CN111198608B (zh) * | 2018-11-16 | 2021-06-22 | 广东虚拟现实科技有限公司 | 信息提示方法、装置、终端设备及计算机可读取存储介质 |
CN109118538A (zh) * | 2018-09-07 | 2019-01-01 | 上海掌门科技有限公司 | 图像呈现方法、系统、电子设备和计算机可读存储介质 |
JP7247519B2 (ja) * | 2018-10-30 | 2023-03-29 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
JP7053516B2 (ja) | 2019-02-15 | 2022-04-12 | 株式会社日立製作所 | ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム |
WO2020234939A1 (ja) * | 2019-05-17 | 2020-11-26 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002318652A (ja) * | 2001-04-20 | 2002-10-31 | Foundation For Nara Institute Of Science & Technology | 仮想入力装置およびプログラム |
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
JP2006506737A (ja) * | 2002-11-19 | 2006-02-23 | モトローラ・インコーポレイテッド | 身体中心的な仮想対話型装置および方法 |
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
WO2013168508A1 (ja) * | 2012-05-09 | 2013-11-14 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2015504616A (ja) * | 2011-09-26 | 2015-02-12 | マイクロソフト コーポレーション | 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正 |
US20150323998A1 (en) * | 2014-05-06 | 2015-11-12 | Qualcomm Incorporated | Enhanced user interface for a wearable electronic device |
JP2016126589A (ja) * | 2015-01-06 | 2016-07-11 | セイコーエプソン株式会社 | 表示システム、プログラム、及び、表示装置の制御方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040070563A1 (en) * | 2002-10-10 | 2004-04-15 | Robinson Ian Nevill | Wearable imaging device |
US20060007056A1 (en) * | 2004-07-09 | 2006-01-12 | Shu-Fong Ou | Head mounted display system having virtual keyboard and capable of adjusting focus of display screen and device installed the same |
GB2448310A (en) * | 2007-01-31 | 2008-10-15 | Wilico Wireless Networking Sol | Interactive information method and system |
US8471868B1 (en) * | 2007-11-28 | 2013-06-25 | Sprint Communications Company L.P. | Projector and ultrasonic gesture-controlled communicator |
JP5375828B2 (ja) * | 2008-08-29 | 2013-12-25 | 日本電気株式会社 | 位置情報入力装置および位置情報入力方法 |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
JP2011134127A (ja) | 2009-12-24 | 2011-07-07 | Toshiba Corp | 情報処理装置およびキー入力方法 |
JP5786854B2 (ja) * | 2010-03-15 | 2015-09-30 | 日本電気株式会社 | 入力装置、入力方法及びプログラム |
WO2011115027A1 (ja) * | 2010-03-15 | 2011-09-22 | 日本電気株式会社 | 入力装置、入力方法及びプログラム |
CN102763057B (zh) * | 2010-03-15 | 2016-07-13 | 日本电气株式会社 | 输入设备、方法和程序 |
US9069164B2 (en) * | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
EP2850609A4 (en) * | 2012-05-16 | 2017-01-11 | Mobile Augmented Reality Ltd. Imagine | A system worn by a moving user for fully augmenting reality by anchoring virtual objects |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
EP2983138A4 (en) | 2013-04-04 | 2017-02-22 | Sony Corporation | Display control device, display control method and program |
CN105229720B (zh) | 2013-05-21 | 2018-05-15 | 索尼公司 | 显示控制装置、显示控制方法以及记录介质 |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9857971B2 (en) * | 2013-12-02 | 2018-01-02 | Industrial Technology Research Institute | System and method for receiving user input and program storage medium thereof |
JP5929933B2 (ja) * | 2014-01-16 | 2016-06-08 | カシオ計算機株式会社 | 表示システム、表示端末、表示方法及びプログラム |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
EP4239456A1 (en) * | 2014-03-21 | 2023-09-06 | Samsung Electronics Co., Ltd. | Method and glasses type wearable device for providing a virtual input interface |
KR101909540B1 (ko) * | 2014-10-23 | 2018-10-18 | 삼성전자주식회사 | 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법 |
US10698535B2 (en) * | 2015-05-21 | 2020-06-30 | Nec Corporation | Interface control system, interface control apparatus, interface control method, and program |
US9971408B2 (en) * | 2016-01-27 | 2018-05-15 | Ebay Inc. | Simulating touch in a virtual environment |
JP6256497B2 (ja) * | 2016-03-04 | 2018-01-10 | 日本電気株式会社 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
US10431007B2 (en) * | 2016-05-31 | 2019-10-01 | Augumenta Ltd. | Method and system for user interaction |
-
2016
- 2016-04-18 US US15/575,186 patent/US10698535B2/en active Active
- 2016-04-18 JP JP2017519077A patent/JP6288372B2/ja active Active
- 2016-04-18 CN CN201680029080.0A patent/CN107615214B/zh active Active
- 2016-04-18 WO PCT/JP2016/062240 patent/WO2016185845A1/ja active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
JP2002318652A (ja) * | 2001-04-20 | 2002-10-31 | Foundation For Nara Institute Of Science & Technology | 仮想入力装置およびプログラム |
JP2006506737A (ja) * | 2002-11-19 | 2006-02-23 | モトローラ・インコーポレイテッド | 身体中心的な仮想対話型装置および方法 |
JP2009251154A (ja) * | 2008-04-03 | 2009-10-29 | Konica Minolta Holdings Inc | 頭部装着式映像表示装置 |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
JP2015504616A (ja) * | 2011-09-26 | 2015-02-12 | マイクロソフト コーポレーション | 透過近眼式ディスプレイのセンサ入力に基づく映像表示修正 |
WO2013168508A1 (ja) * | 2012-05-09 | 2013-11-14 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20150323998A1 (en) * | 2014-05-06 | 2015-11-12 | Qualcomm Incorporated | Enhanced user interface for a wearable electronic device |
JP2016126589A (ja) * | 2015-01-06 | 2016-07-11 | セイコーエプソン株式会社 | 表示システム、プログラム、及び、表示装置の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US10698535B2 (en) | 2020-06-30 |
JP6288372B2 (ja) | 2018-03-07 |
WO2016185845A1 (ja) | 2016-11-24 |
CN107615214A (zh) | 2018-01-19 |
US20180150186A1 (en) | 2018-05-31 |
CN107615214B (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6288372B2 (ja) | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP6390799B2 (ja) | 入力装置、入力方法、及びプログラム | |
US20170293351A1 (en) | Head mounted display linked to a touch sensitive input device | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
EP3262505B1 (en) | Interactive system control apparatus and method | |
JP6350772B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
KR102147430B1 (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
JPWO2014016992A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
US20140071044A1 (en) | Device and method for user interfacing, and terminal using the same | |
JP2004078977A (ja) | インターフェイス装置 | |
CN111766937A (zh) | 虚拟内容的交互方法、装置、终端设备及存储介质 | |
CN111813214B (zh) | 虚拟内容的处理方法、装置、终端设备及存储介质 | |
JP2010205031A (ja) | 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム | |
CN111913564B (zh) | 虚拟内容的操控方法、装置、系统、终端设备及存储介质 | |
CN117784926A (zh) | 控制装置、控制方法和计算机可读存储介质 | |
CN115720652A (zh) | 用于具有放大内容的动态速写的系统与方法 | |
CN114003122A (zh) | 一种ar界面交互方法与基于该方法的智能指环 | |
CN114647304A (zh) | 一种混合现实交互方法、装置、设备及存储介质 | |
CN111857364A (zh) | 交互装置、虚拟内容的处理方法、装置以及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171116 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20171116 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6288372 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |