JP2002318652A - Virtual input device and its program - Google Patents

Virtual input device and its program

Info

Publication number
JP2002318652A
JP2002318652A JP2001123676A JP2001123676A JP2002318652A JP 2002318652 A JP2002318652 A JP 2002318652A JP 2001123676 A JP2001123676 A JP 2001123676A JP 2001123676 A JP2001123676 A JP 2001123676A JP 2002318652 A JP2002318652 A JP 2002318652A
Authority
JP
Japan
Prior art keywords
user
virtual input
image
input device
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001123676A
Other languages
Japanese (ja)
Inventor
Yasuyuki Kono
恭之 河野
Masatsugu Kidode
正継 木戸出
Toru Takahashi
徹 高橋
Masaki Chikama
正樹 近間
Tatsuyuki Kawamura
竜幸 河村
Yuichiro Taniguchi
雄一郎 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2001123676A priority Critical patent/JP2002318652A/en
Publication of JP2002318652A publication Critical patent/JP2002318652A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an input interface suitable for a wearable computer to a user. SOLUTION: A virtual input device 1 is provided with a camera 3 for photographing a scenery in front of a user, and for acquiring the three- dimensional information of an object which is present in front of the user, a computer 5 for recognizing a face existing relatively near the user, and for superimposing the picture of a virtual input device corresponding to the recognized face on a picture outputted from the camera, and display devices 2a and 2b for displaying the picture on which the picture of the virtual input device is superimposed. The computer 5 detects the input operation of the user to the virtual input device displayed on the display devices 2a and 2b, and accepts the input from the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ユーザからの入力
を受け付け可能な仮想入力装置およびプログラムに関す
る。
[0001] 1. Field of the Invention [0002] The present invention relates to a virtual input device and a program capable of receiving an input from a user.

【0002】[0002]

【従来の技術】コンピュータの小型化と高性能化に伴
い、ウェアラブルコンピュータと呼ばれる超小型軽量な
コンピュータが研究開発されるようになってきた。
2. Description of the Related Art With the miniaturization and high performance of computers, ultra-compact and lightweight computers called wearable computers have been researched and developed.

【0003】ヘッドマウントディスプレイ(HMD)の高
精度化・高性能化が実現し、ウェアラブルコンピュータ
の実用化・普及の可能性が増大している。
[0003] Higher precision and higher performance of a head mounted display (HMD) have been realized, and the possibility of practical use and spread of wearable computers has been increasing.

【0004】[0004]

【発明が解決しようとする課題】上述のようなウェアラ
ブルコンピュータでは、文字や絵などのコンテンツを入
力するための入力インタフェースが必要である。この入
力インタフェースとして、特殊な入力ハードウェアの追
加、従来のGUI入力インタフェースの援用あるいは音
声入力が考えられる。
The above wearable computer needs an input interface for inputting contents such as characters and pictures. As this input interface, addition of special input hardware, assistance of a conventional GUI input interface, or voice input can be considered.

【0005】しかし、ウェアラブルコンピュータで利用
できるコンテンツ入力インタフェースは、まだまだ貧弱
である。
[0005] However, the content input interface available on the wearable computer is still poor.

【0006】本発明は、上述した課題に鑑みてなされた
ものであり、ウェアラブルコンピュータに適した入力イ
ンタフェースをユーザに提供することが可能な仮想入力
装置を提供することを目的とする。
[0006] The present invention has been made in view of the above-described problems, and has as its object to provide a virtual input device capable of providing a user with an input interface suitable for a wearable computer.

【0007】[0007]

【課題を解決するための手段】本発明の仮想入力装置
は、ユーザの比較的近くに存在する面を認識する手段
と、前記認識された面に応じた仮想入力インタフェース
を前記ユーザに提供する手段とを備えており、これによ
り、上記目的が達成される。
According to the present invention, there is provided a virtual input device for recognizing a surface relatively close to a user, and for providing the user with a virtual input interface corresponding to the recognized surface. And thereby the above object is achieved.

【0008】本発明の他の仮想入力装置は、ユーザの前
方の風景を撮影するとともに、前記ユーザの前方に存在
する対象物の3次元情報を取得するカメラと、前記取得
された3次元情報に基づいて、前記ユーザの比較的近く
に存在する面を認識し、前記認識された面に応じた仮想
入力デバイスの画像を前記カメラから出力された画像に
重畳するコンピュータと、前記仮想入力デバイスの画像
が重畳された画像を表示する表示装置とを備え、前記コ
ンピュータは、前記表示装置に表示された前記仮想入力
デバイスに対する前記ユーザの入力操作を検出すること
によって、前記ユーザからの入力を受け付ける。これに
より、上記目的が達成される。
According to another aspect of the present invention, there is provided a virtual input device for photographing a scene in front of a user and acquiring three-dimensional information of an object existing in front of the user. A computer that recognizes a surface that is relatively close to the user based on the image, and superimposes an image of a virtual input device corresponding to the recognized surface on an image output from the camera; and an image of the virtual input device. And a display device that displays an image on which the image is superimposed. The computer receives an input from the user by detecting an input operation of the user on the virtual input device displayed on the display device. Thereby, the above object is achieved.

【0009】本発明の仮想入力装置は、ユーザの前方の
風景を撮影するカメラと、前記ユーザの前方に存在する
対象物からの反射光の強さを検出するセンサと、前記検
出された反射光の強さに基づいて、前記ユーザの比較的
近くに存在する面を認識し、前記認識された面に応じた
仮想入力デバイスの画像を前記カメラから出力された画
像に重畳するコンピュータと、前記仮想入力デバイスの
画像が重畳された画像を表示する表示装置とを備え、前
記コンピュータは、前記表示装置に表示された前記仮想
入力デバイスに対する前記ユーザの入力操作を検出する
ことによって、前記ユーザからの入力を受け付ける。こ
れにより、上記目的が達成される。
A virtual input device according to the present invention includes a camera for photographing a scene in front of a user, a sensor for detecting the intensity of reflected light from an object existing in front of the user, and the detected reflected light. A computer that recognizes a surface relatively close to the user based on the strength of the user, and superimposes an image of a virtual input device corresponding to the recognized surface on an image output from the camera; and A display device that displays an image on which an image of the input device is superimposed, wherein the computer detects an input operation of the user on the virtual input device displayed on the display device, thereby inputting from the user. Accept. Thereby, the above object is achieved.

【0010】前記仮想入力デバイスは、キーボードと手
書き入力パッドとを含む複数の入力デバイスから選択さ
れた1つであってもよい。
[0010] The virtual input device may be one selected from a plurality of input devices including a keyboard and a handwriting input pad.

【0011】前記表示装置は、前記ユーザの頭部に装着
可能なヘッドマウントディスプレイ(HMD)であって
もよい。
[0011] The display device may be a head mounted display (HMD) that can be mounted on the head of the user.

【0012】本発明のプログラムは、コンピュータに仮
想入力処理を実行させるためのプログラムであって、前
記仮想入力処理は、ユーザの比較的近くに存在する面を
認識するステップと、前記認識された面に応じた仮想入
力インタフェースを前記ユーザに提供するステップとを
包含しており、これにより、上記目的が達成される。
A program according to the present invention is a program for causing a computer to execute a virtual input process, wherein the virtual input process includes a step of recognizing a surface relatively close to a user; Providing the user with a virtual input interface according to the above, whereby the above object is achieved.

【0013】本発明の他のプログラムは、ユーザの前方
の風景を撮影するとともに、前記ユーザの前方に存在す
る対象物の3次元情報を取得するカメラと、画像を表示
する表示装置とに接続されたコンピュータに仮想入力処
理を実行させるためのプログラムであって、前記仮想入
力処理は、前記取得された3次元情報に基づいて、前記
ユーザの比較的近くに存在する面を認識するステップ
と、前記認識された面に応じた仮想入力デバイスの画像
を前記カメラから出力された画像に重畳するステップ
と、前記仮想入力デバイスの画像が重畳された画像を前
記表示装置に表示するステップと、前記表示装置に表示
された前記仮想入力デバイスに対する前記ユーザの入力
操作を検出することによって、前記ユーザからの入力を
受け付けるステップとを包含しており、これにより、上
記目的が達成される。
Another program according to the present invention is connected to a camera for photographing a scene in front of the user, acquiring three-dimensional information of an object existing in front of the user, and a display device for displaying an image. A program for causing a computer to execute a virtual input process, wherein the virtual input process recognizes a surface relatively close to the user based on the acquired three-dimensional information; Superimposing an image of the virtual input device according to the recognized surface on an image output from the camera; displaying an image on which the image of the virtual input device is superimposed on the display device; and Receiving input from the user by detecting an input operation of the user with respect to the virtual input device displayed in; And encompasses, thereby the objective described above being achieved.

【0014】本発明の他のプログラムは、ユーザの前方
の風景を撮影するカメラと、前記ユーザの前方に存在す
る対象物からの反射光の強さを検出するセンサと、画像
を表示する表示装置とに接続されたコンピュータに仮想
入力処理を実行させるためのプログラムであって、前記
仮想入力処理は、前記検出された反射光の強さに基づい
て、前記ユーザの比較的近くに存在する面を認識するス
テップと、前記認識された面に応じた仮想入力デバイス
の画像を前記カメラから出力された画像に重畳するステ
ップと、前記仮想入力デバイスの画像が重畳された画像
を前記表示装置に表示するステップと、前記表示装置に
表示された前記仮想入力デバイスに対する前記ユーザの
入力操作を検出することによって、前記ユーザからの入
力を受け付けるステップとを包含しており、これによ
り、上記目的が達成される。
According to another program of the present invention, there is provided a camera for photographing a scene in front of a user, a sensor for detecting the intensity of light reflected from an object existing in front of the user, and a display device for displaying an image. And a computer connected to the virtual input processing, the virtual input processing, based on the intensity of the detected reflected light, a surface that is relatively close to the user, Recognizing, superimposing an image of the virtual input device corresponding to the recognized surface on an image output from the camera, and displaying the image on which the image of the virtual input device is superimposed on the display device And accepting an input from the user by detecting an input operation of the user on the virtual input device displayed on the display device. Tsu and includes a flop, thereby the objective described above being achieved.

【0015】[0015]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0016】図1Aは、本発明の実施の形態の仮想入力
装置1の構成を示す。
FIG. 1A shows a configuration of a virtual input device 1 according to an embodiment of the present invention.

【0017】仮想入力装置1は、ユーザの頭部に装着可
能なヘッドマウントディスプレイ(HMD)2と、ユー
ザの前方の風景を撮影するカメラ3と、ユーザの前方に
存在する対象物からの反射光の強さを検出するセンサ4
と、HMD2とカメラ3とセンサ4とに接続されたコン
ピュータ5とを含んでいる。
The virtual input device 1 includes a head-mounted display (HMD) 2 that can be mounted on the user's head, a camera 3 that captures a scene in front of the user, and reflected light from an object existing in front of the user. Sensor 4 for detecting the strength of
And a computer 5 connected to the HMD 2, the camera 3, and the sensor 4.

【0018】コンピュータ5は、例えば、ベルトを用い
てユーザの腰部に装着される。コンピュータ5は、携帯
が容易であるように小型軽量タイプのコンピュータであ
ることが好ましい。図1Aに示される例では、HMD
2、カメラ3およびセンサ4とコンピュータ5とは有線
で接続されている。しかし、HMD2、カメラ3および
センサ4とコンピュータ5とが無線で接続されていても
よいことはいうまでもない。また、コンピュータ5はH
MD2に取り付けられていてもよく、HMD2に内蔵さ
れていてもよい。
The computer 5 is attached to the user's waist using a belt, for example. The computer 5 is preferably a small and lightweight computer so that it can be easily carried. In the example shown in FIG.
2. The camera 3, the sensor 4, and the computer 5 are connected by wire. However, it goes without saying that the HMD 2, the camera 3, the sensor 4, and the computer 5 may be wirelessly connected. The computer 5 is H
It may be attached to the MD2 or may be built in the HMD2.

【0019】図1Aに示される例では、HMD2は、眼
鏡タイプのHMDである。HMD2は、通常の眼鏡のレ
ンズの代わりに、右目用の表示部2aと左目用の表示部
2bとを含む。表示部2a、2bの内側の面(ユーザに
近い側の面)には、コンピュータ5から出力された信号
に基づいて画像が表示される。これにより、ユーザは、
現実の風景の代わりに、コンピュータ5によって生成さ
れた仮想的な風景を見ることができる。なお、HMD2
としては、眼鏡タイプのHMDの他に任意のタイプのH
MDを使用することができる。
In the example shown in FIG. 1A, the HMD 2 is a glasses-type HMD. The HMD 2 includes a display unit 2a for the right eye and a display unit 2b for the left eye, instead of a lens of ordinary glasses. An image is displayed on the inner surface (the surface closer to the user) of the display units 2a and 2b based on the signal output from the computer 5. This allows the user to
Instead of a real scene, a virtual scene generated by the computer 5 can be viewed. Note that HMD2
As any type of HMD besides the glasses type HMD
MD can be used.

【0020】カメラ3とセンサ4とは、カメラ3の光軸
3aとセンサ4の光軸4aとが平行になるようにHMD
2に固定されている(図1B参照)。これは、カメラ3
とセンサ4とがユーザに対して同一の方向を向いている
必要があるからである。
The camera 3 and the sensor 4 are connected to the HMD so that the optical axis 3a of the camera 3 and the optical axis 4a of the sensor 4 are parallel.
2 (see FIG. 1B). This is camera 3
This is because the sensor 4 and the sensor 4 need to face the same direction with respect to the user.

【0021】なお、カメラ3とセンサ4とは一体的に成
形されていてもよい。カメラ3とセンサ4とを一体的に
成形する場合には、カメラ3の光軸3aとセンサ4の光
軸4aとが一致するように設計されることが好ましい。
The camera 3 and the sensor 4 may be formed integrally. When the camera 3 and the sensor 4 are integrally formed, it is preferable to design the camera 3 so that the optical axis 3a of the camera 3 and the optical axis 4a of the sensor 4 coincide.

【0022】カメラ3は、ユーザの前方の風景を撮影す
る。ここで、本明細書では、「ユーザの前方」とは、ユ
ーザの正面方向を基準方向6として、基準方向6から所
定の角度の範囲内(例えば、基準方向6を0度として、
−α度〜+α度の範囲内)にある方向をいうものとする
(図1C参照)。カメラ3の光軸3a(図1B)とセン
サ4の光軸4a(図1B)とは、基準方向6に一致して
いることが好ましい。
The camera 3 captures a scene in front of the user. Here, in this specification, “in front of the user” means that the front direction of the user is the reference direction 6 and is within a range of a predetermined angle from the reference direction 6 (for example, when the reference direction 6 is 0 degree,
(In the range of −α degrees to + α degrees) (see FIG. 1C). The optical axis 3a of the camera 3 (FIG. 1B) and the optical axis 4a of the sensor 4 (FIG. 1B) preferably coincide with the reference direction 6.

【0023】カメラ3は、好ましくは、デジタルビデオ
カメラである。あるいは、カメラ3としてアナログビデ
オカメラを使用してもよい。この場合には、コンピュー
タ5においてカメラ3から出力されるアナログ信号をデ
ジタル信号に変換するようにすればよい。
[0023] The camera 3 is preferably a digital video camera. Alternatively, an analog video camera may be used as the camera 3. In this case, the computer 5 may convert an analog signal output from the camera 3 into a digital signal.

【0024】センサ4は、例えば、LEDから近赤外線
光を照射し、その反射光をレンズを介して撮像するイメ
ージセンサである。このようなイメージセンサとして
は、例えば、URL「http://mptech.i
nfortech.co.jp」のウェブサイトに掲載
されている東芝製のイメージセンサ(商品名:PC用モ
ーションキャプチャ・デバイス「モーション・プロセッ
サ」)を使用することができる。
The sensor 4 is, for example, an image sensor that emits near-infrared light from an LED and captures the reflected light via a lens. As such an image sensor, for example, a URL “http: //mptech.i” is used.
nfortech. co. jp "website (trade name: PC motion capture device" Motion Processor ").

【0025】図2は、イメージセンサの前方にある対象
物(手)によって反射された反射光をレンズを介して撮
像した例を示す。イメージセンサは、対象物からの反射
光の強さを検出する。対象物からの反射光の強さを検出
することによって、イメージセンサと対象物との距離を
検出することができる。反射光の強さIとイメージセン
サと対象物との距離Dとの関係は、(数1)によって表
されるからである。
FIG. 2 shows an example in which reflected light reflected by an object (hand) in front of the image sensor is imaged through a lens. The image sensor detects the intensity of light reflected from the object. By detecting the intensity of light reflected from the object, the distance between the image sensor and the object can be detected. This is because the relationship between the intensity I of the reflected light and the distance D between the image sensor and the object is represented by (Equation 1).

【0026】[0026]

【数1】I=k/D2 ここで、kは定数である。I = k / D 2 where k is a constant.

【0027】(数1)は、距離Dが小さい(すなわち、
対象物が近い)場合には、反射光の強さが大きく、距離
Dが大きくなるにつれて(すなわち、対象物が遠くなる
につれて)反射光の強さが急激に小さくなることを示し
ている。このような距離Dと反射光の強さIとの関係を
利用して、イメージセンサによって撮像された画像から
背景を簡単に除くことができる。その結果、ユーザの比
較的近くにある面を認識することが可能になる。
(Equation 1) indicates that the distance D is small (ie,
When the object is near, the intensity of the reflected light is large, and the intensity of the reflected light sharply decreases as the distance D increases (that is, as the object increases). By utilizing such a relationship between the distance D and the intensity I of the reflected light, the background can be easily removed from the image captured by the image sensor. As a result, it is possible to recognize a surface relatively close to the user.

【0028】ここで、本明細書では、「ユーザの比較的
近く」とは、ユーザの身体の一部(典型的には、ユーザ
の手)が届く範囲をいうものとする。後述するように、
本発明では、仮想環境において表示された仮想入力デバ
イスに対してユーザが入力操作を行うことを意図してい
るからである。また、本明細書では、「面を認識する」
とは、その面の傾き、その面の大きさ、その面とユーザ
との距離のうちの少なくとも1つを検出することをい
う。なお、実施の形態では、面が平面である例を説明す
るが、面が平面に限定されるわけではない。面は、仮想
入力デバイスが不都合なく重畳表示できるような形状を
有する面であればどのような面であってもよい。
Here, in this specification, "relatively close to the user" refers to a range where a part of the user's body (typically, the user's hand) can reach. As described below,
This is because the present invention intends that the user performs an input operation on the virtual input device displayed in the virtual environment. In this specification, “surface recognition” is used.
“Detecting” means detecting at least one of the inclination of the surface, the size of the surface, and the distance between the surface and the user. In the embodiment, an example in which the plane is a plane will be described, but the plane is not limited to the plane. The surface may be any surface as long as it has a shape that allows the virtual input device to be superimposed and displayed without any inconvenience.

【0029】次に、図3および図4を参照して、上述し
たイメージセンサを用いて、ユーザの比較的近くにあ
り、かつ、ユーザに対してほぼ平行な平面の大きさを検
出する原理を説明する。
Next, with reference to FIGS. 3 and 4, the principle of detecting the size of a plane relatively close to the user and substantially parallel to the user using the above-described image sensor will be described. explain.

【0030】図3は、イメージセンサから距離50cm
のところに置かれた小片からの反射光を撮像した結果得
られた画像の例を示す。図3に示されるように、小片に
相当する部分30(ハッチングで示す)は黒い画像(す
なわち、輝度の高い画像)として検出される。このよう
に、イメージセンサの比較的近くに存在する平面は、輝
度の高い画像として検出される。
FIG. 3 shows a case where the distance from the image sensor is 50 cm.
Shows an example of an image obtained as a result of imaging reflected light from a small piece placed at the position of FIG. As shown in FIG. 3, a portion 30 (shown by hatching) corresponding to a small piece is detected as a black image (that is, an image with high luminance). As described above, a plane existing relatively close to the image sensor is detected as an image with high luminance.

【0031】図4は、図3に示されるX−X’線に沿っ
た輝度の分布を示す。図4から、小片に相当する部分4
0は、他の部分に比べて輝度差が約80以上あることが
分かる。
FIG. 4 shows a luminance distribution along the line XX 'shown in FIG. From FIG. 4, the portion 4 corresponding to the small piece
0 indicates that the luminance difference is about 80 or more compared to other parts.

【0032】図3に示されるX−X’線をX−X’線に
垂直な方向に走査し、各走査ごとに他の部分に比べて輝
度差が所定値(例えば、80)以上ある部分の長さを求
め、その長さを積算することにより、イメージセンサの
比較的近くに存在する平面(すなわち、ユーザの比較的
近くに存在する平面)の大きさを検出することができ
る。このような検出は、センサ4からの出力に基づいて
コンピュータ5によってなされる。
The XX 'line shown in FIG. 3 is scanned in a direction perpendicular to the XX' line, and a portion where the luminance difference is equal to or more than a predetermined value (for example, 80) as compared with other portions for each scan. By obtaining the length of the image sensor and integrating the lengths, the size of a plane relatively close to the image sensor (that is, a plane relatively close to the user) can be detected. Such detection is performed by the computer 5 based on the output from the sensor 4.

【0033】例えば、センサ4の直前にユーザの手(す
べての指をひらいた状態の手)がある場合には、コンピ
ュータ5は、そのユーザの手の大きさを「ユーザの比較
的近くに存在する平面の大きさ」として検出する。ま
た、例えば、センサ4の直前に壁面がある場合には、コ
ンピュータ5は、その壁面の大きさを「ユーザの比較的
近くに存在する平面の大きさ」として検出する。
For example, when there is a user's hand (a hand with all fingers open) immediately before the sensor 4, the computer 5 determines the size of the user's hand as “the user is relatively close to the user. As the size of the plane to perform. Further, for example, when there is a wall surface immediately before the sensor 4, the computer 5 detects the size of the wall surface as "the size of a plane relatively close to the user".

【0034】なお、上述したイメージセンサから出力さ
れる画像は、奥行きの情報を擬似的に有している(すな
わち、上述したイメージセンサは、ユーザの視点から対
象物の3次元情報を取得することが可能である)。この
ため、複雑な画像処理を行うことなく、比較的簡単な処
理を行うことにより、机の面などのユーザと必ずしも平
行とは限らない平面を認識することが可能になる。
It should be noted that the image output from the above-described image sensor has depth information in a pseudo manner (that is, the above-described image sensor acquires three-dimensional information of a target object from the viewpoint of the user). Is possible). Therefore, by performing relatively simple processing without performing complicated image processing, it becomes possible to recognize a plane such as a desk surface that is not always parallel to the user.

【0035】例えば、ユーザの近傍に机があり、机の上
には本が積まれているとする。この場合には、コンピュ
ータ5は、仮想入力デバイスが表示できるだけの空いた
(本が積まれていない)平面を「ユーザの比較的近くに
存在する平面」として認識する。
For example, assume that there is a desk near the user, and books are stacked on the desk. In this case, the computer 5 recognizes a vacant (unbooked) plane that can be displayed by the virtual input device as a “plane that is relatively close to the user”.

【0036】対象物の3次元情報を取得する方法として
は、光レーダ法、光投影法、両眼ステレオ法などが知ら
れている。しかし、いずれの方法も環境が限定された
り、高価な機器が必要であったり、計算時間がかかって
しまう。上述したようなイメージセンサを使用すること
により、高価な機器を必要とせず、環境にも依存せず、
比較的高速に画像処理を行うことができる。
As a method for acquiring three-dimensional information of an object, an optical radar method, an optical projection method, a binocular stereo method, and the like are known. However, each of these methods has a limited environment, requires expensive equipment, and requires a long calculation time. By using the image sensor as described above, it does not require expensive equipment, does not depend on the environment,
Image processing can be performed at a relatively high speed.

【0037】図5は、コンピュータ5の内部構成を示
す。コンピュータ5は、CPU51と、メモリ52と、
フレームバッファ53と、カメラ3用インタフェース5
4と、センサ4用インタフェース55と、HMD2用イ
ンタフェース56を含む。コンピュータ5に含まれる各
構成要素は、バス57を介して互いに接続されている。
FIG. 5 shows the internal configuration of the computer 5. The computer 5 includes a CPU 51, a memory 52,
Frame buffer 53 and interface 5 for camera 3
4, an interface 55 for the sensor 4, and an interface 56 for the HMD 2. The components included in the computer 5 are connected to each other via a bus 57.

【0038】メモリ52には、コンピュータ5に仮想入
力処理を実行させるためのプログラムが格納されてい
る。このプログラムは、コンピュータ5の出荷時に予め
メモリ52に格納されていてもよい。あるいは、コンピ
ュータ5の出荷後に、このプログラムをメモリ52に格
納するようにしてもよい。例えば、ユーザが、インター
ネット上の特定のウェブサイトからこのプログラムを有
料または無料でダウンロードし、ダウンロードされたプ
ログラムをコンピュータ5にインストールするようにし
てもよい。
The memory 52 stores a program for causing the computer 5 to execute virtual input processing. This program may be stored in the memory 52 in advance when the computer 5 is shipped. Alternatively, this program may be stored in the memory 52 after the computer 5 is shipped. For example, the user may download this program from a specific website on the Internet for a fee or free of charge, and install the downloaded program on the computer 5.

【0039】図6は、仮想入力処理の手順を示す。この
仮想入力処理の実行は、CPU51(図5)によって制
御される。以下、仮想入力処理の各ステップを詳細に説
明する。
FIG. 6 shows the procedure of the virtual input process. The execution of this virtual input process is controlled by the CPU 51 (FIG. 5). Hereinafter, each step of the virtual input process will be described in detail.

【0040】ステップS1:カメラ3から出力された画
像がコンピュータ5に入力される。コンピュータ5に入
力された画像は、カメラ3用インタフェース54を介し
てフレームバッファ53に格納される。
Step S1: The image output from the camera 3 is input to the computer 5. The image input to the computer 5 is stored in the frame buffer 53 via the camera 3 interface 54.

【0041】ステップS2:センサ4から出力された信
号がコンピュータ5に入力される。コンピュータ5に入
力された信号は、センサ4用インタフェース55を介し
てメモリ52に格納される。センサ4から出力された信
号は、ユーザの前方に存在する対象物からの反射光の強
さを示す。
Step S2: The signal output from the sensor 4 is input to the computer 5. The signal input to the computer 5 is stored in the memory 52 via the sensor 4 interface 55. The signal output from the sensor 4 indicates the intensity of reflected light from an object existing in front of the user.

【0042】ステップS3:CPU51は、センサ4か
ら出力された信号に基づいて、ユーザの比較的近くに存
在する平面の大きさを検出する。このような検出は、例
えば、図3に示されるX−X’線をX−X’線に垂直な
方向に走査し、各走査ごとに他の部分に比べて輝度差が
所定値(例えば、80)以上ある部分の長さを求め、そ
の長さを積算することによってなされる。
Step S3: The CPU 51 detects the size of a plane relatively close to the user based on the signal output from the sensor 4. For such detection, for example, the XX ′ line shown in FIG. 3 is scanned in a direction perpendicular to the XX ′ line, and the brightness difference is a predetermined value (for example, 80) This is done by finding the length of a certain portion and integrating the length.

【0043】ステップS4:CPU51は、ステップS
3において検出された平面の大きさに応じて、予め用意
された複数の仮想入力デバイスのうちの1つを選択す
る。複数の仮想入力デバイスは、「手書き入力パッド」
と「キーボード」とを含む。ここで、「手書き入力パッ
ド」とは、文字(数字、記号を含む)を手書きで入力す
るための入力インタフェースをユーザに提供する入力デ
バイスをいい、「キーボード」とは、タイプフェースを
押下するという入力操作を行うことにより、文字(数
字、記号を含む)を入力する入力デバイスをいう。仮想
入力デバイスを定義する情報(例えば、複数の仮想入力
デバイスの機能や操作方法などを示す情報)および複数
の仮想入力デバイスから1つを選択するために使用され
る選択ルールは、メモリ52に予め格納されている。
Step S4: The CPU 51 proceeds to step S4.
According to the size of the plane detected in step 3, one of a plurality of virtual input devices prepared in advance is selected. Multiple virtual input devices are "handwriting input pads"
And "keyboard". Here, the “handwriting input pad” refers to an input device that provides a user with an input interface for inputting characters (including numbers and symbols) by handwriting, and the “keyboard” refers to pressing a typeface. An input device for inputting characters (including numbers and symbols) by performing an input operation. Information defining the virtual input device (for example, information indicating functions and operation methods of the plurality of virtual input devices) and a selection rule used to select one from the plurality of virtual input devices are stored in the memory 52 in advance. Is stored.

【0044】例えば、ステップS3において検出された
平面の大きさが所定のしきい値以下の場合には、CPU
51は、複数の仮想入力デバイスの中から「手書き入力
パッド」を選択する。「手書き入力パッド」は狭い平面
でも使用可能だからである。ステップS3において検出
された平面の大きさが所定のしきい値より大きい場合に
は、CPU51は、複数の仮想入力デバイスの中から
「キーボード」を選択する。「キーボード」は狭い平面
で使用することに不向きだからである。
For example, if the size of the plane detected in step S3 is equal to or smaller than a predetermined threshold, the CPU
51 selects a “handwriting input pad” from a plurality of virtual input devices. This is because the "handwriting input pad" can be used even on a narrow flat surface. If the size of the plane detected in step S3 is larger than the predetermined threshold, the CPU 51 selects a “keyboard” from the plurality of virtual input devices. The "keyboard" is not suitable for use on a narrow flat surface.

【0045】なお、入力デバイスの選択が二者択一に限
定されないことはいうまでもない。入力デバイスの数は
3以上であってもよい。
It goes without saying that the selection of the input device is not limited to the alternative. The number of input devices may be three or more.

【0046】ステップS5:CPU51は、ステップS
4において選択された仮想入力デバイスの画像をカメラ
3から出力された画像(すなわち、フレームバッファ5
3に格納された画像)に重畳する。このような重畳処理
は、例えば、フレームバッファ53に格納された画像の
うち仮想入力デバイスの画像と重なる部分の輝度値を仮
想入力デバイスの画像の輝度値に変更することによって
達成される。
Step S5: The CPU 51 proceeds to step S5.
4 to the image output from the camera 3 (ie, the frame buffer 5).
3 (image stored in 3). Such superimposition processing is achieved, for example, by changing the luminance value of a portion of the image stored in the frame buffer 53 that overlaps the image of the virtual input device to the luminance value of the image of the virtual input device.

【0047】ステップS6:フレームバッファ53に格
納された画像は、HMD2用インタフェース56を介し
てコンピュータ5から出力される。これにより、仮想入
力デバイスの画像が重畳された画像がHMD2に表示さ
れる。
Step S6: The image stored in the frame buffer 53 is output from the computer 5 via the HMD2 interface 56. Thereby, the image on which the image of the virtual input device is superimposed is displayed on the HMD 2.

【0048】ステップS7:CPU51は、HMD2に
表示された仮想入力デバイスに対するユーザの入力操作
を検出する。このような検出は、例えば、カメラ3によ
って撮影されたユーザの手や指の動きを追跡する技術を
利用することによってなされ得る。ユーザの手や指の動
きを追跡する技術としては、画像処理を応用した様々な
技術を適用することが可能である。例えば、下記の文献
に記載の技術は、ユーザの手や指の動きを追跡する技術
として好適に適用することが可能な技術の一例である。
Step S7: The CPU 51 detects a user's input operation on the virtual input device displayed on the HMD 2. Such detection can be performed, for example, by using a technique that tracks the movement of the user's hand or finger captured by the camera 3. As a technique for tracking the movement of the user's hand or finger, various techniques using image processing can be applied. For example, the technology described in the following document is an example of a technology that can be suitably applied as a technology for tracking the movement of a user's hand or finger.

【0049】文献:佐々木ほか、”てのひらだいやる:
Wearable Computer用入力インタフェ
ース”、信学技報(TECNICAL REPORT
OFIEICE) PRMU 2000−157(20
01−1) あるいは、ユーザの指先に接触センサを装着し、接触セ
ンサからの出力信号に基づいてユーザの指の動きを追跡
するようにしてもよい。
Reference: Sasaki et al., "Tenohiradaira:
"Input Interface for Wearable Computer", IEICE Technical Report (TECNICAL REPORT
OFIICE) PRMU 2000-157 (20
01-1) Alternatively, a contact sensor may be attached to the user's fingertip, and the movement of the user's finger may be tracked based on an output signal from the contact sensor.

【0050】このように、仮想入力装置1は、HMD2
に表示された仮想入力デバイスに対するユーザの入力操
作を検出することによって、ユーザからの入力を受け付
ける。
As described above, the virtual input device 1 is connected to the HMD 2
The input from the user is received by detecting the user's input operation on the virtual input device displayed in (1).

【0051】図7は、仮想環境においてユーザが「手書
き入力パッド」に対して入力操作を行っている様子を示
す。図7に示される例は、ユーザの直前にユーザの手が
あると検出された例である。この場合には、ユーザの手
の大きさに適した「手書き入力パッド」が仮想環境にお
いて表示される。仮想入力装置1は、ユーザが「手書き
入力パッド」に対して入力操作を行うことを可能にす
る。
FIG. 7 shows a state where the user is performing an input operation on the “handwriting input pad” in the virtual environment. The example shown in FIG. 7 is an example in which it is detected that the user's hand is located immediately before the user. In this case, a “handwriting input pad” suitable for the size of the user's hand is displayed in the virtual environment. The virtual input device 1 allows the user to perform an input operation on the “handwriting input pad”.

【0052】図8は、仮想環境においてユーザが「キー
ボード」に対して入力操作を行っている様子を示す。図
8に示される例は、ユーザの直前に壁面があると検出さ
れた例である。この場合には、壁面の大きさに適した
「キーボード」が仮想環境において表示される。仮想入
力装置1は、ユーザが「キーボード」に対して入力操作
を行うことを可能にする。
FIG. 8 shows a state where the user is performing an input operation on the “keyboard” in the virtual environment. The example illustrated in FIG. 8 is an example in which it is detected that a wall surface exists immediately before the user. In this case, a “keyboard” suitable for the size of the wall is displayed in the virtual environment. The virtual input device 1 allows a user to perform an input operation on a “keyboard”.

【0053】なお、ユーザの直前に机面があると検出さ
れた場合には、その机面の空いている領域の大きさに適
した入力インタフェース(例えば、「手書き入力パッ
ド」または「キーボード」)をユーザに提供するように
してもよい。
If it is detected that there is a desk immediately before the user, an input interface (for example, a "handwriting input pad" or a "keyboard") suitable for the size of an empty area of the desk is used. May be provided to the user.

【0054】仮想入力装置1によれば、ユーザの比較的
近くに存在する面の大きさに応じて、仮想環境において
使用可能な入力インタフェースが切り替えられる。これ
により、ウェアラブルコンピュータに適した入力インタ
フェースをユーザに提供することが可能になる。
According to the virtual input device 1, an input interface usable in the virtual environment is switched according to the size of the surface relatively close to the user. This makes it possible to provide the user with an input interface suitable for a wearable computer.

【0055】このように、センサ4とコンピュータ5と
は、「ユーザの比較的近くに存在する面を認識する手
段」として機能する。また、HMD2とカメラ3とコン
ピュータ5とは、「認識された面に応じた仮想入力イン
タフェースをユーザに提供する手段」として機能する。
As described above, the sensor 4 and the computer 5 function as “means for recognizing a surface relatively close to the user”. Further, the HMD 2, the camera 3, and the computer 5 function as “means for providing a user with a virtual input interface corresponding to the recognized surface”.

【0056】なお、カメラ3が、ユーザの前方の風景を
撮影するとともに、ユーザの前方に存在する対象物の3
次元情報を取得するという機能を有している場合には、
仮想入力装置1の構成からセンサ4を省略することがで
きる。この場合には、コンピュータ5が、カメラ3によ
って取得された3次元情報に基づいてユーザの比較的近
くに存在する面を認識するようにすればよい。従って、
この場合には、カメラ3とコンピュータ5とが「ユーザ
の比較的近くに存在する面を認識する手段」として機能
することとなる。例えば、ステレオカメラは、ユーザの
前方の風景を撮影するとともに、領域の端のエッジ部分
の視差からユーザの前方に存在する対象物の3次元情報
を取得するという機能を有している。従って、カメラ3
としてステレオカメラを用いることにより、センサ4は
不要となる。
Note that the camera 3 captures an image of the scene in front of the user, and the object 3 existing in front of the user.
If you have the function of acquiring dimensional information,
The sensor 4 can be omitted from the configuration of the virtual input device 1. In this case, the computer 5 may recognize a surface relatively close to the user based on the three-dimensional information acquired by the camera 3. Therefore,
In this case, the camera 3 and the computer 5 function as “means for recognizing a surface that is relatively close to the user”. For example, a stereo camera has a function of photographing a scene in front of a user and acquiring three-dimensional information of an object existing in front of the user from parallax of an edge portion at an end of a region. Therefore, camera 3
By using a stereo camera as the sensor, the sensor 4 becomes unnecessary.

【0057】次に、仮想入力デバイスが重畳表示される
べき平面がセンサ4の光軸4aに対して傾いている場合
を考察する。
Next, consider the case where the plane on which the virtual input device is to be superimposed is inclined with respect to the optical axis 4a of the sensor 4.

【0058】対象物に赤外線を照射した場合、その対象
物からの反射光は、拡散反射成分と鏡面反射成分とから
なる。
When an object is irradiated with infrared rays, the reflected light from the object is composed of a diffuse reflection component and a specular reflection component.

【0059】拡散反射成分は、入射角に関係なくいずれ
の方向にも同じ強さで反射する光であり、点光源を用い
た場合には距離の逆2乗則およびランバートの余弦則に
従う。光源の光量をL、反射光量をId、対象物までの
距離をr、入射角をαとすると、(図9)、(数2)が
成り立つ。
The diffuse reflection component is light reflected at the same intensity in any direction irrespective of the incident angle. When a point light source is used, it follows the inverse square law of distance and Lambert's cosine law. If the light amount of the light source is L, the reflected light amount is I d , the distance to the object is r, and the incident angle is α, (FIG. 9) and (Equation 2) hold.

【0060】[0060]

【数2】Id=Rd(L/r2)cos(α) ここで、Rdは、拡散反射率である。I d = R d (L / r 2 ) cos (α) where R d is the diffuse reflectance.

【0061】鏡面反射成分は、入射角と等しい反射角の
方向に反射する光である。ただし、完全鏡面反射でない
場合には、正反射方向の近傍にも光が反射される。ここ
では、Phongのモデルを用い、視線と正反射方向と
のずれ角γによる鏡面反射成分の減少の割合をcosn
γで近似するものとする。この場合、反射光量をIs
すると、(図10)、(数3)が成り立つ。
The specular reflection component is light reflected in the direction of the reflection angle equal to the incident angle. However, when the light is not perfectly specularly reflected, light is also reflected in the vicinity of the regular reflection direction. Here, using the model of Phong, the rate of decrease of the specular reflection component due to the deviation angle γ between a sight line and a specular reflection direction cos n
Approximate by γ. In this case, the amount of reflected light and I s, (10), equation (3) holds.

【0062】[0062]

【数3】Is=Rs(L/r2)cosnγ ここで、Rsは、鏡面反射率、γは正反射方向の視線と
の角度、nはハイライト特性である。
I s = R s (L / r 2 ) cos n γ where R s is the specular reflectance, γ is the angle with the line of sight in the regular reflection direction, and n is the highlight characteristic.

【0063】従って、拡散反射成分および鏡面反射成分
の2成分を考慮に入れた場合の反射光の強さIは、(数
4)によって表される。
Accordingly, the intensity I of the reflected light when the two components of the diffuse reflection component and the specular reflection component are taken into account is represented by (Equation 4).

【0064】[0064]

【数4】I=Rd(L/r2)cos(α)+Rs(L/
2)cosnγ (数4)から、反射光の強さが単純に光源からの距離の
2乗に反比例するものではないことがわかる。センサ4
の光軸4aと垂直に交わる平面を考えた場合、その平面
の中心付近ではαの値が小さいため、拡散反射成分だけ
でなく鏡面反射成分の値も大きくなることになり極端に
明るくなる。逆に、その平面の周辺部分では鏡面反射成
分の値がほとんど出ないため、極端に暗くなる。
## EQU4 ## I = R d (L / r 2 ) cos (α) + R s (L /
From r 2 ) cos n γ (Equation 4), it can be seen that the intensity of the reflected light is not simply inversely proportional to the square of the distance from the light source. Sensor 4
Considering a plane perpendicular to the optical axis 4a, the value of α is small near the center of the plane, so that not only the diffuse reflection component but also the specular reflection component becomes large, and the image becomes extremely bright. Conversely, since the value of the specular reflection component hardly appears in the peripheral portion of the plane, it becomes extremely dark.

【0065】上述したように、センサ4から出力される
画像は、奥行きの情報を有しているため、対象物の3次
元情報を得ることができる。コンピュータ5は、この3
次元情報に基づいてユーザの比較的近くにある平面を認
識する。ただし、この3次元情報の画素値は、上述した
拡散反射成分と鏡面反射成分とを考慮に入れた反射特性
によって平面の中心部から周辺部にかけて徐々に暗くな
る。そこで、コンピュータ5は、平面の傾きに沿って画
素値が変化するように3次元情報の画素値を変換する。
このような変換を行うことにより、平面の傾きと変換後
の平面上の適当な3点とにより、平面の方程式を決定す
ることが可能になる。
As described above, since the image output from the sensor 4 has depth information, three-dimensional information of the object can be obtained. The computer 5
Recognize a plane relatively close to the user based on the dimensional information. However, the pixel value of the three-dimensional information gradually becomes darker from the center to the periphery of the plane due to the reflection characteristics taking into account the diffuse reflection component and the specular reflection component. Therefore, the computer 5 converts the pixel value of the three-dimensional information so that the pixel value changes along the inclination of the plane.
By performing such a conversion, it is possible to determine the equation of the plane from the inclination of the plane and three appropriate points on the plane after the conversion.

【0066】ここで、平面がセンサ4の光軸4aに対し
て傾いている場合(例えば、図11に示されるように光
源に対して平面がβだけ傾いている場合)を考察する。
Here, consider the case where the plane is inclined with respect to the optical axis 4a of the sensor 4 (for example, the case where the plane is inclined by β with respect to the light source as shown in FIG. 11).

【0067】図11において、dはセンサ4から平面ま
での距離を示し、点p1は画像の中心を示す。光源Qか
ら点p2までの距離は、d/cos(α+β)と表すこ
とができる。よって、(数4)のrにd/cos(α+
β)を代入すればよい。また、センサ4は光源と同じ位
置にあるため、γは2αと表すことができる。従って、
光源に対して平面がβだけ傾いている場合の反射光は、
(数5)によって表される。
In FIG. 11, d indicates the distance from the sensor 4 to the plane, and point p 1 indicates the center of the image. The distance from the light source Q to the point p 2 can be expressed as d / cos (α + β). Therefore, d / cos (α +
β) may be substituted. Since the sensor 4 is located at the same position as the light source, γ can be expressed as 2α. Therefore,
The reflected light when the plane is inclined by β with respect to the light source is
It is represented by (Equation 5).

【0068】[0068]

【数5】I(α)=(L/r2){Rdcos(α)+R
scosn(2α)} (数5)により、入力画像に(数6)を掛けることによ
り、センサ4から出力される画像が変換される。これに
より、平面の方程式を決定することができる。
[Equation 5] I (α) = (L / r 2 ) {R d cos (α) + R
By multiplying the input image by (Equation 6) according to s cos n (2α)} (Equation 5), the image output from the sensor 4 is converted. Thereby, the equation of the plane can be determined.

【0069】[0069]

【数6】F(α)={βα+I(0)}/I(α) なお、上述した実施の形態では、ステレオタイプ表示の
ヘッドマウントディスプレイ(HMD)に画像を表示す
る例を説明した。しかし、本発明はこれに限定されな
い。ステレオタイプ表示のヘッドマウントディスプレイ
(HMD)の代わりに、任意のタイプのヘッドマウント
ディスプレイ(HMD)を使用することができる。例え
ば、眼鏡のように前景が透過せず、装着すると画面表示
しか見えないビデオシースルータイプのHMD(例え
ば、オリンパス社製のEyeTrek)を使用してもよ
いし、透過した外景に画面表示を重ねるオプティカルシ
ースルータイプのHMD(例えば、ザイブナー社製の製
品、マイクロオプティカル社製の製品、SONY社製の
グラストロン)を使用してもよい。
F (α) = {βα + I (0)} / I (α) In the above-described embodiment, an example has been described in which an image is displayed on a head mounted display (HMD) of a stereotype display. However, the present invention is not limited to this. Instead of a stereotype head mounted display (HMD), any type of head mounted display (HMD) can be used. For example, a video see-through type HMD (for example, EyeTrek manufactured by Olympus Corp.) which does not allow the foreground to pass through like a pair of glasses and can only see the screen display when worn may be used, or an optical system which superimposes the screen display on the transmitted outside scenery A see-through type HMD (for example, a product manufactured by Seibner, a product manufactured by Micro Optical, or a glasstron manufactured by SONY) may be used.

【0070】[0070]

【発明の効果】本発明によれば、ウェアラブルコンピュ
ータに適した入力インタフェースをユーザに提供するこ
とが可能な仮想入力装置を提供することが可能になる。
According to the present invention, it is possible to provide a virtual input device capable of providing a user with an input interface suitable for a wearable computer.

【図面の簡単な説明】[Brief description of the drawings]

【図1A】本発明の実施の形態の仮想入力装置1の構成
を示す図
FIG. 1A is a diagram showing a configuration of a virtual input device 1 according to an embodiment of the present invention.

【図1B】本発明の実施の形態の仮想入力装置1の側面
を示す図
FIG. 1B is a diagram showing a side surface of the virtual input device 1 according to the embodiment of the present invention;

【図1C】本発明の実施の形態の仮想入力装置1の上面
を示す図
FIG. 1C is a diagram illustrating an upper surface of the virtual input device 1 according to the embodiment of the present invention;

【図2】イメージセンサの前方にある対象物(手)によ
って反射された反射光をレンズを介して撮像した例を示
す図
FIG. 2 is a diagram illustrating an example in which reflected light reflected by an object (hand) in front of an image sensor is imaged through a lens.

【図3】イメージセンサから距離50cmのところに置
かれた小片からの反射光を撮像した結果得られた画像の
例を示す図
FIG. 3 is a diagram showing an example of an image obtained as a result of imaging reflected light from a small piece placed at a distance of 50 cm from an image sensor.

【図4】図3に示されるX−X’線に沿った輝度の分布
を示す図
FIG. 4 is a diagram showing a luminance distribution along the line XX ′ shown in FIG. 3;

【図5】コンピュータ5の内部構成を示す図FIG. 5 is a diagram showing an internal configuration of a computer 5;

【図6】仮想入力処理の手順を示す図FIG. 6 is a diagram showing a procedure of a virtual input process.

【図7】仮想環境においてユーザが「手書き入力パッ
ド」に対して入力操作を行っている様子を示す図
FIG. 7 is a diagram illustrating a state in which a user performs an input operation on a “handwriting input pad” in a virtual environment;

【図8】仮想環境においてユーザが「キーボード」に対
して入力操作を行っている様子を示す図
FIG. 8 is a diagram illustrating a state in which a user performs an input operation on a “keyboard” in a virtual environment.

【図9】反射拡散モデルを説明するための図FIG. 9 is a diagram for explaining a reflection diffusion model;

【図10】鏡面反射モデルを説明するための図FIG. 10 is a diagram for explaining a specular reflection model;

【図11】光源に対して平面がβだけ傾いている場合を
説明するための図
FIG. 11 is a diagram illustrating a case where a plane is inclined by β with respect to a light source;

【符号の説明】[Explanation of symbols]

1 仮想入力装置 2 ヘッドマウントディスプレイ(HMD) 3 カメラ 4 センサ 5 コンピュータ Reference Signs List 1 virtual input device 2 head mounted display (HMD) 3 camera 4 sensor 5 computer

フロントページの続き (72)発明者 近間 正樹 奈良県生駒市高山町8916−5学生宿舎1− 207 (72)発明者 河村 竜幸 京都府京都市中京区岩上町728−501 (72)発明者 谷口 雄一郎 奈良県生駒市高山町8916−5学生宿舎4− 106 Fターム(参考) 5B020 CC02 CC06 CC12 DD30 FF51 GG13 5B087 AA09 AE00 BC04 BC12 BC13 BC26 BC32 DE02 Continuation of the front page (72) Inventor Masaki Chikuma 8916-5 Takayamacho, Ikoma City, Nara Prefecture Student Residence Hall 1-207 (72) Inventor Tatsuyuki Kawamura 728-501 Iwagamicho, Nakagyo-ku, Kyoto, Kyoto (72) Inventor Taniguchi Yuichiro 8916-5 Takayamacho, Ikoma City, Nara Prefecture Student Residence 4-106 F-term (reference) 5B020 CC02 CC06 CC12 DD30 FF51 GG13 5B087 AA09 AE00 BC04 BC12 BC13 BC26 BC32 DE02

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの比較的近くに存在する面を認識
する手段と、 前記認識された面に応じた仮想入力インタフェースを前
記ユーザに提供する手段とを備えた仮想入力装置。
1. A virtual input device comprising: means for recognizing a surface relatively close to a user; and means for providing the user with a virtual input interface corresponding to the recognized surface.
【請求項2】 ユーザの前方の風景を撮影するととも
に、前記ユーザの前方に存在する対象物の3次元情報を
取得するカメラと、 前記取得された3次元情報に基づいて、前記ユーザの比
較的近くに存在する面を認識し、前記認識された面に応
じた仮想入力デバイスの画像を前記カメラから出力され
た画像に重畳するコンピュータと、 前記仮想入力デバイスの画像が重畳された画像を表示す
る表示装置とを備え、 前記コンピュータは、前記表示装置に表示された前記仮
想入力デバイスに対する前記ユーザの入力操作を検出す
ることによって、前記ユーザからの入力を受け付ける、
仮想入力装置。
2. A camera for photographing a scene in front of the user and acquiring three-dimensional information of an object existing in front of the user; and a camera of the user based on the acquired three-dimensional information. A computer that recognizes a nearby surface and superimposes an image of a virtual input device corresponding to the recognized surface on an image output from the camera; and displays an image on which the image of the virtual input device is superimposed. A display device, wherein the computer receives an input from the user by detecting an input operation of the user on the virtual input device displayed on the display device,
Virtual input device.
【請求項3】 ユーザの前方の風景を撮影するカメラ
と、 前記ユーザの前方に存在する対象物からの反射光の強さ
を検出するセンサと、 前記検出された反射光の強さに基づいて、前記ユーザの
比較的近くに存在する面を認識し、前記認識された面に
応じた仮想入力デバイスの画像を前記カメラから出力さ
れた画像に重畳するコンピュータと、 前記仮想入力デバイスの画像が重畳された画像を表示す
る表示装置とを備え、 前記コンピュータは、前記表示装置に表示された前記仮
想入力デバイスに対する前記ユーザの入力操作を検出す
ることによって、前記ユーザからの入力を受け付ける、
仮想入力装置。
A camera for photographing a scene in front of the user; a sensor for detecting the intensity of reflected light from an object existing in front of the user; and a sensor for detecting the intensity of the reflected light. A computer for recognizing a surface relatively close to the user and superimposing an image of a virtual input device corresponding to the recognized surface on an image output from the camera; and A display device that displays the displayed image, wherein the computer receives an input from the user by detecting an input operation of the user on the virtual input device displayed on the display device,
Virtual input device.
【請求項4】 前記仮想入力デバイスは、キーボードと
手書き入力パッドとを含む複数の入力デバイスから選択
された1つである、請求項2または請求項3のいずれか
に記載の仮想入力装置。
4. The virtual input device according to claim 2, wherein the virtual input device is one selected from a plurality of input devices including a keyboard and a handwriting input pad.
【請求項5】 前記表示装置は、前記ユーザの頭部に装
着可能なヘッドマウントディスプレイ(HMD)であ
る、請求項2または請求項3のいずれかに記載の仮想入
力装置。
5. The virtual input device according to claim 2, wherein the display device is a head-mounted display (HMD) that can be mounted on a head of the user.
【請求項6】 コンピュータに仮想入力処理を実行させ
るためのプログラムであって、 前記仮想入力処理は、 ユーザの比較的近くに存在する面を認識するステップ
と、 前記認識された面に応じた仮想入力インタフェースを前
記ユーザに提供するステップとを包含する、プログラ
ム。
6. A program for causing a computer to execute a virtual input process, the virtual input process comprising: a step of recognizing a surface existing relatively close to a user; and a virtual process corresponding to the recognized surface. Providing an input interface to the user.
【請求項7】 ユーザの前方の風景を撮影するととも
に、前記ユーザの前方に存在する対象物の3次元情報を
取得するカメラと、画像を表示する表示装置とに接続さ
れたコンピュータに仮想入力処理を実行させるためのプ
ログラムであって、 前記仮想入力処理は、 前記取得された3次元情報に基づいて、前記ユーザの比
較的近くに存在する面を認識するステップと、 前記認識された面に応じた仮想入力デバイスの画像を前
記カメラから出力された画像に重畳するステップと、 前記仮想入力デバイスの画像が重畳された画像を前記表
示装置に表示するステップと、 前記表示装置に表示された前記仮想入力デバイスに対す
る前記ユーザの入力操作を検出することによって、前記
ユーザからの入力を受け付けるステップとを包含する、
プログラム。
7. A virtual input process to a computer connected to a camera that captures a scene in front of a user and acquires three-dimensional information of an object existing in front of the user, and a display device that displays an image. The virtual input processing includes: a step of recognizing a surface relatively close to the user based on the obtained three-dimensional information; Superimposing an image of the virtual input device on the image output from the camera; displaying an image on which the image of the virtual input device is superimposed on the display device; and displaying the virtual image displayed on the display device. Receiving an input from the user by detecting an input operation of the user on the input device.
program.
【請求項8】 ユーザの前方の風景を撮影するカメラ
と、前記ユーザの前方に存在する対象物からの反射光の
強さを検出するセンサと、画像を表示する表示装置とに
接続されたコンピュータに仮想入力処理を実行させるた
めのプログラムであって、 前記仮想入力処理は、 前記検出された反射光の強さに基づいて、前記ユーザの
比較的近くに存在する面を認識するステップと、 前記認識された面に応じた仮想入力デバイスの画像を前
記カメラから出力された画像に重畳するステップと、 前記仮想入力デバイスの画像が重畳された画像を前記表
示装置に表示するステップと、 前記表示装置に表示された前記仮想入力デバイスに対す
る前記ユーザの入力操作を検出することによって、前記
ユーザからの入力を受け付けるステップとを包含するプ
ログラム。
8. A computer connected to a camera for photographing a scene in front of the user, a sensor for detecting the intensity of reflected light from an object present in front of the user, and a display device for displaying an image. A program for causing the virtual input process to execute a virtual input process, wherein the virtual input process recognizes a surface relatively close to the user based on the detected intensity of the reflected light; Superimposing an image of the virtual input device according to the recognized surface on an image output from the camera; displaying an image on which the image of the virtual input device is superimposed on the display device; and the display device. Receiving an input from the user by detecting an input operation of the user on the virtual input device displayed on the virtual input device. Lamb.
JP2001123676A 2001-04-20 2001-04-20 Virtual input device and its program Pending JP2002318652A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001123676A JP2002318652A (en) 2001-04-20 2001-04-20 Virtual input device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001123676A JP2002318652A (en) 2001-04-20 2001-04-20 Virtual input device and its program

Publications (1)

Publication Number Publication Date
JP2002318652A true JP2002318652A (en) 2002-10-31

Family

ID=18973188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001123676A Pending JP2002318652A (en) 2001-04-20 2001-04-20 Virtual input device and its program

Country Status (1)

Country Link
JP (1) JP2002318652A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006243784A (en) * 2005-02-28 2006-09-14 Kobe Univ Pointing system and pointing method
KR100702225B1 (en) * 2004-11-23 2007-04-03 홍기천 Apparatus and method for detecting and authenticating facial data
KR100702226B1 (en) 2004-11-23 2007-04-03 홍기천 Apparatus and method for detecting and authenticating facial data
JP2008500624A (en) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
WO2008010581A1 (en) * 2006-07-21 2008-01-24 Brother Kogyo Kabushiki Kaisha Operation device and operation system
JP2008027252A (en) * 2006-07-21 2008-02-07 Brother Ind Ltd Operation signal output unit and operation system
JP2009129021A (en) * 2007-11-20 2009-06-11 Ntt Docomo Inc Information input system and information input method
JP2011215856A (en) * 2010-03-31 2011-10-27 Ns Solutions Corp Information processing system and information processing method
WO2014042458A1 (en) * 2012-09-14 2014-03-20 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
JP2014157482A (en) * 2013-02-15 2014-08-28 Konica Minolta Inc Operation display system
EP2784632A2 (en) 2013-03-25 2014-10-01 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
JP2014187574A (en) * 2013-03-25 2014-10-02 Seiko Epson Corp Head-mounted display device and control method therefor
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP2016509293A (en) * 2013-01-03 2016-03-24 クアルコム,インコーポレイテッド Augmented reality rendering based on foreground objects
US9378592B2 (en) 2012-09-14 2016-06-28 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
KR20170026935A (en) * 2015-08-31 2017-03-09 삼성디스플레이 주식회사 Display apparatus, head mounted display apparatus, and image display method
US9829986B2 (en) 2014-03-21 2017-11-28 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
JPWO2016185845A1 (en) * 2015-05-21 2018-02-15 日本電気株式会社 Interface control system, interface control device, interface control method, and program
JP2018107823A (en) * 2018-03-05 2018-07-05 セイコーエプソン株式会社 Head-mounted display device and control method for head-mounted display device
KR101891837B1 (en) 2013-03-22 2018-10-04 한양대학교 산학협력단 Wearable Display Deice Using Augmented Reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195169A (en) * 1992-12-25 1994-07-15 Oki Electric Ind Co Ltd Input device for electronic computer
JPH075978A (en) * 1993-06-18 1995-01-10 Sony Corp Input device
JPH07281818A (en) * 1994-04-08 1995-10-27 Canon Inc Three-dimensional virtual instruction input system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195169A (en) * 1992-12-25 1994-07-15 Oki Electric Ind Co Ltd Input device for electronic computer
JPH075978A (en) * 1993-06-18 1995-01-10 Sony Corp Input device
JPH07281818A (en) * 1994-04-08 1995-10-27 Canon Inc Three-dimensional virtual instruction input system

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008500624A (en) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
KR100702225B1 (en) * 2004-11-23 2007-04-03 홍기천 Apparatus and method for detecting and authenticating facial data
KR100702226B1 (en) 2004-11-23 2007-04-03 홍기천 Apparatus and method for detecting and authenticating facial data
JP2006243784A (en) * 2005-02-28 2006-09-14 Kobe Univ Pointing system and pointing method
JP4686708B2 (en) * 2005-02-28 2011-05-25 国立大学法人神戸大学 Pointing system and pointing method
WO2008010581A1 (en) * 2006-07-21 2008-01-24 Brother Kogyo Kabushiki Kaisha Operation device and operation system
JP2008027252A (en) * 2006-07-21 2008-02-07 Brother Ind Ltd Operation signal output unit and operation system
JP4736052B2 (en) * 2006-07-21 2011-07-27 ブラザー工業株式会社 Operation signal output device and operation system
JP2009129021A (en) * 2007-11-20 2009-06-11 Ntt Docomo Inc Information input system and information input method
JP2011215856A (en) * 2010-03-31 2011-10-27 Ns Solutions Corp Information processing system and information processing method
WO2014042458A1 (en) * 2012-09-14 2014-03-20 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US9378592B2 (en) 2012-09-14 2016-06-28 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US9448624B2 (en) 2012-09-14 2016-09-20 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
JP2016509293A (en) * 2013-01-03 2016-03-24 クアルコム,インコーポレイテッド Augmented reality rendering based on foreground objects
JP2014157482A (en) * 2013-02-15 2014-08-28 Konica Minolta Inc Operation display system
US9778738B2 (en) 2013-02-15 2017-10-03 Konica Minolta, Inc. Operation display system and operation display method
KR101891837B1 (en) 2013-03-22 2018-10-04 한양대학교 산학협력단 Wearable Display Deice Using Augmented Reality
EP2784632A2 (en) 2013-03-25 2014-10-01 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
JP2014187574A (en) * 2013-03-25 2014-10-02 Seiko Epson Corp Head-mounted display device and control method therefor
US9921646B2 (en) 2013-03-25 2018-03-20 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
US9335547B2 (en) 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
US9829986B2 (en) 2014-03-21 2017-11-28 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US10168792B2 (en) 2014-03-21 2019-01-01 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
US10534442B2 (en) 2014-03-21 2020-01-14 Samsung Electronics Co., Ltd. Method and wearable device for providing a virtual input interface
JPWO2016185845A1 (en) * 2015-05-21 2018-02-15 日本電気株式会社 Interface control system, interface control device, interface control method, and program
US10698535B2 (en) 2015-05-21 2020-06-30 Nec Corporation Interface control system, interface control apparatus, interface control method, and program
KR20170026935A (en) * 2015-08-31 2017-03-09 삼성디스플레이 주식회사 Display apparatus, head mounted display apparatus, and image display method
KR102497281B1 (en) 2015-08-31 2023-02-08 삼성디스플레이 주식회사 Display apparatus, head mounted display apparatus, and image display method
US11582440B2 (en) 2015-08-31 2023-02-14 Samsung Display Co., Ltd. Display apparatus, head-mounted display apparatus, image display method, and image display system
JP2018107823A (en) * 2018-03-05 2018-07-05 セイコーエプソン株式会社 Head-mounted display device and control method for head-mounted display device

Similar Documents

Publication Publication Date Title
US11488366B2 (en) Augmented reality lighting effects
JP2002318652A (en) Virtual input device and its program
US9442567B2 (en) Gaze swipe selection
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
CN108700933B (en) Wearable device capable of eye tracking
US9728010B2 (en) Virtual representations of real-world objects
US9165381B2 (en) Augmented books in a mixed reality environment
KR102175595B1 (en) Near-plane segmentation using pulsed light source
KR102098277B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US9823764B2 (en) Pointer projection for natural user input
US10488942B2 (en) Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations
US11217024B2 (en) Artificial reality system with varifocal display of artificial reality content
US20120092300A1 (en) Virtual touch system
WO2021242451A1 (en) Hand gesture-based emojis
JP2004094653A (en) Information input system
WO2014128751A1 (en) Head mount display apparatus, head mount display program, and head mount display method
US20230060453A1 (en) Electronic device and operation method thereof
KR20200040716A (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP5939469B2 (en) Browsing device and browsing system
US20230367117A1 (en) Eye tracking using camera lens-aligned retinal illumination
WO2023062995A1 (en) Head-mount device and light guide device
US20230309824A1 (en) Accommodation tracking based on retinal-imaging
WO2023224878A1 (en) Eye tracking using camera lens-aligned retinal illumination

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040729

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100702