JP2000102036A - Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method - Google Patents

Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method

Info

Publication number
JP2000102036A
JP2000102036A JP26863898A JP26863898A JP2000102036A JP 2000102036 A JP2000102036 A JP 2000102036A JP 26863898 A JP26863898 A JP 26863898A JP 26863898 A JP26863898 A JP 26863898A JP 2000102036 A JP2000102036 A JP 2000102036A
Authority
JP
Japan
Prior art keywords
observer
mixed reality
presentation system
reality presentation
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26863898A
Other languages
Japanese (ja)
Inventor
Toshiichi Oshima
登志一 大島
Kiyohide Sato
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Original Assignee
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MR SYSTEM KENKYUSHO KK, MR System Kenkyusho KK filed Critical MR SYSTEM KENKYUSHO KK
Priority to JP26863898A priority Critical patent/JP2000102036A/en
Publication of JP2000102036A publication Critical patent/JP2000102036A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a composite actual feeling presentation system with less calibration and less position deviation. SOLUTION: The three-dimensional position of a marker provided on an indicator 30 held by a user is measured corresponding to the coordinate system of a camera by using left and right stereo cameras 21R and 21L provided near the view point position of an observer, that is a head part, and a virtual image is outputted and displayed to an HMD (head mounted display) 22 provided on the head part of the observer so as to view the virtual image at the three- dimensional position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばコンピュー
タグラフィックスによる仮想画像を現実の空間に融合さ
せて観察者に提示する複合現実感提示システム、その方
法、複合現実感提示に用いるマン・マシーンインタフェ
ース装置、その方法、さらには、コンピュータ可読の記
録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mixed reality presentation system, for example, for fusing a virtual image by computer graphics into a real space and presenting it to an observer, a method thereof, and a man-machine interface used for mixed reality presentation. The present invention relates to an apparatus, a method thereof, and a computer-readable recording medium.

【0002】[0002]

【従来の技術】近年、現実空間と仮想空間の繋ぎ目のな
い(seemless)結合を目的とした複合現実感(以下、「M
R」(Mixed Reality)と称す)に関する研究が盛んにな
っている。MRは、従来、現実空間と切り離された状況
でのみ体験可能であったバーチャルリアリティ(以下V
Rと略す)の世界と現実空間との共存を目的とし、VR
を増強する技術として注目されている。
2. Description of the Related Art Recently, mixed reality (hereinafter referred to as "M") for the purpose of seamlessly connecting a real space and a virtual space.
R "(called Mixed Reality). MR is a virtual reality (hereinafter, referred to as V) that can be experienced only in a situation separated from the real space.
R) and VR for the coexistence of the real world
Has been attracting attention as a technology to enhance the quality of the product.

【0003】MRは、現実空間にコンピュータが組み立
てた仮想空間を融合するものである。融合は、通常、光
学See-Through式HMD(Head Mount Display)あるいは
ビデオSee-Through式HMDを介して行われる。即ち、
光学式See-Through HMDを用いた場合は、直接見通し
た外界世界とHMD内で眼前に設けられたLCD等に表示され
たCGとを透視することにより、現実世界と仮想世界とが
融合される。一方、ビデオSee-Through式HMDを用い
る場合は、HMDでも受けられたビデオカメラが撮影し
た画像にCG画像を重ね合わせて観察者に提示すること
により、現実世界と仮想世界とが融合される。
[0003] MR fuses a virtual space assembled by a computer with a real space. Fusion is usually performed via an optical See-Through type HMD (Head Mount Display) or a video See-Through type HMD. That is,
When the optical See-Through HMD is used, the real world and the virtual world are fused by seeing through the external world viewed directly and the CG displayed on the LCD etc. in front of the eyes in the HMD. . On the other hand, when the video See-Through HMD is used, the real world and the virtual world are fused by superimposing a CG image on an image captured by a video camera also received by the HMD and presenting it to an observer.

【0004】MRの応用に、観察者等が指示した位置を
仮想世界の座標系に同定することが必要となる場合があ
る。例えば、把持した指示器により観察者が指示した位
置に例えばCG画像を表示させるためには、その指示位
置を基準の座標系で検出する必要がある。実際に指示し
た位置がシステムが認識した位置と異なっていては、提
示されるCG画像の表示位置が現実世界と一致しないた
めに、観察者に違和感を与える。
In some applications of MR, it is necessary to identify a position designated by an observer or the like in a virtual world coordinate system. For example, in order to display, for example, a CG image at a position pointed by an observer using a held indicator, it is necessary to detect the pointed position in a reference coordinate system. If the position actually instructed is different from the position recognized by the system, the display position of the presented CG image does not match the real world, giving a sense of discomfort to the observer.

【0005】このために、指示器の位置を精度良く測定
することはMR技術において大きな課題である。図1
は、複合現実感提示システムにおいて、HMD10を装
着したユーザ13が、手に指示器12を把持している様
子を示している。この例では、ユーザの頭部位置(即
ち、視点位置)はHMD10に設けられた磁気センサ1
1により測定され、測定された視点位置に基づいて仮想
現実感を与えるためのCG画像を生成してHMDに与え
る。ユーザとMRシステムとのユーザインタフェースは
指示器12により行われる。
[0005] For this reason, measuring the position of the indicator with high accuracy is a major problem in MR technology. FIG.
Shows a state in which the user 13 wearing the HMD 10 is holding the indicator 12 in his hand in the mixed reality presentation system. In this example, the user's head position (that is, the viewpoint position) is the magnetic sensor 1 provided on the HMD 10.
1 and generates a CG image for giving virtual reality based on the measured viewpoint position and gives it to the HMD. The user interface between the user and the MR system is performed by the indicator 12.

【0006】図2は磁気センサの測定原理を説明するも
ので、トランスミッタから電磁界を放射し、頭部に装着
された磁気センサ11が電磁界を検出して、頭部(また
はHMD)の三次元位置を測定する。磁気センサ11の
出力に基づいて三次元位置を測定する場合には、その測
定位置は常に世界座標系を基準としたものとなる。一
方、指示器12は、図3に示されるように、複数(例え
ば6つ)のLEDが装着され、この6カ所のLEDから
光が発せられる。ユーザは、指示器を把持した状態で、
カメラにより撮像されるように位置しながら、所望の位
置に指示器の先端を向ける。指示器の三次元位置はカメ
ラにより撮像された画像に基づいて6つのLEDの位置
を測定し、測定された6つのLEDが形成する図形の変
形に基づいて、指示器先端の世界座標系による三次元座
標位置が測定される。この三次元位置が、ユーザが指示
した三次元位置としてMRシステムは認識する。
FIG. 2 illustrates the measurement principle of the magnetic sensor. The transmitter emits an electromagnetic field, and the magnetic sensor 11 mounted on the head detects the electromagnetic field, and the head (or HMD) tertiary. Measure the original position. When measuring the three-dimensional position based on the output of the magnetic sensor 11, the measured position is always based on the world coordinate system. On the other hand, as shown in FIG. 3, the indicator 12 is equipped with a plurality (for example, six) of LEDs, and the six LEDs emit light. The user holds the indicator,
While pointing to be imaged by the camera, point the tip of the indicator to a desired position. The three-dimensional position of the indicator measures the positions of the six LEDs based on the image captured by the camera, and based on the deformation of the figure formed by the measured six LEDs, the three-dimensional position in the world coordinate system at the tip of the indicator is determined. The original coordinate position is measured. The MR system recognizes the three-dimensional position as the three-dimensional position designated by the user.

【0007】[0007]

【発明が解決しようとする課題】複合現実感提示システ
ムでは、CGをユーザの視野に提示する視点位置は、上
述したように、磁気センサ11からの出力信号に基づい
て測定したユーザの頭部位置をユーザの目の位置に変換
することにより得ている。この得られた視点位置は世界
座標系で表される。
In the mixed reality presentation system, the viewpoint position at which the CG is presented in the user's field of view is, as described above, the position of the user's head measured based on the output signal from the magnetic sensor 11. Is converted to the position of the user's eyes. The obtained viewpoint position is represented in the world coordinate system.

【0008】一方、指示器12の三次元姿勢位置により
得られたユーザの指示位置の三次元座標も世界座標系で
表される。ここで、磁気センサ11により観測されたユ
ーザの視点位置を基準とするHMDの視界に、指示器1
2により得られたユーザ指示位置にCG図形(例えば、
CGのボタン)を提示する場合を想定すると、そのCG
図形は現実と大きくずれた位置に表示あるいは提示され
ることがある。
On the other hand, the three-dimensional coordinates of the user's designated position obtained from the three-dimensional posture position of the indicator 12 are also represented in the world coordinate system. Here, the indicator 1 is placed in the field of view of the HMD based on the user's viewpoint position observed by the magnetic sensor 11.
The CG figure (for example,
CG button), the CG
The graphic may be displayed or presented at a position that is significantly different from the reality.

【0009】図4及び図5は、頭部磁気センサにより視
点位置を認識し、指示器をユーザインタフェースとする
MRシステムにおいて、所謂「位置ずれ」が発生する理
由を説明する。図4において、前述したように、磁気セ
ンサにより認識されるユーザの視点位置(頭部位置)は
世界座標系に対して誤差δ1を有する。誤差δ1自体は
“0”とすることはできず、小さくするためにはキャリ
ブレーションが必要となる。尚、ユーザの視点位置は頭
部位置に比して更に誤差δ3を有するが、この誤差δ3
体も補正可能なものである。
FIG. 4 and FIG. 5 explain the reason why a so-called "position shift" occurs in an MR system in which the head position is recognized by a head magnetic sensor and a pointer is used as a user interface. 4, as described above, the user of the viewpoint position recognized by the magnetic sensor (head position) has an error [delta] 1 to the world coordinate system. Can not be error [delta] 1 itself "0", calibration is required to reduce. Incidentally, the viewpoint position of the user is further have an error [delta] 3 relative to the head position, the error [delta] 3 itself is capable correction.

【0010】また、同じように、指示器12により測定
された三次元の指示位置も世界座標系に対して誤差δ2
を有するはずである。このために、磁気センサ11によ
り観測されたユーザの視点位置を基準とするHMDの視
界に、指示器12により得られたユーザ指示位置にCG
図形(例えば、CGのボタン)を提示すると、提示され
たCG図形の位置は、ユーザの視点位置に対しては、 δ=δ1 + δ2 …(1) という累積誤差を持つものとして提示されることにな
る。この誤差の累積が、CG図形の現実世界に対する大
きな「位置ずれ」となって現れるのである。
Similarly, the three-dimensional indicated position measured by the indicator 12 also has an error δ 2 with respect to the world coordinate system.
Should have. For this purpose, the CG is placed in the field of view of the HMD based on the user's viewpoint position observed by the magnetic sensor 11 and the user-specified position obtained by the indicator 12.
When a figure (for example, a CG button) is presented, the position of the presented CG figure is presented as having a cumulative error of δ = δ 1 + δ 2 (1) with respect to the user's viewpoint position. Will be. The accumulation of this error appears as a large “position shift” of the CG figure with respect to the real world.

【0011】この問題は、頭部位置の検出に磁気センサ
を用い、指示位置の測定に画像処理を用いていることに
よって発生することではなく、逆にして、頭部位置の測
定に画像処理を用い、指示位置の測定に磁気センサを用
いても、センサ自体に誤差があり、夫々のセンサからの
出力に基づく測定結果が異なる座標系に基づく限り、同
じように発生することに変わりはない。
This problem is not caused by using a magnetic sensor for detecting the head position and using image processing for measuring the indicated position. Conversely, image processing is performed for measuring the head position. Even if a magnetic sensor is used to measure the indicated position, there is still an error in the sensor itself, and the same occurs as long as the measurement result based on the output from each sensor is based on a different coordinate system.

【0012】[0012]

【課題を解決するための手段】本発明はこのような事態
に鑑みてなされたもので、その目的は、キャリブレーシ
ョンが少なく、且つ位置ずれも少ない複合現実感提示シ
ステムを提案するものである。上記課題を達成するため
の、本発明の請求項1にかかる、仮想空間と現実空間を
融合して観察者に提示する複合現実感提示システムは、
観察者の視点位置の近傍に設けられ、仮想画像を提示す
べき提示位置の三次元座標値を、この視点位置に関連し
た座標系に従って検出する第1のセンサ手段と、前記観
察者の視点位置を基準にして前記センサ手段によって検
出された提示位置に、仮想画像を前記観察者に提示する
仮想画像提示手段とを具備することを特徴とする。
SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and has as its object to propose a mixed reality presentation system with less calibration and less displacement. In order to achieve the above object, a mixed reality presentation system according to claim 1 of the present invention, which presents an observer by fusing a virtual space and a real space,
First sensor means provided in the vicinity of the observer's viewpoint position to detect a three-dimensional coordinate value of a presentation position at which a virtual image is to be presented in accordance with a coordinate system related to the viewpoint position; And a virtual image presenting means for presenting a virtual image to the observer at a presentation position detected by the sensor means with reference to.

【0013】このシステムによれば、センサ手段は、観
察者の視点位置の近傍に設けられているので、仮想画像
を提示すべき提示位置の三次元座標値が、この視点位置
に関連した座標系に従って検出されると、その三次元座
標値は観察者の視点位置の座標系に略一致したものとな
る。このために、仮想画像提示手段が、そのような提示
位置に仮想画像を提示しても、換言すれば、世界座標系
とのキャリブレーションを行わなくとも、現実空間との
位置ずれは実質的に問題とならない程度に抑えられる。
According to this system, since the sensor means is provided near the viewpoint position of the observer, the three-dimensional coordinate value of the presentation position at which the virtual image is to be presented is determined by the coordinate system related to this viewpoint position. , The three-dimensional coordinate value substantially matches the coordinate system of the viewpoint position of the observer. For this reason, even if the virtual image presenting means presents the virtual image at such a presentation position, in other words, even if the calibration with the world coordinate system is not performed, the positional deviation from the real space substantially does not occur. It can be suppressed to a level that does not cause a problem.

【0014】使用を考慮すれば、前記第1のセンサ手段
は前記観察者の頭部位置に設けられることが好ましい。
そこで、本発明の好適な一態様である請求項2に拠れ
ば、前記第1のセンサ手段は前記観察者の頭部位置に設
けられた撮像手段を有し、前記仮想画像提示手段は、前
記観察者の頭部に装着されるヘッドマウントデイスプレ
イを有することを特徴とする。
In consideration of use, the first sensor means is preferably provided at the position of the observer's head.
Therefore, according to claim 2 which is a preferred aspect of the present invention, the first sensor means has an image pickup means provided at a position of a head of the observer, and the virtual image presenting means comprises It has a head mounted display attached to the observer's head.

【0015】本発明の好適な一態様である請求項3に拠
れば、前記ヘッドマウントデイスプレイはビデオ・シー
・スルー型である。ビデオ・シー・スルー型ヘッドマウ
ントデイスプレイは、カメラが撮影した現実世界の映像
を画像として観察者に提示するものであるから、光学的
シー・スルー型に比して位置ずれが、原理的に少なく、
世界座標系とのキャリブレーションを行わなくとも、実
質的に問題とはならない程度に抑えられる。
According to a preferred aspect of the present invention, the head mounted display is of a video see-through type. The video see-through head-mounted display presents the image of the real world taken by the camera to the observer as an image, so there is in principle less displacement than the optical see-through type. ,
Even if calibration with the world coordinate system is not performed, it can be suppressed to a level that does not substantially cause a problem.

【0016】本発明の好適な一態様である請求項4に拠
れば、前記第1のセンサ手段は、頭部に装着され左右に
離間したステレオカメラと、前記ステレオカメラが出力
したステレオ画像データに基づいて、ステレオ視の手法
により、前記提示位置の前記ステレオカメラの画像面上
での三次元座標値を検出する手段とを具備することを特
徴とする。
According to a preferred embodiment of the present invention, the first sensor means includes a stereo camera mounted on a head and separated to the left and right, and a stereo image data output by the stereo camera. Means for detecting a three-dimensional coordinate value of the presentation position on the image plane of the stereo camera based on a stereoscopic technique.

【0017】位置ずれを極小化するために、請求項5の
複合現実感提示システムのように、更に、前記観察者の
視点位置を世界座標系に従って検出する第2のセンサ手
段を更に具備することも好ましい。仮想画像の提示位置
は操作具によって指示される。そこで、本発明の好適な
一態様である請求項6に拠れば、その操作具は前記セン
サ手段のセンス範囲内におかれ観察者により操作され
る。
In order to minimize the displacement, the mixed-reality presentation system according to claim 5, further comprising second sensor means for detecting the viewpoint position of the observer according to a world coordinate system. Is also preferred. The presentation position of the virtual image is specified by the operation tool. Therefore, according to claim 6 which is a preferable aspect of the present invention, the operating tool is located within a sensing range of the sensor means and operated by an observer.

【0018】操作具を用いて提示位置を指示するには、
観察者が、その位置が所望の位置であることをシステム
に知らせることが必要である。そこで、本発明の好適な
一態様である請求項7に拠れば、前記操作具には、前記
観察者により操作され、観察者により所定のイベントタ
イミング信号を出力するスイッチが設けられたことを特
徴とする。
To indicate the presentation position using the operation tool,
It is necessary for the observer to inform the system that the position is the desired position. Therefore, according to claim 7, which is a preferable aspect of the present invention, the operation tool is provided with a switch which is operated by the observer and outputs a predetermined event timing signal by the observer. And

【0019】本発明の好適な一態様である請求項8に拠
れば、前記操作具は、その端部に設けられた少なくとも
1つのマーカを有する。マーカの位置を前記センサ手段
が検出することをもって提示位置とする。本発明の好適
な一態様である請求項9に拠れば、前記マーカは1つ設
けられ、前記センサ手段は前記提示位置の三次元座標位
置を出力する。
According to a preferred embodiment of the present invention, the operating tool has at least one marker provided at an end thereof. When the position of the marker is detected by the sensor means, the position is defined as the presentation position. According to a ninth preferred embodiment of the present invention, one marker is provided, and the sensor outputs a three-dimensional coordinate position of the presentation position.

【0020】本発明の好適な一態様である請求項10に
拠れば、前記マーカは2つ設けられ、前記センサ手段は
前記提示位置の三次元座標位置と方向とを出力する。本
発明の好適な一態様である請求項11に拠れば、前記マ
ーカは3つ設けられ、前記センサ手段は前記提示位置を
通る平面座標を出力する。本発明の好適な一態様である
請求項12に拠れば、前記マーカは、異なる色を付され
た複数のマーカを有することを特徴とする。異なるマー
カには異なる色を与えることにより、マーカ間の識別性
が向上する。
According to a preferred embodiment of the present invention, two markers are provided, and the sensor means outputs a three-dimensional coordinate position and a direction of the presentation position. According to claim 11, which is a preferable aspect of the present invention, the three markers are provided, and the sensor outputs a plane coordinate passing through the presentation position. According to claim 12, which is a preferable aspect of the present invention, the marker includes a plurality of markers colored differently. By giving different colors to different markers, the distinguishability between the markers is improved.

【0021】本発明の好適な一態様である請求項13に
拠れば、前記マーカは、異なる色を付された複数のマー
カと同じ色を付された少なくとも1つのマーカとを有す
る。この場合には、観察者の動作に拘束条件が課せられ
る。本発明の好適な一態様である請求項14に拠れば、
前記マーカは異なる色を発光する発光手段を有する。
According to a preferred embodiment of the present invention, the markers include a plurality of markers colored differently and at least one marker colored the same. In this case, a constraint condition is imposed on the movement of the observer. According to claim 14, which is a preferred aspect of the present invention,
The marker has light emitting means for emitting different colors.

【0022】提示位置を指示する操作具は複数あっても
良い。提示位置を同時に複数、さらには、階層的にある
いは互いに関連させ合って指示できるからである。そこ
で、本発明の好適な一態様である請求項15に拠れば、
前記センサ手段のセンス範囲内におかれ観察者により操
作される複数の操作具を有する。例えば、1つの操作具
により指示した提示位置に複数のグラフィック・ユーザ
・インタフェースの仮想画像を提示し、その内の1つの
仮想のグラフィック・ユーザ・インタフェースをもう1
つの操作具により指示することができる。
There may be a plurality of operation tools for indicating the presentation position. This is because it is possible to indicate a plurality of presentation positions at the same time, furthermore, in a hierarchical manner or in association with each other. Therefore, according to claim 15 which is a preferable aspect of the present invention,
A plurality of operating tools are provided within a sensing range of the sensor means and operated by an observer. For example, virtual images of a plurality of graphic user interfaces are presented at a presentation position designated by one operating tool, and one virtual graphic user interface among the virtual images is displayed as another one.
It can be instructed by one operation tool.

【0023】マーカは常にセンサ手段によって計測可能
な状態にあるとは限らない。観察者は自由に動くからで
ある。そこで、本発明の好適な一態様である請求項16
に拠れば、前記操作具に更に位置センサとしての磁気セ
ンサが設けられている。これにより、磁気センサ出力に
基づいた世界座標系に従った位置情報が得られ、マーカ
情報を利用できない場合でも補完することができる。
The marker is not always in a state that can be measured by the sensor means. The observer moves freely. Therefore, a preferable aspect of the present invention is claim 16.
According to the above, the operating tool is further provided with a magnetic sensor as a position sensor. As a result, position information according to the world coordinate system based on the magnetic sensor output is obtained, and it is possible to supplement even when marker information cannot be used.

【0024】上記課題は請求項17のような複合現実感
提示方法を提供することによっても達成できる。また、
上記課題は、仮想空間と現実空間を融合して観察者に提
示するプログラムを記憶するコンピュータ可読記憶媒体
によっても達成できる。そのようなコンピュータ可読記
憶媒体は、請求項18のように、観察者の視点位置の近
傍に設けられたセンサを用いて、仮想画像を提示すべき
提示位置の三次元座標値を、この視点位置に関連した座
標系に従って検出するプログラムコードと、前記観察者
の視点位置を基準にして前記センサによって検出された
提示位置に、仮想画像を前記観察者に提示するプログラ
ムコードとを記憶する。
The above object can also be attained by providing a mixed reality presentation method according to the present invention. Also,
The above object can also be achieved by a computer-readable storage medium that stores a program that presents an observer by fusing a virtual space and a real space. Such a computer-readable storage medium uses a sensor provided in the vicinity of the observer's viewpoint position to calculate the three-dimensional coordinate value of the presentation position at which the virtual image is to be presented. And a program code for presenting a virtual image to the observer at a presentation position detected by the sensor with reference to the viewpoint position of the observer.

【0025】本発明の他の目的は、複合現実感の提示の
他に、マン・マシンインタフェースを提供することでも
ある。そこで、請求項19の、ユーザにより操作される
操作具を介して仮想画像を提示すべき提示位置を複合現
実感提示システムに入力するマン・マシンインタフェー
スは、観察者の視点位置の近傍に設けられ、前記操作具
を撮像視野内に含む撮像手段と、前記撮像手段が得た画
像データに基づいて、前記操作具の所定部位の三次元座
標値を、前記観察者の視点位置に関連した座標系に従っ
た三次元座標値に変換する変換手段と、変換された前記
所定部位の三次元座標値を、観察者の指示した仮想画像
提示位置として、前記複合現実感提示システムに出力す
る出力手段とを具備することを特徴とする。
Another object of the present invention is to provide a man-machine interface in addition to the presentation of mixed reality. Therefore, a man-machine interface for inputting a presentation position at which a virtual image is to be presented to a mixed reality presentation system via an operation tool operated by a user is provided near an observer's viewpoint position. An imaging unit including the operation tool in an imaging visual field, and a coordinate system related to a viewpoint position of the observer, based on image data obtained by the imaging unit, and a three-dimensional coordinate value of a predetermined portion of the operation tool. Conversion means for converting to a three-dimensional coordinate value according to, and output means for outputting the converted three-dimensional coordinate value of the predetermined part to the mixed reality presentation system as a virtual image presentation position instructed by an observer. It is characterized by having.

【0026】このユーザインタフェースは、操作具の所
定部位を観察者所望の指示位置に向ければ、この指示位
置が仮想画像の提示位置となるように複合現実感提示シ
ステムに指示する。本発明のユーザインタフェースは、
また、ユーザ指示入力を複合現実感提示システムに入力
する道具として有用である。
The user interface instructs the mixed reality presentation system such that when a predetermined portion of the operation tool is directed to a designated position desired by the observer, the designated position is a presentation position of a virtual image. The user interface of the present invention includes:
It is also useful as a tool for inputting user instruction input to the mixed reality presentation system.

【0027】この目的のために、請求項21のように、
ユーザにより操作される操作具を介して複合現実感提示
システムにユーザ指示を入力するマン・マシンインタフ
ェースであって、観察者の視点位置の近傍に設けられ、
前記操作具を撮像視野内に含む撮像手段と、前記撮像手
段が得た画像データに基づいて、前記操作具の所定部位
の三次元座標値を、前記観察者の視点位置に関連した座
標系に従った三次元座標値に変換する変換手段と、変換
された前記所定部位の三次元座標値をユーザ指示入力と
して、前記複合現実感提示システムに出力する出力手段
とを具備することを特徴とするマン・マシンインタフェ
ース装置が提供される。
For this purpose, as in claim 21,
A man-machine interface for inputting a user instruction to a mixed reality presentation system via an operation tool operated by a user, provided near a viewpoint position of an observer,
Imaging means including the operating tool in an imaging field of view, and, based on image data obtained by the imaging means, three-dimensional coordinate values of a predetermined portion of the operating tool in a coordinate system related to a viewpoint position of the observer. A conversion unit for converting the three-dimensional coordinate value of the predetermined part into a three-dimensional coordinate value according to the user's instruction input, and an output unit for outputting the converted three-dimensional coordinate value to the mixed reality presentation system. A man-machine interface device is provided.

【0028】ユーザ指示としては、仮想画像として表示
されるアイコン等のうち、ユーザが選択したアイコンな
どを複合現実感提示システムに入力する場合が考えられ
る。本発明のユーザインタフェースはマン・マシンイン
タフェース装置のみならず、マン・マシンインタフェー
ス方法(請求項20,請求項22)によっても、あるい
はコンピュータ可読の記録媒体(請求項23,24)に
よっても達成できる。
As the user instruction, an icon or the like selected by the user among icons or the like displayed as virtual images may be input to the mixed reality presentation system. The user interface of the present invention can be achieved not only by a man-machine interface device but also by a man-machine interface method (claims 20 and 22) or by a computer-readable recording medium (claims 23 and 24).

【0029】[0029]

【発明の実施の形態】以下、本発明を適用した複合現実
感提示システムの実施形態を図面を参照しながら詳細に
説明する。 〈構成〉図6は本実施形態の原理的構成を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of a mixed reality presentation system to which the present invention is applied will be described in detail with reference to the drawings. <Structure> FIG. 6 illustrates the principle structure of this embodiment.

【0030】20は、頭部位置を検出するための磁気セ
ンサであって、従来の磁気センサと同じく例えばPolhem
us社製のFastrakを用いている。21R,21Lは一対
のビデオカメラであり、HMD22に装着されている。
カメラ21Rは観察者の右側から観察者の前方外界を撮
影し、カメラ21Lは観察者の左側から観察者の前方外
界を撮影する。
Numeral 20 denotes a magnetic sensor for detecting the position of the head.
Us Fastrak is used. 21R and 21L are a pair of video cameras mounted on the HMD 22.
The camera 21R captures the outside world in front of the observer from the right side of the observer, and the camera 21L captures the outside world in front of the observer from the left side of the observer.

【0031】30は指示器であり、図8のように、ユー
ザが把持する。指示器30はユーザが把持しやすいよう
に棒状の形状を有し、その両端に夫々マーカとして機能
させるためのLED30a,30bが設けられている。
LED30a,30bは位置計測装置40により制御さ
れ、計測を行っている間は点灯している。尚、LED3
0a,30bの発光色は画像処理により識別可能となる
ように互いに異なる色の光を発する。
An indicator 30 is held by the user as shown in FIG. The indicator 30 has a rod-like shape so that the user can easily hold it, and LEDs 30a and 30b for functioning as markers are provided at both ends thereof.
The LEDs 30a and 30b are controlled by the position measuring device 40, and are lit during measurement. In addition, LED3
The emission colors 0a and 30b emit different colors of light so that they can be identified by image processing.

【0032】磁気センサ20の出力は位置計測装置40
に入力され、装置40がこの出力信号に基づいて観察者
の頭部の三次元座標位置を計測する。観察者は、指示器
30で所望の指示位置を指し示す。このとき、観察者は
その指示位置をイベントとしてシステムに知らせる必要
がある場合には、指示器30の設けられたスイッチ31
(図8)を押す。スイッチ31の出力はイベント信号と
して計算機50(図10)に入力される。
The output of the magnetic sensor 20 is supplied to a position measuring device 40.
And the device 40 measures the three-dimensional coordinate position of the observer's head based on the output signal. The observer points to a desired pointing position with the pointing device 30. At this time, if the observer needs to notify the system of the indicated position as an event, the switch 31 provided with the indicator 30 is provided.
Press (Fig. 8). The output of the switch 31 is input to the computer 50 (FIG. 10) as an event signal.

【0033】図10は、実施形態のMRシステムのデー
タ処理系統を説明する図である。図10において、ユー
ザの頭部に装着されたビデオカメラ21R,21Lはユ
ーザの前方外界の一対の左右画像を取得する。この左右
画像の夫々には、指示器30の画像が含まれている。左
右画像の夫々は、画像処理装置60R,60Lに入力さ
れ、ここで、指示器30の両端のLED30a,30b
の画像が抽出される。
FIG. 10 is a diagram for explaining a data processing system of the MR system according to the embodiment. In FIG. 10, video cameras 21R and 21L mounted on the user's head acquire a pair of left and right images of the outside world in front of the user. Each of the left and right images includes an image of the indicator 30. The left and right images are input to the image processing devices 60R and 60L, where the LEDs 30a and 30b at both ends of the indicator 30 are provided.
Are extracted.

【0034】ビデオカメラ21R,21Lで観察された画
像データは、それぞれ画像処理装置60R,60Lに送ら
れる。画像処理装置60R,60Lでは、色成分の特性を
利用しLED30a,30bの画像上の位置を検出する。こ
の位置座標は計算機(例えば、SiliconGraphics社製の
02システム)50に入力される。計算機50は、ステ
レオ視の方法により、LED30a,30bの三次元位置を
計算する。
The image data observed by the video cameras 21R and 21L are sent to the image processing devices 60R and 60L, respectively. The image processing devices 60R and 60L detect the positions of the LEDs 30a and 30b on the image using the characteristics of the color components. The position coordinates are input to a computer (for example, 02 system manufactured by Silicon Graphics) 50. The calculator 50 calculates the three-dimensional positions of the LEDs 30a and 30b by a stereoscopic method.

【0035】一方、頭部位置センサの出力は位置姿勢計
測装置40に入力されて、前述したように、頭部の三次
元位置と姿勢とが計測されて、その出力は同じく計算機
50に入力される。計算機50は、位置姿勢計測装置4
0が計測した頭部位置を右目視点位置に変換し、この位
置でのビューイング変換行列を演算する。この行列は画
像生成装置70に送られる。画像生成装置は、このビュ
ーイング変換行列を用いて、右視点位置からのCG画像を
生成する。また、このビューイング変換行列に、右視点
位置を基準にした左視点位置の相対的移動変換を適用
し、左視点に対応するビューイング変換行列を求め、こ
れを用いて、左視点位置からのCG画像を生成する。この
ように生成した左右のCG画像をHMD22に表示してユー
ザに立体的な仮想画像を提示する。
On the other hand, the output of the head position sensor is input to the position and orientation measurement device 40, and the three-dimensional position and orientation of the head are measured as described above. The output is also input to the computer 50. You. The computer 50 includes the position and orientation measurement device 4
The head position measured by 0 is converted into the right eye viewpoint position, and a viewing transformation matrix at this position is calculated. This matrix is sent to the image generation device 70. The image generation device generates a CG image from the right viewpoint position using the viewing transformation matrix. Further, to this viewing transformation matrix, a relative movement transformation of the left viewpoint position with respect to the right viewpoint position is applied, and a viewing transformation matrix corresponding to the left viewpoint is obtained. Generate a CG image. The left and right CG images generated in this way are displayed on the HMD 22 to present a three-dimensional virtual image to the user.

【0036】図7の例では、計算機50は、計測された
指示器の先端位置の3次元座標に基づき、カーソルもし
くはアイコンの立体画像を生成し、HMD22に表示す
る。HMD22を見るユーザには、図7に示すように、立
体のカーソルもしくはアイコンが61のように、指示器
の先端位置に重畳して観察されることになる。 〈原理〉図11は、図6〜図10に示された実施形態の
MRシステムが、キャリブレーションを行わなくとも位
置ずれを発生させない理由を説明する。
In the example of FIG. 7, the computer 50 generates a three-dimensional image of a cursor or an icon based on the measured three-dimensional coordinates of the tip position of the indicator, and displays the three-dimensional image on the HMD 22. As shown in FIG. 7, the user who views the HMD 22 observes the three-dimensional cursor or icon as indicated by 61, superimposed on the tip position of the indicator. <Principle> FIG. 11 explains the reason why the MR system of the embodiment shown in FIGS. 6 to 10 does not generate a displacement even without performing calibration.

【0037】図中、δ1は磁気センサ20の出力により
測定されたユーザの頭部三次元位置の世界座標系に対す
る測定誤差を表す。Δδは、頭部位置に対するビデオカ
メラ位置の偏差を表す。また、δ2は指示器30により
測定された指示位置の測定誤差である。本実施形態の特
徴は、図10のシステムで、計算機50は、位置センサ
(磁気センサ20)の計測した位置を基準にして、CG
図形を画像生成装置に発生せしめる点に特徴がある。す
ると、図11で、位置センサ出力が基準となるので、位
置センサ出力と世界座標系との間の誤差δ1は指示器が
生成した指示位置に影響することが無い。換言すれば、
指示位置の誤差はδは、図11から明なように、 δ=Δδ + δ2 …(2) となり、δ1の関与はない。CG画像の提示は、画像面
が基準となるので、従来のように、世界座標系を基準と
する必要はなく、そのために、位置センサ20が計測し
た頭部位置(これがたとえ誤差δ2を持とうとも)を基
準にした指示位置の三次元座標によるCG画像を発生さ
せても、従来のように位置ずれを起こさないのである。
In the figure, δ 1 represents a measurement error of the three-dimensional position of the user's head measured by the output of the magnetic sensor 20 with respect to the world coordinate system. Δδ represents the deviation of the video camera position from the head position. Δ 2 is a measurement error of the indicated position measured by the indicator 30. The feature of the present embodiment is that the computer 50 in the system of FIG. 10 uses the CG based on the position measured by the position sensor (magnetic sensor 20).
The feature is that a graphic is generated by an image generating apparatus. Then, in FIG. 11, since the position sensor output is used as a reference, the error δ 1 between the position sensor output and the world coordinate system does not affect the indicated position generated by the indicator. In other words,
As shown in FIG. 11, the error δ in the designated position is δ = Δδ + δ 2 (2), and δ 1 is not involved. Since the presentation of the CG image is based on the image plane, it is not necessary to refer to the world coordinate system as in the related art. Therefore, the head position measured by the position sensor 20 (which has an error δ 2) Even if a CG image is generated based on the three-dimensional coordinates of the designated position based on the reference position, no positional displacement occurs as in the related art.

【0038】尚、カメラ位置と頭部位置との偏差Δδ
は、頭部位置と、頭部装着のカメラ位置とが固定関係に
あるので、予めキャリブレーションすることができ、本
MRシステムを稼働する度にリアルタイムでキャリブレ
ーションが必要とされることはない。しかし、指示位置
はリアルタイムで変化するので、δ2については、カメ
ラパラメータの調整(後述)によりキャリブレーション
を行うこととする。換言すれば、本実施形態に依れば、
従来では2工程のリアルタイムのキャリブレーションが
必要であったのに対して、1工程だけですみ、システム
の起動が簡潔となった。
The deviation Δδ between the camera position and the head position
Since the head position and the head-mounted camera position have a fixed relationship, calibration can be performed in advance, and calibration is not required in real time each time the MR system is operated. However, since the indicated position changes in real time, calibration is performed on δ 2 by adjusting camera parameters (described later). In other words, according to this embodiment,
Conventionally, two steps of real-time calibration were required, but only one step was required, and the system startup was simplified.

【0039】また、本実施形態の手法を、ビデオSee-Th
rough式のHMDに適用すれば、δ2のキャリブレーショ
ンも不要となる。 〈指示位置の測定処理〉…実施形態 図12は、図10の計算機50における指示位置測定の
ための処理手順を示すフローチャートである。
The method of this embodiment is applied to a video See-Th
If the method is applied to a rough type HMD, calibration of δ 2 is not required. <Measurement Processing of Pointed Position> Embodiment FIG. 12 is a flowchart showing a processing procedure for the pointed position measurement in the computer 50 of FIG.

【0040】ステップS10では、画像処理装置60を
介してビデオカメラ21に対して、左右の画像を取得せ
しめる(図9のステップS1を併せて参照)。ステップ
S12では、画像処理装置60に、左右の画像の夫々に
おいて、左右のLED(以下、LEDをマーカと呼ぶ)
の画像面での座標位置を抽出させる(図9のステップS
2を併せて参照)。ステップS14では、左右画像中に
認識された4つのマーカを互いに対応づける。この対応
付けの結果、図13の実線で示されるような対応付け、
あるいは破線で示されるような対応付けが得られるであ
ろう。
In step S10, the right and left images are acquired by the video camera 21 via the image processing device 60 (see also step S1 in FIG. 9). In step S12, the left and right LEDs (hereinafter, referred to as a marker) are provided to the image processing device 60 for each of the left and right images.
(Step S in FIG. 9)
2). In step S14, the four markers recognized in the left and right images are associated with each other. As a result of this association, as shown by the solid line in FIG.
Alternatively, an association as shown by a broken line will be obtained.

【0041】ステップS16では4つのマーカの各々の
ベクトルを算出する。ステップS18では、ステレオ写
真測量の手法(公知)により、1つのマーカの一対の対
応点のベクトルの延長線の交点を求める。交点は、図1
4に示すように、左右のビデオカメラの夫々の投影中心
から1つのマーカの左右画像面上での夫々の座標位置間
での延長線の交点であり、その視点位置を基準にしたマ
ーカの三次元位置を表す。
In step S16, the respective vectors of the four markers are calculated. In step S18, the intersection of the extension line of the vector of the pair of corresponding points of one marker is determined by a stereophotogrammetry technique (known). The intersection is
As shown in FIG. 4, the intersection of the extension line between the respective projection positions of the left and right video cameras and the respective coordinate positions of one marker on the left and right image planes, and the cubic of the marker based on the viewpoint position Indicates the original position.

【0042】尚、ステップS18でステレオ写真測量の
手法により得られたマーカの三次元位置はビデオカメラ
21の視点位置を基準としているために、図11で説明
したように、マーカの三次元位置は測定誤差δ1を内包
することになる。尚、また、一般に、2つのベクトルは
必ずしも一点で交叉するとは限らない。その場合は、図
15に示すように、そのベクトル上の2つの線分が最も
近接する2点(図15の例では100と101)を結ぶ
線分の中点(図15の例では点102)を「交点」とす
る。
Since the three-dimensional position of the marker obtained by the stereophotogrammetry in step S18 is based on the viewpoint position of the video camera 21, the three-dimensional position of the marker is, as described with reference to FIG. thereby enclosing the measurement error [delta] 1. Generally, two vectors do not always cross at one point. In this case, as shown in FIG. 15, the midpoint of the line segment connecting two points (100 and 101 in the example of FIG. 15) where the two line segments on the vector are closest (point 102 in the example of FIG. 15). ) Is the "intersection".

【0043】ステップS18の処理を左右のマーカにつ
いて行い、各マーカのカメラ視点位置を基準にした三次
元位置P1,P2を求める。即ち、 P1=(xC 1,yC 1,zC 1) P2=(xC 2,yC 2,zC 2) であり、添え字のCはカメラ視点位置を基準にしたこと
を意味する。
The processing in step S18 is performed for the left and right markers, and three-dimensional positions P 1 and P 2 are determined based on the camera viewpoint position of each marker. That is, P 1 = (x C 1 , y C 1 , z C 1 ) P 2 = (x C 2 , y C 2 , z C 2 ), and the subscript C is based on the camera viewpoint position. Means

【0044】ステップS20では、マーカの三次元位置
1,P2から、指示器30の位置姿勢を同定する。指示
器30の位置姿勢を同定する手法(ステップS20)に
ついて、3種類の異なるマーカを用いた場合の夫々の原
理を説明する。2マーカの指示器 図16は、2つのマーカが設けられた指示器の例であ
る。便宜上、ユーザが指示器30を筆記具のように把持
した場合に、下側に位置するマーカを「先端マーカ」と
呼び、位置をベクトルp0で示し、上側に位置するマー
カを「後端マーカ」と呼び、位置をベクトルp1で示
す。「先端マーカ」により目的位置を指示する。
In step S20, the position and orientation of the indicator 30 are identified from the three-dimensional positions P 1 and P 2 of the markers. Regarding the method of identifying the position and orientation of the indicator 30 (step S20), the respective principles when three different markers are used will be described. Indicator with Two Markers FIG. 16 is an example of an indicator provided with two markers. For convenience, when the user grips the indicator 30 like a writing instrument, the marker located on the lower side is called a “top marker”, the position is indicated by a vector p 0 , and the marker located on the upper side is a “rear marker” And the position is indicated by a vector p 1 . The target position is indicated by the “tip marker”.

【0045】「先端マーカ」と「後端マーカ」とが前述
したように異なる色を付されて互いに識別できる場合に
は、目的の指示位置は、図17にも示すように、 位置座標:p0 方向ベクトル:p0−p1 として求めることができる。
If the "front end marker" and the "rear end marker" are distinguished from each other by being given different colors as described above, the target designated position is, as shown in FIG. 0 direction vector: may be obtained as p 0 -p 1.

【0046】尚、マーカの色を広義にとらえ、赤外領域
の光を使用しても良い。また、両マーカの色が同じ場合
には、ユーザに、後端マーカp1の位置を常に、先端マ
ーカp0に比して、観察者により近い位置に置くように
拘束する。このような拘束条件では、2つのマーカの識
別墓のであるので、目的の指示位置は、色で識別できる
場合と同じように、 位置座標:p0 方向ベクトル:p0−p1 として求めることができる。
It should be noted that the color of the marker may be taken in a broad sense and light in the infrared region may be used. Further, when the color of both markers are the same, the user is always the position of the rear end marker p 1, as compared with the distal marker p 0, is constrained to put closer to the observer. Under such a constraint condition, since the two markers are the identification tombs, the target designated position can be obtained as the position coordinate: p 0 direction vector: p 0 −p 1 in the same manner as in the case where it can be identified by color. it can.

【0047】3マーカの指示器 マーカの数が3点の指示器を使う場合について説明す
る。このような指示器の例として、図18の指示器20
0がある。3つのマーカの位置を、p0,p1,p2と表
す。3つのマーカの色が全て異なる色である場合には、
ユーザが指示器40を用いて指示した指示位置の位置
は、次の式により定義される直交座標系uvw(併せて
図20を参照) w=p1−p0 u=(p0−p1)×w …(3) v=w×u の、原点位置(世界座標系xyzにおけるベクトルp0
の位置) により、また、姿勢は、 ベクトルp0−p1 により示される。
A case will be described in which an indicator having three markers is used. As an example of such an indicator, the indicator 20 in FIG.
There is 0. The positions of the three markers are represented as p 0 , p 1 , and p 2 . If the three markers are all different colors,
The position of the designated position designated by the user using the indicator 40 is represented by an orthogonal coordinate system uvw defined by the following equation (see also FIG. 20): w = p 1 −p 0 u = (p 0 −p 1) ) × w (3) The origin position (vector p 0 in the world coordinate system xyz) of v = w × u
And the attitude is represented by the vector p 0 -p 1 .

【0048】尚、3つのマーカが全て同じ色である場合
には、次のような拘束条件、 ・先端マーカp0は常に観察者から最も遠いマーカであ
るとする、且つ、 ・上端マーカp2は後端マーカp1より常に上にあるとす
る、 を課すこととすれば、3つのマーカの色が全て異なる場
合についての上記位置p 0と姿勢p0−p1と、同じよう
に得ることができる。
When all three markers have the same color
Has the following constraints: • Tip marker p0Is always the marker farthest from the observer
And the upper end marker pTwoIs the rear end marker p1More always above
If all three markers have different colors,
Position p above 0And posture p0-P1And the same
Can be obtained.

【0049】また、3つのマーカの内の2つのマーカが
同じ色(例えば色A)で他のマーカがこの2つのマーカ
と異なる色(例えば色B)である場合には、次のような
拘束条件、 ・ 先端マーカp0の色がBの場合には、上端マーカp2
は後端マーカp1より常に上にあるとする、または、 ・ 後端マーカp1の色がBの場合には、先端マーカp0
は上端マーカp2より常に前方または下方にあるとす
る、または、 ・ 上端マーカp2の色がBの場合には、先端マーカp0
は後端マーカp1より常に前方にあるとする、 を課すこととすれば、3つのマーカの色が全て異なる場
合についての上記位置p 0と姿勢p0−p1と、同じよう
に得ることができる。
Also, two of the three markers are
Other markers of the same color (eg, color A)
If the color is different from (for example, color B),
Constraint condition, ・ Tip marker p0Is B, the top marker pTwo
Is the rear end marker p1It is always above, or • a trailing marker p1Is B, the tip marker p0
Is the top marker pTwoMore always ahead or below
Or the top marker pTwoIs B, the tip marker p0
Is the rear end marker p1If the three markers are all different colors,
Position p above 0And posture p0-P1And the same
Can be obtained.

【0050】タブレット型指示器 図21は指示器がタブレット型指示器300である場合
を示す。このタブレット型指示器300には、原点マー
カ(ベクトルp0)、右上マーカ(ベクトルp1)、左上
マーカ(ベクトルp2)の3つのマーカが設けられてい
る。これらのマーカ位置は世界座標系では図22のよう
になる。
The tablet indicator diagram 21 shows a case indicator is a tablet-type indicator 300. The tablet-type indicator 300 is provided with three markers: an origin marker (vector p 0 ), an upper right marker (vector p 1 ), and an upper left marker (vector p 2 ). These marker positions are as shown in FIG. 22 in the world coordinate system.

【0051】原点マーカ、右上マーカ、左上マーカの色
が全て異なる色である場合には、ユーザが指示器300
を用いて指示した指示位置の位置は、次の式により定義
される直交座標系uvw(併せて図23を参照) w=p0−p2 u=w×(p1−p0) …(4) u=v×w の、 原点位置(世界座標系xyzにおけるベクトルp0の位
置) により、また、姿勢は、 ベクトルp0−p2 により示される。
If the origin marker, the upper right marker, and the upper left marker are all different colors, the user
The position of the designated position designated by using is represented by an orthogonal coordinate system uvw defined by the following equation (see also FIG. 23): w = p 0 −p 2 u = w × (p 1 −p 0 ). 4) The origin is indicated by u = v × w (the position of the vector p 0 in the world coordinate system xyz), and the posture is indicated by the vector p 0 −p 2 .

【0052】尚、3つのマーカが全て同じ色である場合
には、次のような拘束条件、 ・先端マーカp0は常に観察者から最も近いマーカであ
るとする、且つ、 ・左上マーカp2は右上マーカp1より常に左にあるとす
る、 を課すこととすれば、3つのマーカの色が全て異なる場
合についての上記位置p 0と姿勢p0−p2と、同じよう
に得ることができる。
When all three markers have the same color
Has the following constraints: • Tip marker p0Is always the marker closest to the observer
And the upper left marker pTwoIs the upper right marker p1More always to the left
If all three markers have different colors,
Position p above 0And posture p0-PTwoAnd the same
Can be obtained.

【0053】[0053]

【実施例】以下に、本発明の実施例について説明する [実施例1]実施例1のMRシステムは、光学的See-Th
rough型HMDを装着したユーザによる頭部CT(Comput
er Tomography)の切断面の指示に本発明を適用したもの
である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. [Embodiment 1] The MR system of Embodiment 1 is an optical See-Th
Head CT (Comput) by user wearing rough type HMD
The present invention is applied to an instruction for a cut surface of er Tomography).

【0054】図24は、実施例1のCTの対象となる頭
部模型を示す。この頭部模型は外形が人体頭部に似てお
り、人体頭部のCTデータは不図示のコンピュータ装置
に前もって格納されている。ユーザは、図25に示した
3点マーカ型指示器200を用いて、CT切断位置と切
断面を指示する。即ち、切断位置は指示器200の先端
マーカ位置により、また切断面は、3つのマーカが形成
する平面である。実際には、図26に示すように、所望
の切断位置と切断面となるように指示器200を頭部模
型に近づけ、所望位置に達した時点で、イベントスイッ
チ201をオンする。
FIG. 24 shows a head model to be subjected to CT in the first embodiment. The head model is similar in appearance to a human head, and CT data of the human head is stored in advance in a computer device (not shown). The user uses the three-point marker type indicator 200 shown in FIG. 25 to indicate the CT cutting position and the cutting plane. That is, the cutting position is determined by the position of the tip marker of the indicator 200, and the cut surface is a plane formed by the three markers. Actually, as shown in FIG. 26, the indicator 200 is brought close to the head model so as to be at a desired cutting position and a cutting plane, and when reaching the desired position, the event switch 201 is turned on.

【0055】実施例1のMRシステムは、イベントスイ
ッチ201が押された時点の先端マーカ位置が指示する
切断位置において、3つのマーカが形成する平面に平行
な平面を切断面とするCTデータをディスクから検索し
て、例えば実施形態の画像生成装置70にCT表示画像
を生成させ、光学的See-Thorugh型HMDに表示する。
こうすると、ユーザには、人体模型の光学像に重ねられ
て、CT画像が重畳表示される。
In the MR system of the first embodiment, at the cutting position indicated by the tip marker position at the time when the event switch 201 is pressed, the CT data having the plane parallel to the plane formed by the three markers as the cutting plane is used as the disk. And causes the image generation device 70 of the embodiment to generate a CT display image, for example, and displays it on an optical See-Thorugh type HMD.
Thus, the CT image is superimposed on the optical image of the phantom and displayed to the user.

【0056】図27に、実施例1の計算機に実施形態の
計算機50を用いた場合に、計算機50の制御手順を示
す。 [実施例2]実施例2は2つの指示器を用いた例であ
る。図28において、ユーザは、タブレット型指示器3
00を左手で持ち、3マーカ・スタイラス型指示器20
0を右手に持っている。タブレット型指示器300はマ
ーカ405,406,407を有し、3マーカ・スタイ
ラス型指示器200はマーカ210,211,212を
有する。2つの指示器は近接して使われるので、指示器
間のマーカが混同されないように、これらのマーカは全
て異なる色を有している。
FIG. 27 shows a control procedure of the computer 50 when the computer 50 of the embodiment is used as the computer of the first embodiment. [Embodiment 2] Embodiment 2 is an example using two indicators. In FIG. 28, the user operates the tablet type indicator 3
Holding the 00 in the left hand, the 3-marker stylus type indicator 20
I have a 0 in my right hand. The tablet type indicator 300 has markers 405, 406 and 407, and the three-marker stylus type indicator 200 has markers 210, 211 and 212. Since the two indicators are used in close proximity, they all have different colors so that the markers between the indicators are not confused.

【0057】実施例2のMR提示システムのアプリケー
ションプログラムは、タブレット型指示器300の面上
に画像401,402,403,404が表示されてい
るかのように、ユーザが装着する光学的See-Through型
HMDに仮想のCG画像を送る。ユーザは、HMD内で
投射されたこのCGを見ることにより、あたかも、タブ
レット面上において画像401,402,403,40
4が表示されているかのように知覚する。これは、マー
カ405,406,407により計算機50が指示器3
00の面の三次元位置及び姿勢を検出することができ、
その位置に仮想画像が表示されているかのような立体感
を持つように、左右の視差画像をHMDに出力するわけ
である。
The application program of the MR presentation system according to the second embodiment provides an optical See-Through that the user wears as if images 401, 402, 403, and 404 are displayed on the surface of the tablet type indicator 300. Send a virtual CG image to the type HMD. By viewing the CG projected in the HMD, the user can view the images 401, 402, 403, 40 on the tablet surface.
4 is perceived as being displayed. This is because the markers 50, 406, and 407 cause the computer 50 to indicate the indicator 3
The three-dimensional position and orientation of the 00 surface can be detected,
The left and right parallax images are output to the HMD so as to have a stereoscopic effect as if a virtual image is displayed at that position.

【0058】タブレット型指示器300の面上では、仮
想画像401は頭部の断層像を表し,仮想画像402,
403,404は夫々仮想アイコンである。スタイラス
型指示器200と計算機50のアプリケーションプログ
ラムは、ユーザに仮想アイコンの選択のためのユーザイ
ンタフェースを提供する。即ち、ユーザがスタイラス型
指示器200の先端を仮想アイコン404に近接させ
て、スイッチ201を押せば、プリント指令が選択され
たと判断する。
On the surface of the tablet type indicator 300, the virtual image 401 represents a tomographic image of the head, and the virtual images 402,
403 and 404 are virtual icons, respectively. The stylus type indicator 200 and the application program of the computer 50 provide the user with a user interface for selecting a virtual icon. That is, when the user brings the tip of the stylus type indicator 200 close to the virtual icon 404 and presses the switch 201, it is determined that the print command has been selected.

【0059】次に、スタイラス型指示器200をCT断
層像の仮想画像401上の任意の点408に近接させて
スイッチ201を押せば、その位置408が拡大/縮小
の対象としてユーザが選択したとアプリケーションプロ
グラムは判断する。次に、ユーザが、スタイラス型指示
器200を仮想アイコン402に近接させてスイッチ2
01を押せば、領域408の拡大表示をユーザが選択し
たと判断し、CTデータをディスクなどから検索して取
り出し、そのCT画像の左右視差画像を生成してHMD
に出力する。尚、仮想アイコン403を選択すれば縮小
機能が選択される。
Next, when the stylus type indicator 200 is brought close to an arbitrary point 408 on the virtual image 401 of the CT tomogram and the switch 201 is pressed, the position 408 is selected by the user as an object to be enlarged / reduced. The application program decides. Next, the user brings the stylus-type indicator 200 close to the virtual icon 402 to switch 2.
When the user presses 01, it is determined that the user has selected the enlarged display of the area 408, the CT data is retrieved and retrieved from a disk or the like, and a left / right parallax image of the CT image is generated to generate an HMD.
Output to When the virtual icon 403 is selected, the reduction function is selected.

【0060】本発明の大きな効果として、キャリブレー
ションが1工程減ることが上げられる。実施例2のよう
に2つの光学的指示器を用いると、1つの光学的指示器
によりキャリブレーションが1工程減るのであるから、
2つの磁気センサを用いる従来例の手法に比して都合2
工程減ることとなり、その効果は大きい。 〈変形例〉本発明は上記実施形態及び実施例に限定され
ない。以下に変形例を提案する。
A significant effect of the present invention is that the number of calibration steps is reduced by one step. When two optical indicators are used as in the second embodiment, the calibration is reduced by one step by one optical indicator.
2 compared to the conventional method using two magnetic sensors
The number of processes is reduced, and the effect is great. <Modifications> The present invention is not limited to the above embodiments and examples. A modification is proposed below.

【0061】この変形例は、上記実施形態の手法と従来
の手法とが併用されているMR提示システムである。こ
の変形例では、従来例の手法(世界座標系を基準とする
位置合わせを行う)を場合によっては用いるために、図
29に示すように、磁気センサなどの位置センサ401
を設けた指示器400を用いる。この指示器400は本
実施形態の手法にも適用するために、両端にマーカ40
2,403が設けられている。
This modified example is an MR presentation system in which the method of the above embodiment and the conventional method are used together. In this modification, as shown in FIG. 29, a position sensor 401 such as a magnetic sensor is used in order to use the method of the related art (positioning based on the world coordinate system) in some cases.
The indicator 400 provided with is used. The indicator 400 has markers 40 at both ends in order to apply to the method of the present embodiment.
2,403 are provided.

【0062】ユーザが指示器400を用いて指示位置を
示すために移動すると、常にマーカがカメラ22によっ
て捉えられるとは限らない。このような場合に備えて、
指示器400に位置センサ401を設け、このセンサの
出力信号を用いて従来の手法に従って指示器400の位
置と姿勢を測定するのである。前述したように、マーカ
が隠れてしまったときにのみ、位置センサ401の出力
を用いて世界座標系に対する指示器400の位置姿勢を
測定することにより、図30に示すように、従来手法の
パスを介した測定が行われる。換言すれば、この変形例
に依れば、ユーザの行動範囲は格段に広がり、拘束条件
が緩和される。
When the user moves using the indicator 400 to indicate the indicated position, the marker is not always caught by the camera 22. In case of such a case,
The position sensor 401 is provided on the indicator 400, and the position and orientation of the indicator 400 are measured using the output signal of the sensor according to a conventional method. As described above, only when the marker is hidden, the position and orientation of the indicator 400 with respect to the world coordinate system is measured using the output of the position sensor 401, and as shown in FIG. Measurements are made via In other words, according to this modification, the range of action of the user is significantly widened, and the constraint condition is relaxed.

【0063】〈その他の変形例〉 変形例1: マーカの数は2個と3個に限定されない。
測定される自由度が位置だけで良ければ、マーカは1つ
だけでも原理的には指示器の位置を測定することができ
る。 変形例2: マーカはLED等の発光タイプに限られな
い。例えば、蛍光テープや色の異なるテープでも良い。 変形例3: スタイラス型の指示器は、マーカをスタイ
ラスの先端に設けることは好ましくない。指示器に、例
えばペンや医師用のメスを用いることがあるからであ
る。この場合には、指示位置はスタイラスの先端でなさ
れるので、その先端位置はマーカ位置と異なる。そこ
で、図31に示すように、先端位置座標を、
<Other Modifications> Modification 1 The number of markers is not limited to two or three.
If only the degree of freedom to be measured is sufficient, the position of the indicator can be measured in principle even with only one marker. Modified Example 2: The marker is not limited to a light emitting type such as an LED. For example, a fluorescent tape or a tape of a different color may be used. Modification Example 3 In a stylus-type indicator, it is not preferable to provide a marker at the tip of the stylus. This is because, for example, a pen or a scalpel for a doctor may be used for the indicator. In this case, the designated position is made at the tip of the stylus, and the tip position is different from the marker position. Therefore, as shown in FIG.

【0064】[0064]

【数1】 (Equation 1)

【0065】に従って補正する。The correction is made according to the following.

【0066】[0066]

【発明の効果】以上説明したように本発明によれば、発
生する位置ずれは少なくして、キャリブレーションの回
数を減らすことができる。
As described above, according to the present invention, the number of times of calibration can be reduced by reducing the generated positional deviation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 従来技術において、観察者が操作具(指示
器)を介して指示位置を入力する様子を説明する図。
FIG. 1 is a diagram illustrating a state in which an observer inputs a designated position via an operation tool (indicator) in the related art.

【図2】 従来技術において用いられ、本発明の一部実
施例において用いられる磁気位置センサの動作原理を説
明する図。
FIG. 2 is a diagram for explaining the operation principle of a magnetic position sensor used in the prior art and used in some embodiments of the present invention.

【図3】 従来技術において用いられ、本発明の一部実
施例において用いられる指示器の構成ならびに動作原理
を説明する図。
FIG. 3 is a diagram illustrating a configuration and an operation principle of an indicator used in the related art and used in some embodiments of the present invention.

【図4】 従来技術において欠点(位置ずれ)の発生す
る原理を説明する図。
FIG. 4 is a view for explaining the principle of generation of a defect (position shift) in the related art.

【図5】 従来技術において欠点(位置ずれ)の発生す
る原理を説明する図。
FIG. 5 is a view for explaining the principle of occurrence of a defect (position shift) in the conventional technique.

【図6】 実施形態の複合現実感提示システムの構成を
説明する図。
FIG. 6 is an exemplary view for explaining the configuration of a mixed reality presentation system according to the embodiment;

【図7】 実施形態の複合現実感提示システムにおいて
指示器がマン・マシーンインタフェース装置として機能
することを説明する図。
FIG. 7 is an exemplary view for explaining that the indicator functions as a man-machine interface device in the mixed reality presentation system of the embodiment;

【図8】 実施形態に用いられる指示器の操作方法を説
明する図。
FIG. 8 is an exemplary view for explaining an operation method of the indicator used in the embodiment.

【図9】 実施形態システムにおいて、指示器に設けら
れたマーカの位置を検出する手順を説明するフローチャ
ート。
FIG. 9 is a flowchart illustrating a procedure for detecting a position of a marker provided on the indicator in the system according to the embodiment.

【図10】 実施形態のシステムの、データ処理系を説
明するブロック図。
FIG. 10 is a block diagram illustrating a data processing system of the system according to the embodiment.

【図11】 実施形態のシステムにおいて位置ずれの発
生しない理由を説明する図。
FIG. 11 is an exemplary view for explaining the reason why no displacement occurs in the system according to the embodiment;

【図12】 実施形態のシステムに用いられる制御手順
のフローチャート。
FIG. 12 is a flowchart of a control procedure used in the system of the embodiment.

【図13】 左右の2つの画像間におけるマーカの対応
を説明する図。
FIG. 13 is a view for explaining the correspondence of markers between two left and right images.

【図14】 実施形態において、マーカの三次元位置を
検出する原理を説明する図。
FIG. 14 is a view for explaining the principle of detecting a three-dimensional position of a marker in the embodiment.

【図15】 マーカの三次元位置を検出する際に、直線
が交叉しない場合におけるマーカ三次元位置決定の手法
を説明する図。
FIG. 15 is a view for explaining a method of determining a marker three-dimensional position when straight lines do not intersect when detecting the three-dimensional position of the marker.

【図16】 実施形態のシステムに用いられる2マーカ
型指示器(スタイラス型)の構造を説明する図。
FIG. 16 is an exemplary view for explaining the structure of a two-marker type indicator (stylus type) used in the system according to the embodiment;

【図17】 図16の指示器を用いたときの指示位置及
び姿勢を決定する原理を説明する図。
FIG. 17 is a view for explaining the principle of determining an indicated position and orientation when the indicator of FIG. 16 is used.

【図18】 実施形態のシステムに用いられる3マーカ
型指示器(スタイラス型)の構造を説明する図。
FIG. 18 is an exemplary view for explaining the structure of a three-marker type indicator (stylus type) used in the system according to the embodiment;

【図19】 図18の指示器を用いたときの指示位置及
び姿勢を決定する原理を説明する図。
FIG. 19 is a view for explaining the principle of determining an indicated position and orientation when the indicator of FIG. 18 is used.

【図20】 図18の指示器を用いたときの指示位置及
び姿勢を決定する原理を説明する図。
FIG. 20 is a view for explaining the principle of determining an indicated position and orientation when the indicator of FIG. 18 is used.

【図21】 実施形態のシステムに用いられるタブレッ
ト型指示器の構造を説明する図。
FIG. 21 is an exemplary view for explaining the structure of a tablet type indicator used in the system according to the embodiment;

【図22】 図21の指示器を用いたときの指示位置及
び姿勢を決定する原理を説明する図。
FIG. 22 is a view for explaining the principle of determining an indicated position and orientation when the indicator of FIG. 21 is used.

【図23】 図21の指示器を用いたときの指示位置及
び姿勢を決定する原理を説明する図。
FIG. 23 is a view for explaining the principle of determining the designated position and orientation when the indicator of FIG. 21 is used.

【図24】 本発明の具体的な適用携帯である実施例1
に用いられる頭部模型を説明する図。
FIG. 24 is a specific application example 1 of the present invention;
The figure explaining the head model used for the.

【図25】 実施例1に用いられるスタイラス型指示器
の構造を説明する図。
FIG. 25 is a diagram illustrating the structure of a stylus-type indicator used in the first embodiment.

【図26】 図25の指示器を図24の頭部模型の指示
位置の決定に利用するときの様子を示す図。
FIG. 26 is a view showing a state when the indicator of FIG. 25 is used for determining the pointing position of the head model of FIG. 24;

【図27】 実施例1の制御手順を説明するフローチャ
ート。
FIG. 27 is a flowchart illustrating a control procedure according to the first embodiment.

【図28】 実施例2に用いられる2つの指示器(30
0,200)の操作方法を説明する図。
FIG. 28 shows two indicators (30) used in the second embodiment.
(0, 200).

【図29】 本発明の他の実施形態に係る提示システム
の構成を説明する図。
FIG. 29 is a diagram illustrating a configuration of a presentation system according to another embodiment of the present invention.

【図30】 他の実施形態の原理を説明する図。FIG. 30 is a view for explaining the principle of another embodiment.

【図31】 更に他の変形例において、指示器の先端位
置の位置座標の補正原理を説明する図。
FIG. 31 is a view for explaining the principle of correcting the position coordinates of the tip end position of the indicator in still another modification.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA04 BA11 CA07 DA04 EA07 EA19 EA27 EA28 FA02 FA06 FA08 FA09 5B087 AA07 AE00 BC05 BC12 BC13 BC16 BC17 BC32 BC34 DD03 DH04 DJ03 5C061 AA01 AA29 AB11 AB12 AB16 AB18 AB24  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B050 BA04 BA11 CA07 DA04 EA07 EA19 EA27 EA28 FA02 FA06 FA08 FA09 5B087 AA07 AE00 BC05 BC12 BC13 BC16 BC17 BC32 BC34 DD03 DH04 DJ03 5C061 AA01 AA29 AB11 AB12 AB16 AB18 AB24

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 仮想空間と現実空間を融合して観察者に
提示する複合現実感提示システムであって、 観察者の視点位置の近傍に設けられ、仮想画像を提示す
べき提示位置の三次元座標値を、この視点位置に関連し
た座標系に従って検出する第1のセンサ手段と、 前記観察者の視点位置を基準にして前記センサ手段によ
って検出された提示位置に、仮想画像を前記観察者に提
示する仮想画像提示手段とを具備することを特徴とする
複合現実感提示システム。
1. A mixed reality presentation system that presents an observer by fusing a virtual space and a real space, wherein the three-dimensional presentation position is provided near an observer's viewpoint position and a presentation position at which a virtual image is to be presented. First sensor means for detecting a coordinate value in accordance with a coordinate system related to the viewpoint position, and a virtual image to the observer at a presentation position detected by the sensor means with reference to the observer's viewpoint position. A mixed reality presentation system comprising: a virtual image presentation means for presenting.
【請求項2】 前記第1のセンサ手段は前記観察者の頭
部位置に設けられた撮像手段を有し、 前記仮想画像提示手段は、前記観察者の頭部に装着され
るヘッドマウントデイスプレイを有することを特徴とす
る請求項1に記載の複合現実感提示システム。
2. The apparatus according to claim 1, wherein the first sensor unit has an image pickup unit provided at a position of a head of the observer, and the virtual image presenting unit has a head mounted display mounted on the head of the observer. The mixed reality presentation system according to claim 1, wherein the system is provided.
【請求項3】 前記ヘッドマウントデイスプレイはビデ
オ・シー・スルー型であることを特徴とする請求項2に
記載の複合現実感提示システム。
3. The mixed reality presentation system according to claim 2, wherein the head mounted display is of a video see-through type.
【請求項4】 前記第1のセンサ手段は、 頭部に装着され左右に離間したステレオカメラと、 前記ステレオカメラが出力したステレオ画像データに基
づいて、ステレオ視の手法により、前記提示位置の前記
ステレオカメラの画像面上での三次元座標値を検出する
手段とを具備することを特徴とする請求項1乃至3のい
ずれかに記載の複合現実感提示システム。
4. The first sensor means comprises: a stereo camera mounted on a head and separated from side to side; and, based on stereo image data output by the stereo camera, a stereo view method, 4. The mixed reality presentation system according to claim 1, further comprising: means for detecting a three-dimensional coordinate value on an image plane of the stereo camera.
【請求項5】 更に、前記観察者の視点位置を世界座標
系に従って検出する第2のセンサ手段を更に具備するこ
とを特徴とする請求項1乃至4のいずれかに記載の複合
現実感提示システム。
5. The mixed reality presentation system according to claim 1, further comprising second sensor means for detecting a viewpoint position of the observer according to a world coordinate system. .
【請求項6】 前記センサ手段のセンス範囲内におかれ
観察者により操作される操作具を有することを特徴とす
る請求項1乃至5のいずれかに記載の複合現実感提示シ
ステム。
6. The mixed reality presentation system according to claim 1, further comprising an operation tool operated by an observer within a sensing range of said sensor means.
【請求項7】 前記操作具には、前記観察者により操作
され、観察者により所定のイベントタイミング信号を出
力するスイッチが設けられたことを特徴とする請求項6
に記載の複合現実感提示システム。
7. The operating tool is provided with a switch that is operated by the observer and outputs a predetermined event timing signal by the observer.
3. The mixed reality presentation system according to [1].
【請求項8】 前記操作具は、その端部に設けられた少
なくとも1つのマーカを有することを特徴とする請求項
6に記載の複合現実感提示システム。
8. The mixed reality presentation system according to claim 6, wherein the operation tool has at least one marker provided at an end thereof.
【請求項9】 前記マーカは1つ設けられ、前記センサ
手段は前記提示位置の三次元座標位置を出力することを
特徴とする請求項8に記載の複合現実感提示システム。
9. The mixed reality presentation system according to claim 8, wherein one marker is provided, and the sensor unit outputs a three-dimensional coordinate position of the presentation position.
【請求項10】 前記マーカは2つ設けられ、前記セン
サ手段は前記提示位置の三次元座標位置と方向とを出力
することを特徴とする請求項8に記載の複合現実感提示
システム。
10. The mixed reality presentation system according to claim 8, wherein two markers are provided, and the sensor unit outputs a three-dimensional coordinate position and a direction of the presentation position.
【請求項11】 前記マーカは3つ設けられ、前記セン
サ手段は前記提示位置を通る平面座標を出力することを
特徴とする請求項8に記載の複合現実感提示システム。
11. The mixed reality presentation system according to claim 8, wherein the three markers are provided, and the sensor outputs a plane coordinate passing through the presentation position.
【請求項12】 前記マーカは、異なる色を付された複
数のマーカを有することを特徴とする請求項8乃至11
のいずれかに記載の複合現実感提示システム。
12. The marker according to claim 8, wherein the marker has a plurality of markers colored differently.
The mixed reality presentation system according to any one of the above.
【請求項13】 前記マーカは、異なる色を付された複
数のマーカと同じ色を付された少なくとも1つのマーカ
とを有することを特徴とする請求項8乃至11のいずれ
かに記載の複合現実感提示システム。
13. The mixed reality according to claim 8, wherein the markers include a plurality of markers colored differently and at least one marker colored the same. Feeling presentation system.
【請求項14】 前記マーカは異なる色を発光する発光
手段を有することを特徴とする請求項1乃至13のいず
れかに記載の複合現実感提示システム。
14. The mixed reality presentation system according to claim 1, wherein said marker has a light emitting means for emitting different colors.
【請求項15】 前記センサ手段のセンス範囲内におか
れ観察者により操作される複数の操作具を有することを
特徴とする請求項1乃至5のいずれかに記載の複合現実
感提示システム。
15. The mixed reality presentation system according to claim 1, further comprising a plurality of operation tools that are operated within a sensing range of said sensor means and operated by an observer.
【請求項16】 前記操作具に、更に位置センサとして
の磁気センサが設けられていることを特徴とする請求項
6乃至14のいずれかに記載の複合現実感提示システ
ム。
16. The mixed reality presentation system according to claim 6, wherein the operation tool further includes a magnetic sensor as a position sensor.
【請求項17】 仮想空間と現実空間を融合して観察者
に提示する複合現実感提示方法であって、 観察者の視点位置の近傍に設けられたセンサを用いて、
仮想画像を提示すべき提示位置の三次元座標値を、この
視点位置に関連した座標系に従って検出し、 前記観察者の視点位置を基準にして前記センサによって
検出された提示位置に、仮想画像を前記観察者に提示す
ることを特徴とする複合現実感提示方法。
17. A mixed reality presentation method in which a virtual space and a real space are combined and presented to an observer, using a sensor provided near a viewpoint position of the observer,
A three-dimensional coordinate value of a presentation position at which a virtual image is to be presented is detected in accordance with a coordinate system related to this viewpoint position.The virtual image is displayed at the presentation position detected by the sensor based on the viewpoint position of the observer. A mixed reality presentation method, characterized by presenting to the observer.
【請求項18】 仮想空間と現実空間を融合して観察者
に提示するプログラムを記憶するコンピュータ可読記憶
媒体であって、 観察者の視点位置の近傍に設けられたセンサを用いて、
仮想画像を提示すべき提示位置の三次元座標値を、この
視点位置に関連した座標系に従って検出するプログラム
コードと、 前記観察者の視点位置を基準にして前記センサによって
検出された提示位置に、仮想画像を前記観察者に提示す
るプログラムコードとを記憶するコンピュータ可読記憶
媒体。
18. A computer-readable storage medium storing a program for presenting to an observer by fusing a virtual space and a real space, wherein a sensor provided near a viewpoint position of the observer is used.
A program code for detecting a three-dimensional coordinate value of a presentation position at which a virtual image is to be presented according to a coordinate system related to the viewpoint position, and a presentation position detected by the sensor with reference to the viewpoint position of the observer. A computer-readable storage medium storing a program code for presenting a virtual image to the observer.
【請求項19】 ユーザにより操作される操作具を介し
て仮想画像を提示すべき提示位置を複合現実感提示シス
テムに入力するマン・マシンインタフェースであって、 観察者の視点位置の近傍に設けられ、前記操作具を撮像
視野内に含む撮像手段と、 前記撮像手段が得た画像データに基づいて、前記操作具
の所定部位の三次元座標値を、前記観察者の視点位置に
関連した座標系に従った三次元座標値に変換する変換手
段と、 変換された前記所定部位の三次元座標値を、観察者の指
示した仮想画像提示位置として、前記複合現実感提示シ
ステムに出力する出力手段とを具備することを特徴とす
るマン・マシンインタフェース装置。
19. A man-machine interface for inputting a presentation position at which a virtual image is to be presented to a mixed reality presentation system via an operation tool operated by a user, the man-machine interface being provided near an observer's viewpoint position. An imaging unit including the operating tool in an imaging visual field; and a coordinate system related to a viewpoint position of the observer, based on image data obtained by the imaging unit, and a three-dimensional coordinate value of a predetermined portion of the operating tool. Conversion means for converting the three-dimensional coordinate value of the predetermined part into a virtual image presentation position instructed by an observer, to the mixed reality presentation system, A man-machine interface device comprising:
【請求項20】 ユーザにより操作される操作具を介し
て仮想画像を提示すべき提示位置を複合現実感提示シス
テムに入力するマン・マシンインタフェース方法であっ
て、 観察者の視点位置の近傍に、前記操作具を撮像視野内に
含むように撮像手段を配置し、 前記撮像手段が得た画像データに基づいて、前記操作具
の所定部位の三次元座標値を、前記観察者の視点位置に
関連した座標系に従った三次元座標値に変換し、 変換された前記所定部位の三次元座標値を、観察者の指
示した仮想画像提示位置として、前記複合現実感提示シ
ステムに出力することを特徴とするマン・マシンインタ
フェース方法。
20. A man-machine interface method for inputting a presentation position at which a virtual image is to be presented to a mixed reality presentation system via an operation tool operated by a user, the method comprising: An imaging unit is arranged so as to include the operating tool in an imaging visual field, and a three-dimensional coordinate value of a predetermined portion of the operating tool is related to a viewpoint position of the observer based on image data obtained by the imaging unit. And converting the converted three-dimensional coordinate values of the predetermined part to the mixed reality presentation system as a virtual image presentation position designated by an observer. Man-machine interface method.
【請求項21】 ユーザにより操作される操作具を介し
て複合現実感提示システムにユーザ指示を入力するマン
・マシンインタフェースであって、 観察者の視点位置の近傍に設けられ、前記操作具を撮像
視野内に含む撮像手段と、 前記撮像手段が得た画像データに基づいて、前記操作具
の所定部位の三次元座標値を、前記観察者の視点位置に
関連した座標系に従った三次元座標値に変換する変換手
段と、 変換された前記所定部位の三次元座標値をユーザ指示入
力として、前記複合現実感提示システムに出力する出力
手段とを具備することを特徴とするマン・マシンインタ
フェース装置。
21. A man-machine interface for inputting a user instruction to a mixed reality presentation system via an operation tool operated by a user, wherein the man-machine interface is provided near an observer's viewpoint position and captures an image of the operation tool. Imaging means included in a field of view, based on image data obtained by the imaging means, three-dimensional coordinate values of a predetermined portion of the operating tool, three-dimensional coordinates according to a coordinate system related to the viewpoint position of the observer A man-machine interface device, comprising: a conversion unit for converting the three-dimensional coordinate value of the predetermined part into a user instruction input to the mixed reality presentation system; .
【請求項22】 ユーザにより操作される操作具を介し
てユーザ指示を複合現実感提示システムに入力するマン
・マシンインタフェース方法であって、 観察者の視点位置の近傍に、前記操作具を撮像視野内に
含むように撮像手段を配置し、 前記撮像手段が得た画像データに基づいて、前記操作具
の所定部位の三次元座標値を、前記観察者の視点位置に
関連した座標系に従った三次元座標値に変換し、 変換された前記所定部位の三次元座標値を、ユーザ指示
入力として、前記複合現実感提示システムに出力するこ
とを特徴とするマン・マシンインタフェース方法。
22. A man-machine interface method for inputting a user's instruction to a mixed reality presentation system via an operation tool operated by a user, wherein the operation tool is imaged near an observer's viewpoint. The imaging means is arranged so as to be included in the image data, based on the image data obtained by the imaging means, the three-dimensional coordinate value of a predetermined portion of the operating tool, according to the coordinate system related to the viewpoint position of the observer A man-machine interface method, wherein the method converts the three-dimensional coordinate value of the predetermined part into a three-dimensional coordinate value and outputs the converted three-dimensional coordinate value to the mixed reality presentation system as a user instruction input.
【請求項23】 観察者の視点位置の近傍に、前記操作
具を撮像視野内に含むように撮像手段を配置し、ユーザ
により操作される操作具を介して仮想画像を提示すべき
提示位置を複合現実感提示システムに入力するマン・マ
シンインタフェースプログラムを記憶するコンピュータ
可読の記録媒体であって、 前記撮像手段が得た画像データに基づいて、前記操作具
の所定部位の三次元座標値を、前記観察者の視点位置に
関連した座標系に従った三次元座標値に変換するプログ
ラムコードと、 変換された前記所定部位の三次元座標値を、観察者の指
示した仮想画像提示位置として、前記複合現実感提示シ
ステムに出力するプログラムコードとを記憶することを
特徴とするコンピュータ可読の記録媒体。
23. An image pickup means is arranged near an observer's viewpoint position so as to include the operation tool in an imaging field of view, and a presentation position at which a virtual image is to be presented via an operation tool operated by a user. A computer-readable recording medium that stores a man-machine interface program to be input to the mixed reality presentation system, based on image data obtained by the imaging unit, a three-dimensional coordinate value of a predetermined portion of the operating tool, A program code for converting to a three-dimensional coordinate value according to a coordinate system related to the viewpoint position of the observer; and the converted three-dimensional coordinate value of the predetermined part as a virtual image presentation position designated by the observer. A computer-readable recording medium for storing a program code to be output to a mixed reality presentation system.
【請求項24】 観察者の視点位置の近傍に、前記操作
具を撮像視野内に含むように撮像手段を配置し、ユーザ
により操作される操作具を介してユーザ指示を複合現実
感提示システムに入力するマン・マシンインタフェース
プログラムを記憶するコンピュータ可読の記録媒体であ
って、 前記撮像手段が得た画像データに基づいて、前記操作具
の所定部位の三次元座標値を、前記観察者の視点位置に
関連した座標系に従った三次元座標値に変換するプログ
ラムコードと、 変換された前記所定部位の三次元座標値を、ユーザ指示
入力として、前記複合現実感提示システムに出力するプ
ログラムコードとを記憶することを特徴とするコンピュ
ータ可読の記録媒体。
24. An image pickup means is arranged near an observer's viewpoint position so that the operation tool is included in an imaging field of view, and a user instruction is input to the mixed reality presentation system via the operation tool operated by a user. A computer-readable recording medium that stores a man-machine interface program to be input, based on image data obtained by the imaging unit, the three-dimensional coordinate value of a predetermined portion of the operating tool, the viewpoint position of the observer A program code for converting to a three-dimensional coordinate value according to a coordinate system related to, and a program code for outputting the converted three-dimensional coordinate value of the predetermined part to the mixed reality presentation system as a user instruction input. A computer-readable recording medium characterized by storing.
JP26863898A 1998-09-22 1998-09-22 Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method Pending JP2000102036A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26863898A JP2000102036A (en) 1998-09-22 1998-09-22 Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26863898A JP2000102036A (en) 1998-09-22 1998-09-22 Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method

Publications (1)

Publication Number Publication Date
JP2000102036A true JP2000102036A (en) 2000-04-07

Family

ID=17461341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26863898A Pending JP2000102036A (en) 1998-09-22 1998-09-22 Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method

Country Status (1)

Country Link
JP (1) JP2000102036A (en)

Cited By (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2002229730A (en) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc Information processing unit, complex reality providing device and method thereof, and storage medium
JP2003014421A (en) * 2001-07-04 2003-01-15 Minolta Co Ltd Measuring apparatus and measuring method
WO2003083526A1 (en) * 2002-03-28 2003-10-09 Linus Ab A method and a device for co-ordinated displaying of a direct image and an electro-optical image
JP2003296757A (en) * 2002-03-29 2003-10-17 Canon Inc Information processing method and device
JP2004023180A (en) * 2002-06-12 2004-01-22 Toshiba Corp Voice transmission apparatus, voice transmission method and program
JP2004213518A (en) * 2003-01-08 2004-07-29 Sony Corp Information processor, method for processing information and computer program
JP2005157611A (en) * 2003-11-25 2005-06-16 Canon Inc Image processor and image processing method
JP2005242854A (en) * 2004-02-27 2005-09-08 Nippon Telegr & Teleph Corp <Ntt> Method and device for displaying three-dimensional data, and program
JP2006018444A (en) * 2004-06-30 2006-01-19 Taisei Corp Image processing system and additional information indicating device
JP2006048639A (en) * 2004-06-29 2006-02-16 Canon Inc Method and apparatus for processing information
WO2006025137A1 (en) * 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. Image processor, game machine, and image processing method
JP2006127158A (en) * 2004-10-28 2006-05-18 Canon Inc Image processing method and image processor
JP2006293604A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method, information processor, and remote mixed reality sharing device
WO2006125423A2 (en) * 2005-05-23 2006-11-30 Martin Altmeyer Method and device for generating optical effects on a two-dimensional object
JP2007066080A (en) * 2005-08-31 2007-03-15 Casio Comput Co Ltd Pointing device
WO2007053116A1 (en) * 2005-10-31 2007-05-10 National University Of Singapore Virtual interface system
JP2007265061A (en) * 2006-03-29 2007-10-11 Gifu Univ Section visualization device
JP2008500624A (en) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
JP2008009646A (en) * 2006-06-28 2008-01-17 Canon Inc Image processor and image processing method
JP2008040556A (en) * 2006-08-01 2008-02-21 Canon Inc Compound sense of reality presenting device and its control method and program
JP2008508591A (en) * 2004-07-30 2008-03-21 インダストリー ユニバーシティー コーポレーション ファウンデーション ハンヤン ユニバーシティー Vision-based augmented reality system using markers invisible to the naked eye
JP2008117083A (en) * 2006-11-01 2008-05-22 Sharp Corp Coordinate indicating device, electronic equipment, coordinate indicating method, coordinate indicating program, and recording medium with the program recorded thereon
JP2009036517A (en) * 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2009147480A (en) * 2007-12-12 2009-07-02 Gifu Univ Calibration apparatus of projection system
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2010515189A (en) * 2007-01-05 2010-05-06 トタル イメルシオン Method and apparatus for inserting virtual objects in real time into an image stream using data from a real scene represented by an image
JP2010146481A (en) * 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
JP2010152570A (en) * 2008-12-25 2010-07-08 Yamaha Corp Pointing system
JP2011015831A (en) * 2009-07-09 2011-01-27 Shimadzu Corp Head motion tracker
JP2011180867A (en) * 2010-03-02 2011-09-15 Brother Industries Ltd Head-mounted display
JP2011237987A (en) * 2010-05-10 2011-11-24 Olympus Corp Operation input device and manipulator system
JP2012014690A (en) * 2010-06-30 2012-01-19 Pantech Co Ltd Apparatus and method for providing three-dimensional augmented reality
JP2012174219A (en) * 2011-02-24 2012-09-10 Ohbayashi Corp Image composition method
WO2012088285A3 (en) * 2010-12-22 2012-10-26 Infinite Z, Inc. Three-dimensional tracking of a user control device in a volume
WO2013035758A1 (en) * 2011-09-06 2013-03-14 Necビッグローブ株式会社 Information display system, information display method, and storage medium
KR101279869B1 (en) 2012-03-23 2013-06-28 국방과학연구소 Apparatus and method for displaying flight simulator image using head mounted display
JP2013214285A (en) * 2012-04-03 2013-10-17 Boeing Co:The System and method for virtual engineering
JP2013222280A (en) * 2012-04-16 2013-10-28 Seiko Epson Corp Projector, control method for the same, program and projection system
US20140125579A1 (en) * 2012-11-06 2014-05-08 Sony Computer Entertainment Inc. Head mounted display, motion detector, motion detection method, image presentation system and program
JP2014093704A (en) * 2012-11-06 2014-05-19 Sony Computer Entertainment Inc Head mount display and movement detection method
JP2014132719A (en) * 2013-01-07 2014-07-17 Seiko Epson Corp Display device and control method for display device
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
WO2015195444A1 (en) * 2014-06-17 2015-12-23 Osterhout Group, Inc. External user interface for head worn computing
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US9324229B2 (en) 2007-03-08 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
CN105607255A (en) * 2014-11-17 2016-05-25 精工爱普生株式会社 Head-mounted display device, method of controlling head-mounted display device, and computer program
EP3029547A1 (en) * 2014-12-02 2016-06-08 Kabushiki Kaisha Topcon Three-dimensional input device and input system
US9377625B2 (en) 2014-01-21 2016-06-28 Osterhout Group, Inc. Optical configurations for head worn computing
JP2016520225A (en) * 2013-05-07 2016-07-11 コミサリア ア レネルジ アトミク エ オウ エネルジ アルタナティヴ Method for controlling a graphical interface for displaying an image of a three-dimensional object
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9423612B2 (en) 2014-03-28 2016-08-23 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9436006B2 (en) 2014-01-21 2016-09-06 Osterhout Group, Inc. See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9529192B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9547465B2 (en) 2014-02-14 2017-01-17 Osterhout Group, Inc. Object shadowing in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
WO2017057107A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
JP6142462B1 (en) * 2016-02-17 2017-06-07 株式会社菊池製作所 Superimposed image display system
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
KR101757930B1 (en) * 2010-02-12 2017-07-13 삼성전자주식회사 Data Transfer Method and System
WO2017122274A1 (en) * 2016-01-12 2017-07-20 サン電子株式会社 Image display device
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9720234B2 (en) 2014-01-21 2017-08-01 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9784973B2 (en) 2014-02-11 2017-10-10 Osterhout Group, Inc. Micro doppler presentations in head worn computing
JP2017191546A (en) * 2016-04-15 2017-10-19 ミラマ サービス インク Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9939646B2 (en) 2014-01-24 2018-04-10 Osterhout Group, Inc. Stray light suppression for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US10062182B2 (en) 2015-02-17 2018-08-28 Osterhout Group, Inc. See-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
JP2019175294A (en) * 2018-03-29 2019-10-10 富士通株式会社 Display control program, apparatus therefor, and method thereof
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
WO2022003512A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic sketching with exaggerated content
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US11269182B2 (en) 2014-07-15 2022-03-08 Mentor Acquisition One, Llc Content presentation in head worn computing
CN117351074A (en) * 2023-08-31 2024-01-05 中国科学院软件研究所 Viewpoint position detection method and device based on head-mounted eye tracker and depth camera
JP7456047B2 (en) 2016-04-26 2024-03-26 マジック リープ, インコーポレイテッド Electromagnetic tracking using augmented reality systems

Cited By (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2002229730A (en) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc Information processing unit, complex reality providing device and method thereof, and storage medium
US6853935B2 (en) 2000-11-30 2005-02-08 Canon Kabushiki Kaisha Information processing apparatus, mixed reality presentation apparatus, method thereof, and storage medium
JP2003014421A (en) * 2001-07-04 2003-01-15 Minolta Co Ltd Measuring apparatus and measuring method
WO2003083526A1 (en) * 2002-03-28 2003-10-09 Linus Ab A method and a device for co-ordinated displaying of a direct image and an electro-optical image
US7123214B2 (en) 2002-03-29 2006-10-17 Canon Kabushiki Kaisha Information processing method and apparatus
JP2003296757A (en) * 2002-03-29 2003-10-17 Canon Inc Information processing method and device
JP2004023180A (en) * 2002-06-12 2004-01-22 Toshiba Corp Voice transmission apparatus, voice transmission method and program
JP2004213518A (en) * 2003-01-08 2004-07-29 Sony Corp Information processor, method for processing information and computer program
JP2005157611A (en) * 2003-11-25 2005-06-16 Canon Inc Image processor and image processing method
JP2005242854A (en) * 2004-02-27 2005-09-08 Nippon Telegr & Teleph Corp <Ntt> Method and device for displaying three-dimensional data, and program
JP2008500624A (en) * 2004-05-24 2008-01-10 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー System and method for operating in a virtual three-dimensional space and system for selecting operations via a visualization system
US8094120B2 (en) 2004-05-24 2012-01-10 3D For All Szamitastechnikai Fejlezto KFT System and method for operating in virtual 3D space and system for selecting an operation via a visualizing system
JP2006048639A (en) * 2004-06-29 2006-02-16 Canon Inc Method and apparatus for processing information
JP4677273B2 (en) * 2004-06-29 2011-04-27 キヤノン株式会社 Information processing method and information processing apparatus
JP2006018444A (en) * 2004-06-30 2006-01-19 Taisei Corp Image processing system and additional information indicating device
US7808524B2 (en) 2004-07-30 2010-10-05 Industry-University Cooperation Foundation Hanyang University Vision-based augmented reality system using invisible marker
JP2008508591A (en) * 2004-07-30 2008-03-21 インダストリー ユニバーシティー コーポレーション ファウンデーション ハンヤン ユニバーシティー Vision-based augmented reality system using markers invisible to the naked eye
USRE45031E1 (en) 2004-07-30 2014-07-22 Industry-University Cooperation Foundation Hanyang University Vision-based augmented reality system using invisible marker
WO2006025137A1 (en) * 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. Image processor, game machine, and image processing method
US7991220B2 (en) 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
JP2006127158A (en) * 2004-10-28 2006-05-18 Canon Inc Image processing method and image processor
JP4533087B2 (en) * 2004-10-28 2010-08-25 キヤノン株式会社 Image processing method and image processing apparatus
JP4738870B2 (en) * 2005-04-08 2011-08-03 キヤノン株式会社 Information processing method, information processing apparatus, and remote mixed reality sharing apparatus
JP2006293604A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing method, information processor, and remote mixed reality sharing device
WO2006125423A3 (en) * 2005-05-23 2007-01-04 Martin Altmeyer Method and device for generating optical effects on a two-dimensional object
WO2006125423A2 (en) * 2005-05-23 2006-11-30 Martin Altmeyer Method and device for generating optical effects on a two-dimensional object
JP2007066080A (en) * 2005-08-31 2007-03-15 Casio Comput Co Ltd Pointing device
WO2007053116A1 (en) * 2005-10-31 2007-05-10 National University Of Singapore Virtual interface system
JP2007265061A (en) * 2006-03-29 2007-10-11 Gifu Univ Section visualization device
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2008009646A (en) * 2006-06-28 2008-01-17 Canon Inc Image processor and image processing method
JP2008040556A (en) * 2006-08-01 2008-02-21 Canon Inc Compound sense of reality presenting device and its control method and program
JP2008117083A (en) * 2006-11-01 2008-05-22 Sharp Corp Coordinate indicating device, electronic equipment, coordinate indicating method, coordinate indicating program, and recording medium with the program recorded thereon
JP2013061978A (en) * 2007-01-05 2013-04-04 Total Immersion Method and devices for real time insertion of virtual objects in image stream using data from real scene represented by the images
JP2010515189A (en) * 2007-01-05 2010-05-06 トタル イメルシオン Method and apparatus for inserting virtual objects in real time into an image stream using data from a real scene represented by an image
US9324229B2 (en) 2007-03-08 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2009036517A (en) * 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2009147480A (en) * 2007-12-12 2009-07-02 Gifu Univ Calibration apparatus of projection system
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
JP2010146481A (en) * 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
JP2010152570A (en) * 2008-12-25 2010-07-08 Yamaha Corp Pointing system
JP2011015831A (en) * 2009-07-09 2011-01-27 Shimadzu Corp Head motion tracker
KR101757930B1 (en) * 2010-02-12 2017-07-13 삼성전자주식회사 Data Transfer Method and System
JP2011180867A (en) * 2010-03-02 2011-09-15 Brother Industries Ltd Head-mounted display
JP2011237987A (en) * 2010-05-10 2011-11-24 Olympus Corp Operation input device and manipulator system
EP2570890A4 (en) * 2010-05-10 2016-12-07 Olympus Corp Operation input device and manipulator system
US9361818B2 (en) 2010-05-10 2016-06-07 Olympus Corporation Operation input device and manipulator system
JP2012014690A (en) * 2010-06-30 2012-01-19 Pantech Co Ltd Apparatus and method for providing three-dimensional augmented reality
US8970625B2 (en) 2010-12-22 2015-03-03 Zspace, Inc. Three-dimensional tracking of a user control device in a volume
US9201568B2 (en) 2010-12-22 2015-12-01 Zspace, Inc. Three-dimensional tracking of a user control device in a volume
WO2012088285A3 (en) * 2010-12-22 2012-10-26 Infinite Z, Inc. Three-dimensional tracking of a user control device in a volume
JP2012174219A (en) * 2011-02-24 2012-09-10 Ohbayashi Corp Image composition method
US9459706B2 (en) 2011-09-06 2016-10-04 Biglobe, Inc. Information display system, information display method, and recording medium
JP2013054661A (en) * 2011-09-06 2013-03-21 Nec Biglobe Ltd Information display system, information display method and program for information display
WO2013035758A1 (en) * 2011-09-06 2013-03-14 Necビッグローブ株式会社 Information display system, information display method, and storage medium
KR101279869B1 (en) 2012-03-23 2013-06-28 국방과학연구소 Apparatus and method for displaying flight simulator image using head mounted display
JP2013214285A (en) * 2012-04-03 2013-10-17 Boeing Co:The System and method for virtual engineering
JP2013222280A (en) * 2012-04-16 2013-10-28 Seiko Epson Corp Projector, control method for the same, program and projection system
CN103809687B (en) * 2012-11-06 2017-10-13 索尼电脑娱乐公司 Head mounted display, motion detector and method, image presentation system and program
US10241331B2 (en) 2012-11-06 2019-03-26 Sony Interactive Entertainment Inc. Head mounted display, motion detector, motion detection method, image presentation system and program
CN103809687A (en) * 2012-11-06 2014-05-21 索尼电脑娱乐公司 Head mounted display, motion detector, motion detection method, image presentation system and program
JP2014093703A (en) * 2012-11-06 2014-05-19 Sony Computer Entertainment Inc Head mount display, movement detection device, movement detection method and video presentation system
US9448405B2 (en) * 2012-11-06 2016-09-20 Sony Corporation Head mounted display, motion detector, motion detection method, image presentation system and program
JP2014093704A (en) * 2012-11-06 2014-05-19 Sony Computer Entertainment Inc Head mount display and movement detection method
US20140125579A1 (en) * 2012-11-06 2014-05-08 Sony Computer Entertainment Inc. Head mounted display, motion detector, motion detection method, image presentation system and program
JP2014132719A (en) * 2013-01-07 2014-07-17 Seiko Epson Corp Display device and control method for display device
JP2016520225A (en) * 2013-05-07 2016-07-11 コミサリア ア レネルジ アトミク エ オウ エネルジ アルタナティヴ Method for controlling a graphical interface for displaying an image of a three-dimensional object
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US11231817B2 (en) 2014-01-17 2022-01-25 Mentor Acquisition One, Llc External user interface for head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9436006B2 (en) 2014-01-21 2016-09-06 Osterhout Group, Inc. See-through computer display systems
US11099380B2 (en) 2014-01-21 2021-08-24 Mentor Acquisition One, Llc Eye imaging in head worn computing
US10139632B2 (en) 2014-01-21 2018-11-27 Osterhout Group, Inc. See-through computer display systems
US10001644B2 (en) 2014-01-21 2018-06-19 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9377625B2 (en) 2014-01-21 2016-06-28 Osterhout Group, Inc. Optical configurations for head worn computing
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9529192B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9958674B2 (en) 2014-01-21 2018-05-01 Osterhout Group, Inc. Eye imaging in head worn computing
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9538915B2 (en) 2014-01-21 2017-01-10 Osterhout Group, Inc. Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9933622B2 (en) 2014-01-21 2018-04-03 Osterhout Group, Inc. See-through computer display systems
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9927612B2 (en) 2014-01-21 2018-03-27 Osterhout Group, Inc. See-through computer display systems
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US9885868B2 (en) 2014-01-21 2018-02-06 Osterhout Group, Inc. Eye imaging in head worn computing
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9651783B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9651788B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9651789B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-Through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9658458B2 (en) 2014-01-21 2017-05-23 Osterhout Group, Inc. See-through computer display systems
US9658457B2 (en) 2014-01-21 2017-05-23 Osterhout Group, Inc. See-through computer display systems
US9829703B2 (en) 2014-01-21 2017-11-28 Osterhout Group, Inc. Eye imaging in head worn computing
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9772492B2 (en) 2014-01-21 2017-09-26 Osterhout Group, Inc. Eye imaging in head worn computing
US9684165B2 (en) 2014-01-21 2017-06-20 Osterhout Group, Inc. Eye imaging in head worn computing
US9684171B2 (en) 2014-01-21 2017-06-20 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9746676B2 (en) 2014-01-21 2017-08-29 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9740012B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. See-through computer display systems
US9720227B2 (en) 2014-01-21 2017-08-01 Osterhout Group, Inc. See-through computer display systems
US9720234B2 (en) 2014-01-21 2017-08-01 Osterhout Group, Inc. See-through computer display systems
US9720235B2 (en) 2014-01-21 2017-08-01 Osterhout Group, Inc. See-through computer display systems
US9939646B2 (en) 2014-01-24 2018-04-10 Osterhout Group, Inc. Stray light suppression for head worn computing
US9843093B2 (en) 2014-02-11 2017-12-12 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9841602B2 (en) 2014-02-11 2017-12-12 Osterhout Group, Inc. Location indicating avatar in head worn computing
US9784973B2 (en) 2014-02-11 2017-10-10 Osterhout Group, Inc. Micro doppler presentations in head worn computing
US9928019B2 (en) 2014-02-14 2018-03-27 Osterhout Group, Inc. Object shadowing in head worn computing
US9547465B2 (en) 2014-02-14 2017-01-17 Osterhout Group, Inc. Object shadowing in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9423612B2 (en) 2014-03-28 2016-08-23 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US10877270B2 (en) 2014-06-05 2020-12-29 Mentor Acquisition One, Llc Optical configurations for head-worn see-through displays
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US10139635B2 (en) 2014-06-09 2018-11-27 Osterhout Group, Inc. Content presentation in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9720241B2 (en) 2014-06-09 2017-08-01 Osterhout Group, Inc. Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
WO2015195444A1 (en) * 2014-06-17 2015-12-23 Osterhout Group, Inc. External user interface for head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US11269182B2 (en) 2014-07-15 2022-03-08 Mentor Acquisition One, Llc Content presentation in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
CN105607255B (en) * 2014-11-17 2020-03-10 精工爱普生株式会社 Head-mounted display device, method of controlling the same, and computer-readable storage medium
CN105607255A (en) * 2014-11-17 2016-05-25 精工爱普生株式会社 Head-mounted display device, method of controlling head-mounted display device, and computer program
JP2016095779A (en) * 2014-11-17 2016-05-26 セイコーエプソン株式会社 Head-mounted type display device, method of controlling head-mounted type display device, and computer program
US10627620B2 (en) 2014-11-17 2020-04-21 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
JP2016110177A (en) * 2014-12-02 2016-06-20 株式会社トプコン Three-dimensional input device and input system
US9658685B2 (en) 2014-12-02 2017-05-23 Kabushiki Kaisha Topcon Three-dimensional input device and input system
EP3029547A1 (en) * 2014-12-02 2016-06-08 Kabushiki Kaisha Topcon Three-dimensional input device and input system
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD792400S1 (en) 2014-12-31 2017-07-18 Osterhout Group, Inc. Computer glasses
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD794637S1 (en) 2015-01-05 2017-08-15 Osterhout Group, Inc. Air mouse
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US10062182B2 (en) 2015-02-17 2018-08-28 Osterhout Group, Inc. See-through computer display systems
US10234955B2 (en) 2015-09-28 2019-03-19 Nec Corporation Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
WO2017057107A1 (en) * 2015-09-28 2017-04-06 日本電気株式会社 Input device, input method, and program
JPWO2017122274A1 (en) * 2016-01-12 2018-11-01 サン電子株式会社 Image display device
WO2017122274A1 (en) * 2016-01-12 2017-07-20 サン電子株式会社 Image display device
JP6142462B1 (en) * 2016-02-17 2017-06-07 株式会社菊池製作所 Superimposed image display system
JP2017146759A (en) * 2016-02-17 2017-08-24 株式会社菊池製作所 Overlapping image display system
JP2017191546A (en) * 2016-04-15 2017-10-19 ミラマ サービス インク Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP7456047B2 (en) 2016-04-26 2024-03-26 マジック リープ, インコーポレイテッド Electromagnetic tracking using augmented reality systems
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
JP2019175294A (en) * 2018-03-29 2019-10-10 富士通株式会社 Display control program, apparatus therefor, and method thereof
WO2022003512A1 (en) * 2020-07-01 2022-01-06 Wacom Co., Ltd. Systems and methods for dynamic sketching with exaggerated content
CN117351074A (en) * 2023-08-31 2024-01-05 中国科学院软件研究所 Viewpoint position detection method and device based on head-mounted eye tracker and depth camera

Similar Documents

Publication Publication Date Title
JP2000102036A (en) Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
US7952594B2 (en) Information processing method, information processing apparatus, and image sensing apparatus
JP4642538B2 (en) Image processing method and image processing apparatus
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
EP1404126B1 (en) Video combining apparatus and method
TW572748B (en) A guide system and a probe therefor
JP4883774B2 (en) Information processing apparatus, control method therefor, and program
JP4795091B2 (en) Information processing method and apparatus
JP4533087B2 (en) Image processing method and image processing apparatus
US20050174361A1 (en) Image processing method and apparatus
WO2014141504A1 (en) Three-dimensional user interface device and three-dimensional operation processing method
JP4847195B2 (en) How to get color information from an image
JP2005339266A (en) Information processing method, information processor and imaging device
JP2009087161A (en) Image processor and image processing method
EP4135583A1 (en) System and method for augmented reality data interaction for ultrasound imaging
JP4678428B2 (en) Virtual space position pointing device
US20030179249A1 (en) User interface for three-dimensional data sets
US20220175485A1 (en) Method for operating a visualization system in a surgical application, and visualization system for a surgical application
JP2005339267A (en) Information processing method, information processor and imaging device
JP2006085375A (en) Image processing method and image processor
JP3780146B2 (en) Surgical navigation device
JP2007293412A (en) Information processing method and apparatus
US11771506B2 (en) Method and system for controlling dental machines
JP7464933B2 (en) Display device and display system
CN115624384B (en) Operation auxiliary navigation system, method and storage medium based on mixed reality technology