JPH09147142A - Displaying method and device therefor - Google Patents

Displaying method and device therefor

Info

Publication number
JPH09147142A
JPH09147142A JP7306266A JP30626695A JPH09147142A JP H09147142 A JPH09147142 A JP H09147142A JP 7306266 A JP7306266 A JP 7306266A JP 30626695 A JP30626695 A JP 30626695A JP H09147142 A JPH09147142 A JP H09147142A
Authority
JP
Japan
Prior art keywords
image
orientation
observer
observed object
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7306266A
Other languages
Japanese (ja)
Inventor
Takao Kakizaki
隆夫 柿崎
Yoshimasa Yanagihara
義正 柳原
Kenichi Arakawa
賢一 荒川
Hikari Umeno
光 梅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7306266A priority Critical patent/JPH09147142A/en
Publication of JPH09147142A publication Critical patent/JPH09147142A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To smoothly perform a work by using the result from that an observer freely observes by detecting the location and attitude of each of the observer and an object to be observed and determining the location/attitude and the size by using the result. SOLUTION: When a pallet 11 moves in a three-dimensional direction, a robot 10 transmits the location/attitude information on an object 70 to be observed to a 6-degree of freedom robot controller 20. When an arbitrary three- dimensional direction by an observer 90 exists, a display device 60 transfers the location/attitude information on the display device 60 to a 6-axis positioning mechanism controller 40 via a positioning mechanism 50. A location/attitude detector 80 for observer acquires the location/attitude information on the observer 90. A display device controller 30 performs a coordinate conversion by using the location/attitude information on each of an object 70 to be observed from the robot controller 20 and the display device 60 from the positioning mechanism controller 40 and the observer 90 from the location/attitude detector 80 for observer and the computer graphics model of the object 70 to be observed is made to be displayed on the display device 60.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、表示方法及び装置
に係り、特に、コンピュータ画像を観察者の作業支援に
利用するロボット分野、機器メンテナンス分野、または
外科医療分野等で使用されるヒューマンインタフェース
における表示方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display method and device, and more particularly to a human interface used in a robot field, a device maintenance field, a surgical medical field, etc., in which a computer image is used to support an observer's work. A display method and device.

【0002】近年、コンピュータハードウェア、コンピ
ュータグラフィクス、画像処理技術等の急速な進展に伴
い、テレロボティクス分野、機器メンテナンス分野、外
科医療分野等でコンピュータによって処理あるいは生成
された画像を、作業支援に利用する技術が活発に導入さ
れ始めている。中でも人間が知覚する実世界の情報と、
コンピュータで処理された画像情報とを相補的に用い
て、観察や作業を効果的に行おうとする拡大現実の考え
方が盛んになってきている。
In recent years, with the rapid progress of computer hardware, computer graphics, image processing technology, etc., images processed or generated by computers in the fields of telerobotics, equipment maintenance, surgery and medical fields are used for work support. The technology to do so is being actively introduced. Above all, real-world information that humans perceive,
The concept of augmented reality is becoming popular in which observation and work are effectively performed by complementarily using image information processed by a computer.

【0003】[0003]

【従来の技術】以下の従来の技術では、医療応用の分野
を例に説明する。従来の医療応用分野における表示装置
について説明する。図7は、従来の表示装置を説明する
ための図である。従来の医療応用分野における表示装置
の例として、「3次元プロッタ手法を用いた臓器の立体
表示及び生体との合成観察の試み」(映像情報(M),
Vol. 26, No.20, p.1169)がある。この技術では、空間
で輝点を結像させる特殊な表示器2を用いて、医療診断
データに基づく3次元立体図形3を描き、それをハーフ
ミラー4を通して、被観察物体である人体5の部位と重
ね合わせて見ようとする装置であり、観察者1(医者)
である人間に有用な情報を提供する。この装置では、観
察者1が、被観察物体である人体5と医療データに基づ
くコンピュータ処理画像とを一定の条件下で重ね合わせ
ることができるというメリットを持つ。
2. Description of the Related Art In the following conventional techniques, the field of medical application will be described as an example. A display device in a conventional medical application field will be described. FIG. 7 is a diagram for explaining a conventional display device. As an example of a conventional display device in the medical application field, “trial display of an organ in three dimensions using a three-dimensional plotter method and trial of synthetic observation with a living body” (image information (M),
Vol. 26, No. 20, p. 1169). In this technique, a special display 2 for forming an image of a bright spot in space is used to draw a three-dimensional solid figure 3 based on medical diagnosis data, which is passed through a half mirror 4 to a part of a human body 5 which is an object to be observed. Observer 1 (doctor)
Provide useful information to human beings. This device has an advantage that the observer 1 can superimpose the human body 5 as the observed object and the computer-processed image based on the medical data under a certain condition.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来の表示装置は、表示器が固定されていること、また、
観察者の位置や、表示器の位置・姿勢等を観測する手段
がないため、観察者は、常にある一定の位置・姿勢で、
しかも定位置・姿勢に固定された表示器をみなければな
らず、作業性において著しく不便であるという問題を有
する。
However, in the above conventional display device, the display is fixed, and
Since there is no means for observing the position of the observer or the position / orientation of the display, the observer always has a certain position / orientation.
In addition, it is necessary to look at the indicator fixed in a fixed position / posture, which is a problem in terms of workability.

【0005】このように、従来の技術では、観察者は所
定の位置・姿勢で、しかも定位置・姿勢に固定された表
示器を見なければならないため、自由度を以て観察し、
しかも観察結果を利用しつつ円滑に作業を行うことが困
難であるという問題を有する。
As described above, in the conventional technique, the observer must look at the display unit fixed at a predetermined position / posture and at a fixed position / posture.
Moreover, there is a problem that it is difficult to smoothly perform the work while utilizing the observation result.

【0006】本発明は、上記の点に鑑みなされたもの
で、観察者は、常にある一定の位置・姿勢で、しかも定
まった位置・姿勢に固定された表示器を見なければなら
ないという従来技術の欠点を解決し、観察者が自由度を
以て観察し、しかも、その観察結果を利用しつつ、円滑
に作業を行うことが可能な表示方法及び装置を提供する
ことを目的とする。
The present invention has been made in view of the above points, and an observer always has to look at a display unit fixed at a fixed position / posture at a certain fixed position / posture. It is an object of the present invention to provide a display method and a device which solve the above-mentioned drawbacks, allow an observer to observe with a degree of freedom, and use the observation result while smoothly performing work.

【0007】[0007]

【課題を解決するための手段】本発明は、観察者に画像
を表示により提示するための表示方法において、観察者
及び被観察物体のそれぞれの位置及び姿勢を検出し、検
出されたそれぞれの位置・姿勢を用いて、表示する画像
の位置・姿勢及びサイズを決定する。
SUMMARY OF THE INVENTION The present invention is a display method for presenting an image to an observer by displaying, detecting the respective positions and orientations of the observer and the observed object, and detecting the respective positions. -Determine the position, orientation and size of the image to be displayed using the orientation.

【0008】また、本発明は、表示する際に、被観察物
体のコンピュータグラフィクスモデルを画像の一部とし
て表示する。また、本発明は、表示する際に、被観察物
体の撮像された実映像を画像の一部として表示する。
Further, according to the present invention, the computer graphics model of the observed object is displayed as a part of the image when the image is displayed. Further, according to the present invention, when displaying, the captured real image of the observed object is displayed as a part of the image.

【0009】また、本発明は、観察者から見た被観察物
体の位置・姿勢及びサイズのうち少なくとも一つ以上合
致するように、コンピュータグラフィクスモデルの位置
・姿勢及びサイズを決定し、表示する。また、本発明
は、撮像器の位置・姿勢を検出し、被観察物体を撮像
し、撮像された実映像を画像の一部として用い、表示す
る実映像の位置・姿勢及びサイズのうち、少なくとも1
つ以上合致するようにコンピュータグラフィクスモデル
の位置・姿勢及びサイズを決定する。
Further, according to the present invention, the position / orientation and size of the computer graphics model are determined and displayed so that at least one of the position / orientation and size of the observed object viewed from the observer matches. Further, the present invention detects at least the position / orientation of the image pickup device, images the object to be observed, uses the picked-up real video as a part of the image, and displays at least the position / posture and size of the real video to be displayed. 1
The position, orientation, and size of the computer graphics model are determined so that they match at least one.

【0010】図1は、本発明の原理構成図である。本発
明は、観察者200に画像を提示するための表示装置で
あって、画像を表示するための表示手段300と、観察
者200及び被観察物体100のそれぞれの位置及び姿
勢を検出する位置・姿勢検出手段400と、位置・姿勢
検出手段400において検出されたそれぞれの位置・姿
勢を用いて表示手段300上での画像の位置・姿勢及び
サイズを決定する決定手段500を有する。
FIG. 1 is a diagram showing the principle of the present invention. The present invention is a display device for presenting an image to an observer 200, a display unit 300 for displaying an image, and a position / position for detecting the position and orientation of each of the observer 200 and the observed object 100. The posture detection unit 400 and the determination unit 500 that determines the position / posture and size of the image on the display unit 300 using the respective positions / postures detected by the position / posture detection unit 400 are included.

【0011】また、本発明は、被観察物体100のコン
ピュータグラフィクスモデルを画像の一部に用いる画像
付加手段を更に有する。また、本発明の上記の画像付加
手段は、観察者からみた被観察物体の位置・姿勢及びサ
イズのうち、少なくとも一つ以上に合致するように、表
示手段上でのコンピュータグラフィックスモデルの位置
・姿勢及びサイズを決定する。
Further, the present invention further comprises image adding means for using the computer graphics model of the observed object 100 as a part of the image. Further, the image adding means of the present invention, the position of the computer graphics model on the display means, so as to match at least one or more of the position, orientation and size of the observed object seen from the observer. Determine posture and size.

【0012】また、本発明は、被観察物体を撮像する撮
像手段を更に有し、撮像手段により撮像された実映像
を、画像の一部に用いる。また、本発明の表示手段には
半透過型を用いる。本発明は、被観察物体を撮像する撮
像手段と、撮像手段の位置・姿勢を検出する検出手段
と、撮像手段により撮像された実映像を画像の一部に用
いると共に、表示手段上での該実映像の位置・姿勢及び
サイズのうち少なくとも1つ以上合致するように、表示
手段上でのコンピュータグラフィックスモデルの位置・
姿勢及びサイズを決定するコンピュータグラフィクスモ
デル決定手段を有する。
Further, the present invention further has an image pickup means for picking up an image of the object to be observed, and the actual image picked up by the image pickup means is used as a part of the image. Further, a semi-transmissive type is used as the display means of the present invention. The present invention uses an image pickup means for picking up an object to be observed, a detection means for detecting the position / orientation of the image pickup means, a real image picked up by the image pickup means as a part of an image, and The position of the computer graphics model on the display means so that at least one of the position / orientation and size of the actual image matches.
It has a computer graphics model determining means for determining a posture and a size.

【0013】本発明によれば、観察者、被観察物の位置
・姿勢を自動的に検出するため、観察者が定位置に居る
必要はなく、任意の場所で被観察物体を観察することが
可能となる。さらに、表示装置も可動であるため、観察
者は表示装置を任意の位置に移動させて当該被観察物体
を観察することも可能である。
According to the present invention, since the position and orientation of the observer and the object to be observed are automatically detected, it is not necessary for the observer to be in a fixed position, and the object to be observed can be observed at any place. It will be possible. Further, since the display device is also movable, the observer can move the display device to an arbitrary position to observe the observed object.

【0014】さらに、撮像する手段を用いて、撮像した
実映像を画像の一部として上記の表示装置に実世界の情
報と共に相補的に表示するため、撮像による観察結果を
利用しつつ、作業を行うことも可能となる。
Further, since the captured real image is displayed as a part of the image on the display device together with the real world information by using the image pickup means, the work can be performed while utilizing the observation result of the image pickup. It is also possible to do it.

【0015】[0015]

【発明の実施の形態】図2は、本発明の表示装置の構成
図である。同図に示す表示装置は、被観察物体70を保
持し、x,y,z軸に可動するロボット10、被観察物
体70を設置するパレット11、ロボット10の位置・
姿勢を検出すると共に、制御する6自由度ロボットコン
ローラ20、表示器60を保持する6自由度位置決め機
構50、その6自由度位置決め機構50からの表示器6
0の位置・姿勢を検出すると共に、表示器60の設定位
置を制御する6自由位置決め機構40、発信器90を用
いて観察者の位置・姿勢を検出する観察者用位置・姿勢
検出部80、表示装置コントローラ30より構成され
る。
FIG. 2 is a block diagram of a display device of the present invention. The display device shown in the figure holds the object to be observed 70 and is movable along the x, y, and z axes, the robot 10, the pallet 11 on which the object to be observed 70 is installed, the position of the robot 10.
6-DOF robot controller 20 for detecting and controlling posture, 6-DOF positioning mechanism 50 for holding the display 60, and display 6 from the 6-DOF positioning mechanism 50
An observer position / orientation detector 80 for detecting the position / orientation of 0 and controlling the set position of the display 60, a 6 free positioning mechanism 40, and an observer's position / orientation using the transmitter 90, It is composed of a display device controller 30.

【0016】ロボット10は、パレット11に接続され
ており、パレット11がx,y,z方向に動くと当該情
報を被観察物体70の位置・姿勢情報として6自由度ロ
ボットコンローラ20に伝える。6自由度ロボットコン
ローラ20は、ロボット10からの被観察物体700の
位置・姿勢情報を表示装置コントローラ30に転送す
る。
The robot 10 is connected to the pallet 11, and when the pallet 11 moves in the x, y, and z directions, the information is transmitted to the 6-DOF robot controller 20 as position / orientation information of the object 70 to be observed. The 6-DOF robot controller 20 transfers the position / orientation information of the observed object 700 from the robot 10 to the display device controller 30.

【0017】表示器60は、観察者90により任意の3
次元方向(x,y,z)に動かすことが可能であり、動
きがあると、当該表示器60の位置・姿勢情報を位置決
め機構50に転送する。位置決め機構50は、表示器6
0に接続され、表示器60から転送された位置・姿勢情
報を6軸位置決め機構コントローラ40に転送する。
The display unit 60 displays an arbitrary 3 by the observer 90.
It is possible to move in the dimensional directions (x, y, z), and when there is a movement, the position / orientation information of the display 60 is transferred to the positioning mechanism 50. The positioning mechanism 50 is the display 6
The position / orientation information transferred from the display device 60 is transferred to the 6-axis positioning mechanism controller 40.

【0018】6軸位置決め機構コンローラ40は、表示
器60のある時点における位置・姿勢情報を表示装置コ
ントローラ30に転送する。観察者用位置姿勢検出部8
0は、観察者90の位置・姿勢情報を取得し、表示装置
コントローラ30に転送する。なお、観察者用位置姿勢
検出部80は、観察者90の位置・姿勢の情報を認識で
きるものであればよい。
The 6-axis positioning mechanism controller 40 transfers the position / orientation information of the display device 60 at a certain point of time to the display device controller 30. Observer position / orientation detector 8
0 acquires the position / orientation information of the observer 90 and transfers it to the display device controller 30. The observer position / orientation detection unit 80 may be any device that can recognize the position / orientation information of the observer 90.

【0019】表示装置コントローラ30は、表示器60
上での画像の位置・姿勢及びサイズを決定する表示制御
部31、観察物体のコンピュータグラフィクスモデルを
生成するグラフィクス生成部32及び 観察者の位置・
姿勢データを用いて座標変換を行う座標変換部33から
なり、パーソナルコンピュータにより実現される。表示
装置コントローラ30は、6自由度ロボットコントロー
ラ20から入力された被観察物体の位置・姿勢情報、6
軸位置決め機構コントローラ40から入力された表示器
60の位置・姿勢情報、及び観察者用位置・姿勢検出器
80から入力された位置・姿勢情報を用いて座標変換を
行い、被観察物体70のコンピュータグラフィクスモデ
ルを表示器60に表示するよう制御する。
The display device controller 30 includes a display device 60.
A display control unit 31 that determines the position / orientation and size of the image on the above, a graphics generation unit 32 that generates a computer graphics model of the observed object, and a position of the observer
The coordinate conversion unit 33 performs coordinate conversion using the posture data, and is realized by a personal computer. The display device controller 30 controls the position / orientation information of the observed object input from the 6-DOF robot controller 20,
The position / orientation information of the display device 60 input from the axis positioning mechanism controller 40 and the position / orientation information input from the observer position / orientation detector 80 are used to perform coordinate conversion, and a computer of the observed object 70 is displayed. The graphics model is controlled to be displayed on the display 60.

【0020】また、観察者90は、観察者用位置姿勢検
出器80からの位置・姿勢の検出に対して、例えば、位
置検出信号を発出するような、観察者用位置姿勢検出器
80が観察者の位置・姿勢が検出できる手段であればよ
い。この表示装置は以下のように使用される。即ち、被
観察物体70に対して、組み立て、整備、保守、修理等
を行う観察者は、表示器60に表示される画像情報によ
って、被観察物体の位置・姿勢を修正したり、機器部品
の正しい位置を確認したり、欠落した部品を確認した
り、組立順序の指示を実物である被観察物体と画像情報
と比較しながら検証したりすることができる。
In addition, the observer 90 observes the position / orientation detector 80 for observer, which outputs a position detection signal, for example, in response to the detection of the position / orientation from the observer position / orientation detector 80. Any means that can detect the position / orientation of the person may be used. This display device is used as follows. That is, an observer who assembles, maintains, maintains, or repairs the observed object 70 corrects the position / orientation of the observed object or adjusts the device parts according to the image information displayed on the display 60. It is possible to confirm the correct position, confirm the missing parts, and verify the instruction of the assembly order while comparing the observed object that is a real object and the image information.

【0021】[0021]

【実施例】以下、図面と共に、本発明の実施例を説明す
る。図3は、本発明の第1の実施例の表示位置コントロ
ーラの構成を示す。同図に示す表示位置コントーラ30
は、図2に示す表示器制御部31、グラフィクス生成部
32、座標変換部33に加えて、6自由度ロボットコン
トローラ20より入力される被観察物体70の位置・姿
勢情報を記憶する被観察物体位置・姿勢記憶部34、観
察者用位置姿勢検出部80より入力される観察者の位置
・姿勢情報を記憶する観察者位置・姿勢記憶部35、及
び表示器60から入力される表示器60の位置・姿勢情
報を記憶する表示器位置・姿勢記憶部36より構成され
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 3 shows the configuration of the display position controller according to the first embodiment of the present invention. Display position controller 30 shown in FIG.
Is an object to be observed which stores position / orientation information of the object to be observed 70 input from the 6-degree-of-freedom robot controller 20 in addition to the display controller 31, the graphics generator 32, and the coordinate converter 33 shown in FIG. The position / orientation storage unit 34, the observer position / orientation storage unit 35 that stores the position / orientation information of the observer that is input from the observer position / orientation detection unit 80, and the display 60 that is input from the display unit 60. The display position / orientation storage unit 36 stores the position / orientation information.

【0022】これにより、座標変換部33は、被観察物
体位置・姿勢記憶部34から現在の被観察物体70の位
置・姿勢情報を取得して、被観察物体座標Σwを設定す
る。また、座標変換部33は、観察者位置・姿勢記憶部
35より現在の観察者90の位置・姿勢情報に基づいて
観察者ビューイング座標Σviewを設定する。また、座標
変換部33は、表示器位置・姿勢記憶部36より現在の
表示器60の位置・姿勢情報を取得して表示器座標Σ
dispを設定する。
As a result, the coordinate conversion unit 33 acquires the current position / orientation information of the observed object 70 from the observed object position / orientation storage unit 34 and sets the observed object coordinates Σw. The coordinate conversion unit 33 also sets the observer viewing coordinates Σ view based on the current position / orientation information of the observer 90 from the observer position / orientation storage unit 35. Further, the coordinate conversion unit 33 acquires the current position / orientation information of the display unit 60 from the display unit position / orientation storage unit 36 and displays the display unit coordinates Σ.
Set disp .

【0023】グラフィクス生成部32は、座標変換部3
3により求められたいま、観察者90が見ている観察者
ビューイング座標Σviewと表示器座標Σdispの関係から
被観測物体100のコンピュータグラフィクス画像を生
成する。表示器制御部31は、グラフィクス生成部32
により生成されたコンピュータグラフィクス画像を表示
器60上の位置や表示サイズ等の制御を行い、表示器6
0に表示するための制御を行う。
The graphics generation unit 32 includes a coordinate conversion unit 3
3, the computer graphics image of the observed object 100 is generated from the relationship between the observer viewing coordinate Σ view that the observer 90 is currently viewing and the display device coordinate Σ disp . The display controller 31 includes a graphics generator 32.
The computer graphics image generated by the control unit 6 controls the position on the display unit 60, the display size, etc.
Control for displaying 0.

【0024】図4は、本発明の第1の実施例の被観察物
体の観察系の概略を示す。以下で扱う座標系は全て直交
座標系とする。はじめに、観察空間に基準座標としてグ
ローバル座標Σg(X,Y,Z)をとる。Z軸は、鉛直
方向と一致させる。前述の図2に示す表示装置の構成図
及び図3に示す表示装置コントローラ30の構成図に基
づいて動作を説明する。
FIG. 4 schematically shows an observation system for observing an object to be observed according to the first embodiment of the present invention. All coordinate systems handled below are orthogonal coordinate systems. First, global coordinates Σg (X, Y, Z) are taken as reference coordinates in the observation space. The Z axis is aligned with the vertical direction. The operation will be described based on the configuration diagram of the display device shown in FIG. 2 and the configuration diagram of the display device controller 30 shown in FIG.

【0025】被観察物体70の位置・姿勢は、ロボット
10の手先のパレット11上に既知の位置・姿勢で保持
される。この目的を達成するため、ロボット10の関節
のエンコーダ信号をA/D変換器(図示せず)を介し
て、関節角度が獲得され、次いで、順運動学の演算器
(図示せず)により手先の位置・姿勢が算出され、この
値が被観察物体位置・姿勢記憶部34に格納される。こ
こで、被観察物体70のほぼ中心に被観察物体座標Zw
を設定する。従って、ロボット10の手先の位置・姿勢
と被観察物体座標Zwとの関係から被観察物体の位置・
姿勢は、基準座標Zgからみた被観察物体座標Zwの関
係として同定される。ここでの操作は一般的な3Dグラ
フィックス処理におけるモデリング変換に相当する。
The position / orientation of the object 70 to be observed is held on the pallet 11 at the hand of the robot 10 at a known position / orientation. In order to achieve this purpose, the encoder signal of the joint of the robot 10 is obtained through the A / D converter (not shown) to obtain the joint angle, and then the forward kinematics calculator (not shown) is used. Position / orientation is calculated, and this value is stored in the observed object position / orientation storage unit 34. Here, the observed object coordinate Zw is approximately at the center of the observed object 70.
Set. Therefore, from the relationship between the position and orientation of the hand of the robot 10 and the observed object coordinates Zw, the position of the observed object
The posture is identified as a relationship of the observed object coordinates Zw viewed from the reference coordinates Zg. The operation here corresponds to modeling conversion in general 3D graphics processing.

【0026】被観察物体の3次元コンピュータグラフィ
ックスモデルは、被観察物体座標Zwと同様な関係で記
述しておく。ここでは、処理及び表示の高速性を考慮し
てワイヤフレームモデルを採用している。手動の6軸移
動機構を有する位置決め機構50に保持されている表示
器60の位置・姿勢も同じく基準座標Zgから見た表示
器座標Zdispの関係として同定され、表示器位置・姿勢
記憶部36に格納される。この機構は、バックドライバ
ブルであり、観察者90が表示器60を掴んで好みの位
置・姿勢に設定することが可能である。図2に示すよう
に、表示器60もx,y,z軸方向に可動する。
The three-dimensional computer graphics model of the observed object is described in the same relationship as the observed object coordinates Zw. Here, the wire frame model is adopted in consideration of high-speed processing and display. The position / orientation of the display device 60 held by the positioning mechanism 50 having the manual 6-axis moving mechanism is also identified as the relationship of the display device coordinates Z disp as viewed from the reference coordinates Zg, and the display device position / orientation storage unit 36 is also provided. Stored in. This mechanism is back-drivable, and the observer 90 can grab the display 60 and set the desired position and orientation. As shown in FIG. 2, the display device 60 is also movable in the x-, y-, and z-axis directions.

【0027】観察者90の位置・姿勢は観察者の代表点
として、観察者ビューイング座標Σ viewで表す。この観
察者ビューイング座標Σviewの原点をビュー参照点Ov
とし、基準座標Σgで表した位置ベクトルとして、以下
のように表す。g view = [px y z 1]T 観察者90の位置・姿勢は、画像処理を用いた位置・姿
勢検出器80により基準座標Σgから見た観察者ビュー
イング座標Σviewの関係として同定される。位置姿勢検
出器80は、赤外フィルタを付けた複数のCCDカメラ
85を作業空間内に配置し、観察者90のヘルメット頭
頂部の装着された複数の赤外線LED95の位置を計測
し、さらに、その複数の位置から姿勢を算出する。
The position / orientation of the observer 90 is a representative point of the observer.
As the observer viewing coordinates Σ viewExpressed by This view
Inspector viewing coordinates ΣviewThe origin of the view reference point Ov
And as the position vector represented by the reference coordinate Σg,
It is expressed as.g Pview = [Pxpypz1]T The position / orientation of the observer 90 is the position / orientation using image processing.
Observer view from the reference coordinate Σg by the force detector 80
It is identified as the relationship of the ing coordinates Σview. Position and posture inspection
The output device 80 is a plurality of CCD cameras with infrared filters.
85 is placed in the work space and the helmet head of the observer 90
Measures the position of multiple infrared LEDs 95 mounted on the top
Then, the posture is calculated from the plurality of positions.

【0028】次に、図4に基づいて説明する。観察者9
0に映じる被観察物体70は、以下に示す座標変換部3
3のビューイング変換処理によって仮想的な投影面(以
下投影面A)に透視投影されるとみなせる。このとき、
撮影参照点OR (仮想光源点)は、投影面Aに対して観
察者ビューイング座標Σviewより遠方にあるものとす
る。
Next, description will be made with reference to FIG. Observer 9
The observed object 70 that appears at 0 is the coordinate conversion unit 3 shown below.
It can be considered that perspective projection is performed on the virtual projection plane (hereinafter, projection plane A) by the viewing conversion processing of No. 3. At this time,
Photographing the reference point O R (virtual source point) are intended to be distant from the viewer viewing coordinate Σview the projection plane A.

【0029】まず、観察者90は、観察する際に必ず被
観察物体70の方向を直視するとして、観察者ビューイ
ング座標Σview座標軸のうちz軸で被観察物体70への
視線を、残りのx,y軸で決まる平面と平行に投影面A
を定める。z軸は常に観察者ビューイング座標Σviewか
ら被観察物体座標Σw への方向と一致し、軸上の視線方
向単位ベクトルnは次式で与えられる。
First, assuming that the observer 90 always looks directly at the direction of the observed object 70 when observing, the z-axis of the observer viewing coordinates Σview coordinate axes is used to observe the line of sight to the observed object 70 and the remaining x. , A plane parallel to the plane defined by the y-axis
Is determined. The z-axis always coincides with the direction from the observer viewing coordinate Σview to the observed object coordinate Σw, and the line-of-sight direction unit vector n on the axis is given by the following equation.

【0030】n=[nx y z 0]T y軸は、z軸を含む鉛直面内にとり、視線方向単位ベク
トルnと直交する方向ベクトルvは同様に次式で与え
る。 v=[vX Y Z 0]T 残るx軸の方向ベクトルuはu=v × nで表され、
次式で表す。
N = [n x ny nz 0] T The y-axis is in the vertical plane including the z-axis, and the direction vector v orthogonal to the line-of-sight direction unit vector n is similarly given by the following equation. v = [v X v Y v Z 0] T The remaining x-axis direction vector u is represented by u = v × n,
It is expressed by the following equation.

【0031】u=[uX Y Z 0]T 従って、 gview=[u v n]とすれば、基準座標
Σgから観察者ビューイング座標Σviewへの変換は次式
で表される。
U = [u X u Y u Z 0] T Therefore, if g R view = [u v n], the conversion from the reference coordinate Σg to the observer viewing coordinate Σ view is expressed by the following equation. It

【0032】[0032]

【数1】 (Equation 1)

【0033】また、ビュー参照点Ov から投影参照点O
R への距離をr、同じく投影面Aへの距離をLとする。
いま、被観察物体70上の点Qが基準座標Σgで gQと
表されるとすると、観察者ビューイング座標Σviewで表
したviewQは、 (viewQ 1)T =(g view-1・(g Q 1) 次いで、点Qが投影された点をQ’とすると、点Q’は
点Qと投影参照点OR とを結んだ直線と投影面Aとの交
点である。
Further, from the view reference point O v to the projection reference point O
Let r be the distance to R and L be the distance to the projection plane A.
Now, assuming that the point Q on the observed object 70 is represented by g Q in the reference coordinate Σg, the view Q represented by the observer viewing coordinate Σ view is ( view Q 1) T = ( g T view ). -1 · (g Q 1) Next, 'When the point Q' points point Q is projected Q is an intersection of the projection plane a and a straight line connecting the point Q and the projection reference point O R.

【0034】また、点Q’は投影参照点OR と点Qをr
+L:|viewz |−Lに内分する。ここで、viewz
は被観察物体70上の点Qのz成分である。従って、点
Q’は観察者ビューイング座標Σviewでは次式で表され
る。 (viewQ’ 1)T A viewviewQ 1)T ここで、
[0034] In addition, the point Q 'is the projection reference point O R and the point Q r
+ L: | view q z | -L. Where view q z
Is the z component of the point Q on the observed object 70. Therefore, the point Q ′ is represented by the following equation in the observer viewing coordinate Σ view . ( View Q ′ 1) T = A T view ( view Q 1) T where

【0035】[0035]

【数2】 (Equation 2)

【0036】また、d=(r+L)/(R+|viewz
|)従って、基準座標Σgで表された被観察物体上の任
意の点g Qは、次式によって観察者ビューイング座標Σ
viewで表されて投影面AにviewQ’として投影される。
Further, d = (r + L) / (R + | view q z
|) Therefore, an arbitrary point g Q on the observed object represented by the reference coordinate Σg is calculated as follows:
It is represented by view and is projected on the projection plane A as view Q '.

【0037】(viewQ’ 1)T A view・(g
view-1・(g Q 1)T 投影面A上の点はx,y座標で表される。従って、被観
察物体はviewx 及び viewy を用いた簡単な手続きで
観察者にとっての仮想的な投影面Aに投影される。
(viewQ'1)T=ATview・ (gT
view)-1・ (gQ 1)T A point on the projection plane A is represented by x and y coordinates. Therefore,
The objectviewqxas well as viewqyWith a simple procedure using
It is projected on a virtual projection plane A for the observer.

【0038】今、観察者と実際の表示器60との関係を
考える。表示器60が観察者の視線方向に垂直、即ち、
観察者ビューイング座標Σviewのベクトルnに垂直であ
るとすれば、グラフィックス生成部32で生成された被
観察物体70に対応したコンピュータグラフィクス画像
が投影される。
Now, consider the relationship between the observer and the actual display 60. The display 60 is perpendicular to the line of sight of the observer, that is,
If it is assumed that it is perpendicular to the vector n of the observer viewing coordinates Σ view , the computer graphics image corresponding to the observed object 70 generated by the graphics generating unit 32 is projected.

【0039】今、表示器60(仮想的投影面A)の中心
に表示器座標Σdispをとる。透視投影の原理からここで
の表示器座標Σdispは、観察者ビューイング座標Σview
から距離Lの位置にあり、その姿勢はΣviewに一致して
いる。さて、実際の表示器60と観察者90の関係を考
えると、必ずしも表示器60が観察者90と垂直とは限
らない。即ち、実際には表示器60は観測者ビューイン
グ座標Σviewとは独立に任意の位置・姿勢をとることが
できる。そこで、実際の表示器60の姿勢まで考慮した
表示座標を新たに表示器座標Σdisp’とおき、この座標
を含む平面を改めて投影面Bとする。即ち、投影面Bは
実際の表示器60そのものを表す。
Now, the display unit coordinate Σ disp is set at the center of the display unit 60 (virtual projection plane A). From the perspective projection perspective, the display coordinate Σ disp here is the observer viewing coordinate Σ view.
The position is at a distance L from, and the posture thereof coincides with Σ view . Now, considering the relationship between the actual display device 60 and the observer 90, the display device 60 is not always perpendicular to the observer 90. That is, the display device 60 can actually take an arbitrary position / orientation independently of the observer viewing coordinate Σ view . Therefore, the display coordinates considering the actual posture of the display device 60 are newly set as the display device coordinates Σ disp ′, and the plane including these coordinates is set as the projection plane B again. That is, the projection plane B represents the actual display device 60 itself.

【0040】ここで、表示器座標Σdisp’のΣdispに対
する回転が表示器60の光学的視認性に大きな影響を与
えない程度の大きさであり、それらの角度がベクトル φ=(φx φy φz T で表されるものとする。このとき、投影面A上に投影さ
れた点Q’が、投影面Bに再度投影されて点Q”にな
り、観測者90から、即ち、観測者ビューイング座標Σ
viewから見ると、投影された点Q”は下記のようにな
る。
[0040] Here, a size that is rotated with respect to sigma disp indicator coordinates sigma disp 'does not have a significant effect on the optical visibility of the display unit 60, their angle vector φ = (φ x φ y φ z ) T. At this time, the point Q ′ projected on the projection plane A is re-projected on the projection plane B to become a point Q ″, and from the observer 90, that is, the observer viewing coordinate Σ.
From the view , the projected point Q ″ is as follows.

【0041】 (viewQ” 1)T B A viewQ’ 1)T ここで、( View Q ″ 1) T = B T A ( view Q ′ 1) T where

【0042】[0042]

【数3】 (Equation 3)

【0043】K =(qx 2 +qy 2 1/2 最後に表示器60に投影図を表示させるため、表示制御
部31は、以下のように表示器座標Σdisp’に変換す
る。 (disp' Q”,1)T disp' viewviewQ”,1)
T なお、表示器60上の位置、サイズについては、表示制
御部31がこのデータに基づいて任意に変換することが
できる。特に表示するサイズについては通常のグラフィ
クス手法と同様に表示器60の窓との関係から自動的に
設定する。
K = (q x ' 2 + q y ' 2 ) 1/2 Finally, in order to display the projection diagram on the display 60, the display control unit 31 converts it into the display coordinate Σ disp 'as follows. . ( Disp ' Q ", 1) T = disp' T view ( view Q", 1)
The display control unit 31 can arbitrarily convert the position and size on the display 60 based on this data. In particular, the size to be displayed is automatically set based on the relationship with the window of the display device 60 as in the case of the normal graphics method.

【0044】なお、画像画像情報としては、被観察物体
に限定されるものではなく、被観察物体に関する寸法、
部品仕様等の諸情報もグラフィクス情報として、任意の
位置・姿勢に表示することができる。その手順は被観察
物体のモデルの場合と全く同様である。
The image information is not limited to the object to be observed, but the size of the object to be observed,
Various kinds of information such as parts specifications can also be displayed at arbitrary positions and orientations as graphics information. The procedure is exactly the same as in the case of the model of the observed object.

【0045】このように、観察者が表示器60を見る場
合には、表示器60の位置・姿勢に関わらず、被観察物
体70を見た場合に映じる画像と略合致したコンピュー
タグラフィクスモデル画像を見ることができる。この結
果は原則として、被観察物体70と観察者90の位置関
係によらず、また、観察者90と表示器60との位置・
姿勢関係によらない。つまり、観察者は被観察物を自由
な位置角度から観察でき、しかもそれと同時に表示器6
0も自由に配置できるため、観察や作業の効率が飛躍的
に向上する。
As described above, when the observer looks at the display device 60, a computer graphics model image that substantially matches the image seen when the observed object 70 is viewed regardless of the position and orientation of the display device 60. Can be seen. In principle, this result does not depend on the positional relationship between the observed object 70 and the observer 90, and the position of the observer 90 and the display 60 is
It doesn't depend on the posture. That is, the observer can observe the object to be observed from any position angle, and at the same time, the display 6
Since 0 can be freely placed, the efficiency of observation and work is dramatically improved.

【0046】次に、本発明の第2の実施例を説明する。
図5は、本発明の第2の実施例の表示装置の構成を示
す。同図は、表示器60を半透過型にした例である。こ
の表示器60はハーフミラー61からなる表示部と、C
RT、レンズ、光学系からなる投影機62から構成され
る。ハーフミラー61には、投影機62からのグラフィ
クス画像が投影されるが、ハーフミラー61であること
から、観察者からは表示器60を通して、50〜60%
の透過率を確保して、被観察物体を観察することが可能
である。
Next, a second embodiment of the present invention will be described.
FIG. 5 shows the configuration of the display device according to the second embodiment of the present invention. The figure shows an example in which the display 60 is of a semi-transmissive type. The display 60 includes a display unit including a half mirror 61 and a C
The projector 62 includes an RT, a lens, and an optical system. Although the graphics image from the projector 62 is projected on the half mirror 61, since it is the half mirror 61, it is 50% to 60% from the viewer through the display 60.
It is possible to observe the object to be observed while ensuring the transmittance of.

【0047】この結果、表示器上のグラフィクスモデル
を透過してくる被観察物体の実像と重ね合わせて見るこ
とができる。従来のヘッドマウントディスプレイのよう
に、観察者が常時表示器を装着するものではないため、
閉塞状態も感じず、作業性が高いというメリットを有す
る。
As a result, the graphics model on the display can be seen in a superposed manner with the real image of the observed object. Unlike conventional head-mounted displays, the observer does not always wear the indicator,
There is an advantage that workability is high without feeling a blocked state.

【0048】次に、本発明の第3の実施例を説明する。
図6は、本発明の第3の実施例の表示装置の構成を示
す。この例では、被観察物体70を撮像する撮像器であ
るCCDカメラ65を6自由度位置決め機構に搭載し、
所定の位置姿勢から撮像された実映像を表示画像の一部
に用いることができる。必要に応じてカメラ65と共に
照明を使用する場合がある。図6では、被観察物体70
のカメラ映像を表示器60上に表示している。この場
合、グラフィクスモデルを映像に合致するようにオーバ
レイすることも可能であり、各々をクリアに観察できる
よう、表示器上の略同じ位置に交互に表示することもで
きる。また、場合によっては、並列に並べて表示するよ
うにしてもよい。
Next, a third embodiment of the present invention will be described.
FIG. 6 shows the configuration of a display device according to the third embodiment of the present invention. In this example, a CCD camera 65, which is an image pickup device for picking up an object to be observed 70, is mounted on a 6-DOF positioning mechanism,
A real video imaged from a predetermined position and orientation can be used as a part of the display image. Illumination may be used with the camera 65 if desired. In FIG. 6, the observed object 70
The camera image of is displayed on the display 60. In this case, the graphics models can be overlaid so as to match the image, and can be alternately displayed at substantially the same position on the display so that each can be clearly observed. Further, in some cases, they may be displayed side by side in parallel.

【0049】なお、本発明は、上記の実施例に限定され
ることなく、特許請求の範囲内で種々変更・応用が可能
である。
The present invention is not limited to the above embodiment, but can be variously modified and applied within the scope of the claims.

【0050】[0050]

【発明の効果】上述のように、本発明の表示装置によれ
ば、観察者が表示器を見る場合には、表示器の位置・姿
勢に関わらず、被観察物体を見た場合に映じる画像と、
略合致したコンピュータグラフィクスモデル画像を見る
ことができるという効果が生じることから、従来のよう
に、観察者は常にある一定の位置・姿勢でしかも定まっ
た位置・姿勢に固定された表示器を見なければならない
という欠点を生ずることなく、自由度を以て観察し、し
かもその観察結果を利用しつつ、作業を行うことが可能
となる。
As described above, according to the display device of the present invention, when an observer looks at the display, it is reflected when the observed object is seen regardless of the position and orientation of the display. Image and
Since the effect of being able to see a substantially matched computer graphics model image is produced, the observer can always look at the display fixed at a certain fixed position / orientation as in the conventional case. It is possible to carry out the work while observing with a degree of freedom and utilizing the observation result without causing the drawback of having to do so.

【0051】さらに、設置位置が固定されない可動のカ
メラを用いて撮像した実映像を表示器にコンピュータグ
ラフィクスモデル画像と合わせて見ることが可能であ
り、観察結果を利用しながら、種々の作業を円滑に行う
ことが可能となる。
Furthermore, it is possible to see a real image taken by using a movable camera whose installation position is not fixed together with a computer graphics model image on the display, and use various observation results to perform various operations smoothly. It becomes possible to do it.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理構成図である。FIG. 1 is a principle configuration diagram of the present invention.

【図2】本発明の表示装置の構成図である。FIG. 2 is a configuration diagram of a display device of the present invention.

【図3】本発明の第1の実施例の表示位置コントローラ
の構成図である。
FIG. 3 is a configuration diagram of a display position controller according to the first embodiment of this invention.

【図4】本発明の第1の実施例の被観察物体の観察系の
概略を示す図である。
FIG. 4 is a diagram showing an outline of an observation system of an object to be observed according to the first embodiment of the present invention.

【図5】本発明の第2の実施例の表示装置の構成図であ
る。
FIG. 5 is a configuration diagram of a display device according to a second embodiment of the present invention.

【図6】本発明の第3の実施例の表示装置の構成図であ
る。
FIG. 6 is a configuration diagram of a display device according to a third embodiment of the present invention.

【図7】従来の表示装置を説明するための図である。FIG. 7 is a diagram for explaining a conventional display device.

【符号の説明】[Explanation of symbols]

10 ロボット 20 6自由度ロボットコントローラ 30 表示位置コントローラ 31 表示器制御部 32 グラフィクス生成部 33 座標変換部 34 被観測物体位置・姿勢記憶部 35 観測者位置・姿勢記憶部 36 表示器位置姿勢記憶部 40 6軸位置決め機構コントローラ 50 位置決め機構 60 表示器 61 ハーフミラー 62 投影機 66 カメラコントローラ 70 被観測物体 80 観察者用位置姿勢検出器80 85 CCDカメラ 90 観察者 95 赤外線LED 100 被観察物体 200 観測者 300 表示手段 400 位置・姿勢検出手段 500 決定手段 10 robot 20 6-DOF robot controller 30 display position controller 31 display control unit 32 graphics generation unit 33 coordinate conversion unit 34 observed object position / orientation storage unit 35 observer position / orientation storage unit 36 indicator position / orientation storage unit 40 6-axis positioning mechanism controller 50 Positioning mechanism 60 Display 61 Half mirror 62 Projector 66 Camera controller 70 Observed object 80 Observer position / orientation detector 80 85 CCD camera 90 Observer 95 Infrared LED 100 Observed object 200 Observer 300 Display means 400 Position / orientation detection means 500 Determination means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 梅野 光 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Hikaru Umeno 3-19-2 Nishishinjuku, Shinjuku-ku, Tokyo Inside Nippon Telegraph and Telephone Corporation

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 観察者に画像を表示により提示するため
の表示方法において、 観察者及び被観察物体のそれぞれの位置及び姿勢を検出
し、 検出されたそれぞれの位置・姿勢を用いて、表示する画
像の位置・姿勢及びサイズを決定することを特徴とする
表示方法。
1. A display method for presenting an image to an observer by displaying, detecting the respective positions and orientations of an observer and an observed object, and displaying using the detected respective positions and orientations. A display method characterized by determining the position, orientation, and size of an image.
【請求項2】 前記被観察物体の位置・姿勢を同定し、 前記被観察物体の略中心に被観察物体座標系を設定し、 前記被観察物体の位置・姿勢を基準座標から見た被観察
物体座標系の関係をして同定する請求項1記載の表示方
法。
2. The position / orientation of the observed object is identified, an observed object coordinate system is set substantially at the center of the observed object, and the observed position of the observed object is observed from reference coordinates. The display method according to claim 1, wherein the identification is performed based on the relationship of the object coordinate system.
【請求項3】 前記被観察物体の3次元コンピュータグ
ラフィクスモデルを前記被観察物体座標系と同様の関係
で表示する請求項2記載の表示方法。
3. The display method according to claim 2, wherein the three-dimensional computer graphics model of the observed object is displayed in the same relationship as the observed object coordinate system.
【請求項4】 表示器の位置・姿勢を前記基準座標から
見た表示器座標系の関係と同定し、 前記観察者の位置・姿勢を前記基準座標系から見た観察
者視線座標系の関係として同定する請求項2記載の表示
方法。
4. The relationship between the position / orientation of the display device is identified as the relationship of the display device coordinate system viewed from the reference coordinates, and the position / orientation of the observer is related to the observer line-of-sight coordinate system viewed from the reference coordinate system. The display method according to claim 2, which is identified as.
【請求項5】 前記被観察物体の前記3次元コンピュー
タグラフィクスモデルを前記観察者視線座標系から見た
ビューイング変換によって前記表示器に透視投影する請
求項2及び4記載の表示方法。
5. The display method according to claim 2, wherein the three-dimensional computer graphics model of the object to be observed is perspectively projected on the display device by a viewing transformation viewed from the observer's line-of-sight coordinate system.
【請求項6】 表示する際に、前記被観察物体のコンピ
ュータグラフィクスモデルを画像の一部として表示する
請求項1記載の表示方法。
6. The display method according to claim 1, wherein the computer graphics model of the observed object is displayed as a part of an image when the image is displayed.
【請求項7】 表示する際に、前記被観察物体の撮像さ
れた実映像を画像の一部として表示する請求項1記載の
表示方法。
7. The display method according to claim 1, wherein when the image is displayed, a real video image of the observed object is displayed as a part of the image.
【請求項8】 観察者から見た前記被観察物体の位置・
姿勢及びサイズのうち少なくとも一つ以上合致するよう
に、前記コンピュータグラフィクスモデルの位置・姿勢
及びサイズを決定し、表示する請求項2記載の表示方
法。
8. The position of the observed object seen from the observer
The display method according to claim 2, wherein the position / orientation and size of the computer graphics model are determined and displayed so that at least one of the attitude and the size matches.
【請求項9】 撮像器の位置・姿勢を検出し、 前記被観察物体を撮像し、 撮像された実映像を画像の一部として用い、表示する実
映像の位置・姿勢及びサイズのうち、少なくとも1つ以
上合致するように前記コンピュータグラフィクスモデル
の位置・姿勢及びサイズを決定する請求項6記載の表示
方法。
9. The position / orientation of an imager is detected, the observed object is imaged, and the imaged real image is used as a part of an image, and at least the position / orientation and size of the real image to be displayed. 7. The display method according to claim 6, wherein the position / orientation and size of the computer graphics model are determined so as to match one or more.
【請求項10】 観察者に画像を提示するための表示装
置であって、 前記画像を表示するための表示手段と、 前記観察者及び被観察物体のそれぞれの位置及び姿勢を
検出する位置・姿勢検出手段と、 前記位置・姿勢検出手段において検出されたそれぞれの
位置・姿勢を用いて前記表示手段上での前記画像の位置
・姿勢及びサイズを決定する決定手段を有することを特
徴とする表示装置。
10. A display device for presenting an image to an observer, a display unit for displaying the image, and a position / orientation for detecting respective positions and orientations of the observer and the observed object. A display device comprising: a detection unit; and a determination unit that determines the position / posture and size of the image on the display unit by using the respective positions / postures detected by the position / posture detection unit. .
【請求項11】 前記被観察物体のコンピュータグラフ
ィクスモデルを前記画像の一部に用いる画像付加手段を
更に有する請求項10記載の表示装置。
11. The display device according to claim 10, further comprising an image adding unit that uses a computer graphics model of the observed object as a part of the image.
【請求項12】 前記画像付加手段は、 前記観察者からみた前記被観察物体の位置・姿勢及びサ
イズのうち、少なくとも一つ以上に合致するように、前
記表示手段上での前記コンピュータグラフィックスモデ
ルの位置・姿勢及びサイズを決定する請求項11記載の
表示装置。
12. The computer graphics model on the display unit, wherein the image adding unit matches at least one of a position / posture and a size of the observed object viewed from the observer. The display device according to claim 11, wherein the position / posture and size of the display device are determined.
【請求項13】 前記被観察物体を撮像する撮像手段を
更に有し、前記撮像手段により撮像された実映像を、前
記画像の一部に用いる請求項10記載の表示装置。
13. The display device according to claim 10, further comprising an image pickup unit for picking up the observed object, and using an actual image picked up by the image pickup unit as a part of the image.
【請求項14】 前記表示手段は、半透過型である請求
項10記載の表示装置。
14. The display device according to claim 10, wherein the display means is a transflective type.
【請求項15】 前記被観察物体を撮像する撮像手段
と、 前記撮像手段の位置・姿勢を検出する検出手段と、 前記撮像手段により撮像された実映像を前記画像の一部
に用いると共に、前記表示手段上での該実映像の位置・
姿勢及びサイズのうち少なくとも1つ以上合致するよう
に、前記表示手段上でのコンピュータグラフィックスモ
デルの位置・姿勢及びサイズを決定するコンピュータグ
ラフィクスモデル決定手段を有する請求項11記載の表
示装置。
15. An image pickup means for picking up the object to be observed, a detecting means for detecting a position / orientation of the image pickup means, and a real image picked up by the image pickup means as part of the image, and Position of the actual image on the display means
The display device according to claim 11, further comprising computer graphics model determining means for determining the position / orientation and size of the computer graphics model on the display means so that at least one of the orientation and the size matches.
【請求項16】 前記位置・姿勢検出手段は、 前記被観察物体の位置・姿勢を検出する被観察物体位置
・姿勢検出手段と、 前記被観察物体の略中心に被観察物体座標系を設定し、
前記被観察物体位置・姿勢検出手段により得られた前記
被観察物体の位置・姿勢を基準座標から見た被観察物体
座標系の関係として同定する被観察物体同定手段を含む
請求項10記載の表示装置。
16. The position / orientation detecting means sets an observed object position / orientation detecting means for detecting the position / orientation of the observed object, and sets an observed object coordinate system substantially at the center of the observed object. ,
11. The display according to claim 10, further comprising an observed object identifying means for identifying the position / orientation of the observed object obtained by the observed object position / orientation detecting means as a relationship in the observed object coordinate system viewed from the reference coordinates. apparatus.
JP7306266A 1995-11-24 1995-11-24 Displaying method and device therefor Pending JPH09147142A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7306266A JPH09147142A (en) 1995-11-24 1995-11-24 Displaying method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7306266A JPH09147142A (en) 1995-11-24 1995-11-24 Displaying method and device therefor

Publications (1)

Publication Number Publication Date
JPH09147142A true JPH09147142A (en) 1997-06-06

Family

ID=17955018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7306266A Pending JPH09147142A (en) 1995-11-24 1995-11-24 Displaying method and device therefor

Country Status (1)

Country Link
JP (1) JPH09147142A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185117A (en) * 1997-09-05 1999-03-30 Namco Ltd Picture generating device
JP2007536584A (en) * 2004-05-06 2007-12-13 ライカ ミクロジュステムス(シュヴァイツ)アーゲー microscope
JP2014531221A (en) * 2011-07-22 2014-11-27 エイチ.スカラー フレデリック Surgical head holder and surgical accessory used therewith
WO2020203139A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Control device and master-slave system
US11986426B1 (en) 2022-11-07 2024-05-21 Frederick H. Sklar Base station assembly for an operating room table

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185117A (en) * 1997-09-05 1999-03-30 Namco Ltd Picture generating device
JP2007536584A (en) * 2004-05-06 2007-12-13 ライカ ミクロジュステムス(シュヴァイツ)アーゲー microscope
JP4642842B2 (en) * 2004-05-06 2011-03-02 ライカ インストルメンツ(シンガポール)プライベート リミテッド microscope
JP2014531221A (en) * 2011-07-22 2014-11-27 エイチ.スカラー フレデリック Surgical head holder and surgical accessory used therewith
US9216125B2 (en) 2011-07-22 2015-12-22 Frederick H. Sklar Surgical head holder and surgical accessories for use with same
WO2020203139A1 (en) * 2019-03-29 2020-10-08 ソニー株式会社 Control device and master-slave system
CN113613847A (en) * 2019-03-29 2021-11-05 索尼集团公司 Control device and master-slave system
US11582438B2 (en) 2019-03-29 2023-02-14 Sony Group Corporation Control device and master slave system
CN113613847B (en) * 2019-03-29 2024-03-19 索尼集团公司 Control device and master-slave system
US11986426B1 (en) 2022-11-07 2024-05-21 Frederick H. Sklar Base station assembly for an operating room table

Similar Documents

Publication Publication Date Title
US11484383B2 (en) Setup of surgical robots using an augmented mirror display
CA3016539C (en) Image processing method, display device, and inspection system
CN105666505B (en) Robot system having display for augmented reality
JP4262011B2 (en) Image presentation method and apparatus
US6919867B2 (en) Method and apparatus for augmented reality visualization
JP5022868B2 (en) Information processing apparatus and information processing method
US5545120A (en) Endoscopic viewing system for maintaining a surgeon's normal sense of kinesthesia during endoscopic surgery regardless of the orientation of the endoscope vis-a-vis the surgeon
EP3859495A1 (en) Systems and methods for tracking motion and gesture of heads and eyes
US20040189675A1 (en) Augmented reality system and method
JP2006072903A (en) Image compositing method and device
JP2009025918A (en) Image processor and image processing method
WO2019005644A1 (en) A wearable eye tracking system with slippage detection and correction
JP2002008040A (en) Three-dimensional information detecting device and three-dimensional information detecting method
US20110169605A1 (en) System and method for providing remote indication
JPH09147142A (en) Displaying method and device therefor
JPH0421105A (en) Stereoscopic teaching device for manipulator
WO2017155005A1 (en) Image processing method, display device, and inspection system
KR20190048810A (en) Apparatus and method for providing augmented reality contents
CN114730454A (en) Scene awareness system and method
US20230083605A1 (en) Extended reality systems for visualizing and controlling operating room equipment
JP3982664B2 (en) Image presentation device
JP2004233201A (en) Position attitude measuring method
US11992273B2 (en) System and method of displaying images from imaging devices
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
JP2001239983A (en) Outfit assisting system