JP4540329B2 - Information presentation device - Google Patents

Information presentation device Download PDF

Info

Publication number
JP4540329B2
JP4540329B2 JP2003400768A JP2003400768A JP4540329B2 JP 4540329 B2 JP4540329 B2 JP 4540329B2 JP 2003400768 A JP2003400768 A JP 2003400768A JP 2003400768 A JP2003400768 A JP 2003400768A JP 4540329 B2 JP4540329 B2 JP 4540329B2
Authority
JP
Japan
Prior art keywords
shape information
information
image
orientation
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003400768A
Other languages
Japanese (ja)
Other versions
JP2005141702A (en
Inventor
明人 斉藤
隆男 柴▲崎▼
和彦 ▲高▼橋
岳雅 杉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2003400768A priority Critical patent/JP4540329B2/en
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to KR1020067000665A priority patent/KR20060030902A/en
Priority to EP04747254A priority patent/EP1653191A4/en
Priority to PCT/JP2004/009786 priority patent/WO2005005924A1/en
Priority to CN200480019973.4A priority patent/CN1823256B/en
Publication of JP2005141702A publication Critical patent/JP2005141702A/en
Priority to US11/327,776 priority patent/US7433510B2/en
Priority to HK06110939.7A priority patent/HK1090414A1/en
Application granted granted Critical
Publication of JP4540329B2 publication Critical patent/JP4540329B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、撮影された画像に関連する情報を、その撮影画像に重畳して同時に表示することによって、画像観察者により高密度な情報呈示を行うことが可能な情報呈示装置に関する。   The present invention relates to an information presenting apparatus that enables an image observer to present information at a high density by simultaneously displaying information related to a photographed image while superimposing the information on the photographed image.

実世界中の対象物及び/又は既定のマーカに対し、所定の関連情報を出力する情報呈示装置としては、2次元コードを利用したものが非常によく知られている。そのうち、対象物及び/又は既定のマーカの空間定位情報を利用して、関連情報を出力する装置としては、対象物である名刺上に印刷されたマーカとしての2次元コードをカメラで読み込み、コンピュータ内のプログラムで前記2次元コード化されたIDを解析し、そのIDに相当する人物の顔写真をそのIDで特定される画像ファイルから読み出して、あたかも名刺上の2次元コードの横にあるかのように、コンピュータのディスプレイに表示する装置が提案されている(例えば、特許文献1参照)。
特開2000−82107号公報
A device using a two-dimensional code is very well known as an information presentation device that outputs predetermined related information to objects and / or predetermined markers in the real world. Among them, as a device for outputting related information using spatial localization information of an object and / or a predetermined marker, a two-dimensional code as a marker printed on a business card as an object is read by a camera, and a computer If the ID of the two-dimensional code is analyzed by the program in the program, the face photograph of the person corresponding to the ID is read from the image file specified by the ID, and it is as if next to the two-dimensional code on the business card A device for displaying on a computer display has been proposed (see, for example, Patent Document 1).
JP 2000-82107 A

上記特許文献1では、2次元コードを認識して、2次元コード座標データに基づいて、顔写真を表示する位置を算出しているものであるが、その顔写真の表示位置は常に2次元コードに対して固定の位置関係になっている。名刺状のカードであれば、そのように2次元コードと表示位置とは同一空間であり、問題はない。   In Patent Document 1, a two-dimensional code is recognized and a position for displaying a face photograph is calculated based on two-dimensional code coordinate data. The display position of the face photograph is always the two-dimensional code. It is a fixed positional relationship. In the case of a business card card, the two-dimensional code and the display position are in the same space, and there is no problem.

これに対して、プラントや工場設備などの大規模構造物に適用する場合、例えば、CCD撮影装置などの画像入力手段により入力された建造物等の実空間中の対象物の画像と、その対象物に設置されたマーカに基づく関連情報、例えば設計情報とを重畳表示することが想定される。このようなプラントや工場設備などの大規模構造物に適用する場合は、マーカを、設計情報通りに、正確に設置する必要がある。しかしながら、実際には、そのような正確なマーカ設置は難しいのが現実である。   On the other hand, when applied to a large-scale structure such as a plant or factory equipment, for example, an image of an object in a real space such as a building inputted by an image input means such as a CCD photographing device, and the object It is assumed that related information based on markers placed on an object, for example, design information, is superimposed and displayed. When applied to such a large-scale structure such as a plant or factory facility, it is necessary to accurately install the marker according to the design information. However, in reality, it is difficult to set such markers accurately.

このように、基準となるマーカ自体が設計情報と異なってる場合には、対象物固有の座標系である実空間と、その対象物の設計情報固有の座標系であるモデル空間とを関連付け(レジストレーション)しなければ、対象物の画像と設計情報から作られた対象物モデルとを正確に重畳表示させることができない。   In this way, when the reference marker itself is different from the design information, the real space that is the coordinate system unique to the object is associated with the model space that is the coordinate system unique to the design information of the object (registration If this is not done, it is not possible to display the object image and the object model created from the design information in a superimposed manner.

本発明は、上記の点に鑑みてなされたもので、レジストレーション作業を簡単に行える情報呈示装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide an information presenting apparatus that can easily perform a registration operation.

上記の目的を達成するために、本発明の情報呈示装置の一態様は、
実空間に配置された対象物の画像を入力する画像入力手段と、
前記画像入力手段から入力された対象物上に配置されたマーカの画像から、前記画像入力手段と対象物との相対的な3次元位置姿勢関係を検出して出力する3次元位置姿勢関係出力手段と、
対象物の形状情報を格納する形状情報格納手段と、
前記3次元位置姿勢関係出力手段により検出された前記画像入力手段に対する対象物の位置姿勢に基づいて前記形状情報格納手段に格納された前記対象物の形状情報を変形して前記画像入力手段で入力された対象物の実際の位置姿勢における形状と格納された対象物の前記変形された形状情報との差分を検出する誤差比較検出手段と、
前記3次元位置姿勢関係出力手段の検出する前記画像入力手段と対象物との相対的な3次元位置姿勢関係を、前記誤差比較検出手段からの差分の値を用いて、対象物の形状情報に対する前記マーカの形状情報の位置姿勢を移動することで修正する3次元位置姿勢情報管理手段と、
前記3次元位置姿勢情報管理手段の修正した前記3次元位置姿勢関係出力手段の検出する前記画像入力手段と対象物との相対的な3次元位置姿勢関係を用いて、前記画像入力手段から入力された対象物の画像と、前記形状情報格納手段に格納された対象物の形状情報と、を重ね合わせた画像を生成する重畳画像生成手段と、
前記重畳画像生成手段が生成した画像を表示する表示手段と、
を具備することを特徴とする。
In order to achieve the above object, one aspect of the information presentation apparatus of the present invention is:
Image input means for inputting an image of an object placed in real space;
3D position / orientation relationship output means for detecting and outputting a relative 3D position / orientation relationship between the image input means and the object from an image of a marker placed on the object input from the image input means When,
Shape information storage means for storing shape information of the object;
Based on the position and orientation of the object relative to the image input means detected by the three-dimensional position and orientation relation output means , the shape information of the object stored in the shape information storage means is transformed, and the image input means Error comparison detection means for detecting a difference between the shape at the actual position and orientation of the input object and the deformed shape information of the stored object;
The relative three-dimensional position / orientation relationship between the image input means and the object detected by the three-dimensional position / orientation output means is calculated with respect to the shape information of the object using the difference value from the error comparison / detection means. Three-dimensional position and orientation information management means for correcting by moving the position and orientation of the marker shape information;
Using the relative 3D position and orientation relationship between the image input means and the object detected by the 3D position and orientation relationship output means modified by the 3D position and orientation information management means, the image input means is input. Superimposed image generation means for generating an image obtained by superimposing the image of the target object and the shape information of the target object stored in the shape information storage means,
Display means for displaying an image generated by the superimposed image generation means;
It is characterized by comprising.

本発明によれば、レジストレーション作業を簡単に行える情報呈示装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information presentation apparatus which can perform a registration operation | work easily can be provided.

以下、本発明を実施するための最良の形態を図面を参照して説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係る情報呈示装置及びそれを用いた情報呈示システムの構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of an information presentation apparatus and an information presentation system using the information presentation apparatus according to the first embodiment of the present invention.

この情報呈示システムは、カメラ付きPDAやノートパソコン等の使用者が携帯可能な小型の情報呈示装置100と、オフィス等に設置された3次元CAD200とからなる。   This information presentation system includes a small information presentation apparatus 100 that can be carried by a user such as a PDA with a camera or a notebook personal computer, and a three-dimensional CAD 200 installed in an office or the like.

ここで、上記情報呈示装置100は、実空間中の対象物の画像を入力(撮影)するカメラ等の画像入力部101と、上記画像入力部101から入力された対象物の画像から、上記画像入力部101と対象物との相対的な3次元位置姿勢関係を検出する3次元位置姿勢関係出力部102と、対象物の形状情報を格納するメモリ等の形状情報格納部103と、上記3次元位置姿勢関係出力部102により検出された対象物の位置姿勢と、上記画像入力部101から入力された対象物の部分に対応する上記形状情報格納部103に格納された値とを比較し、入力された対象物の実際の位置姿勢と格納された対象物の形状情報との差分を検出する誤差比較検出部104と、上記誤差比較検出部104からの差分の値を、上記形状情報格納部103に格納された形状情報に反映させる形状情報管理部105と、上記画像入力部101から入力された対象物の画像と、上記形状情報格納部103に格納された対象物の形状情報と、を重ね合わせた画像を生成する重畳画像生成部106と、上記重畳画像生成部106が生成した画像を表示する液晶ディスプレイ等の表示部107とから構成されている。さらには、上記3次元位置姿勢関係出力部102の検出する上記画像入力部101と対象物との相対的な3次元位置姿勢関係に、上記誤差比較検出部104からの差分の値を用いて反映させる3次元位置姿勢情報管理部108を備えている。そして、上記3次元位置姿勢関係出力部102と上記3次元位置姿勢情報管理部108とによって、3次元位置姿勢関係検出部120が構成されている。   Here, the information presenting apparatus 100 includes the image input unit 101 such as a camera that inputs (photographs) an image of an object in real space, and the image of the object input from the image input unit 101. A three-dimensional position / orientation relationship output unit 102 for detecting a relative three-dimensional position / orientation relationship between the input unit 101 and the object; a shape information storage unit 103 such as a memory for storing shape information of the object; The position and orientation of the object detected by the position and orientation relation output unit 102 is compared with the value stored in the shape information storage unit 103 corresponding to the part of the object input from the image input unit 101 and input. An error comparison detection unit 104 that detects a difference between the actual position and orientation of the target object and the stored shape information of the target object, and a difference value from the error comparison detection unit 104 is used as the shape information storage unit 103. In case The shape information management unit 105 to be reflected in the shape information, the image of the object input from the image input unit 101, and the shape information of the object stored in the shape information storage unit 103 are superimposed. A superimposed image generating unit 106 that generates an image and a display unit 107 such as a liquid crystal display that displays an image generated by the superimposed image generating unit 106 are configured. Furthermore, the difference value from the error comparison detection unit 104 is reflected in the relative three-dimensional position / orientation relationship between the image input unit 101 and the object detected by the three-dimensional position / orientation relationship output unit 102. A three-dimensional position and orientation information management unit 108 is provided. The three-dimensional position / orientation relationship output unit 102 and the three-dimensional position / orientation information management unit 108 constitute a three-dimensional position / orientation relationship detection unit 120.

一方、上記3次元CAD200は、対象物の3次元設計情報を格納するハードディスク等の大容量記憶装置である3次元設計情報格納部201と、上記3次元設計情報格納部201に格納された3次元設計情報から形状情報を生成する形状情報生成部202とを備えている。   On the other hand, the three-dimensional CAD 200 includes a three-dimensional design information storage unit 201 that is a large-capacity storage device such as a hard disk that stores three-dimensional design information of an object, and a three-dimensional design information stored in the three-dimensional design information storage unit 201. And a shape information generation unit 202 that generates shape information from the design information.

なお、上記情報呈示装置の形状情報格納部103が格納する形状報情報は、上記3次元CAD200の形状情報生成部202の生成したものである。この形状情報生成部202から形状情報格納部103への形状情報の受け渡しは、無線又は有線の通信によるオンラインで行っても良いし、何らかの記憶媒体を介してオフラインで行っても良い。   The shape report information stored in the shape information storage unit 103 of the information presentation device is generated by the shape information generation unit 202 of the three-dimensional CAD 200. The transfer of the shape information from the shape information generation unit 202 to the shape information storage unit 103 may be performed online by wireless or wired communication, or may be performed offline via some storage medium.

ここで、「対象物の3次元設計情報」とは、形状、色、材質、部品名、等々の当該対象物を製造・設置するのに必要な情報である。形状情報生成部202は、そのような対象物の3次元設計情報の中から、形状の情報のみを抽出するものである。また、対象物及び形状情報はそれぞれ固有の座標系を有しており、対象物についての座標系を実空間、形状情報の座標系をモデル空間と称するものとする。   Here, the “three-dimensional design information of an object” is information necessary for manufacturing and installing the object such as shape, color, material, part name, and the like. The shape information generation unit 202 extracts only shape information from the three-dimensional design information of such an object. The object and the shape information each have a unique coordinate system. The coordinate system for the object is referred to as a real space, and the coordinate system for the shape information is referred to as a model space.

また、上記情報呈示装置100の形状情報管理部105は、上記形状情報格納部103に格納している上記抽出した形状情報と同様に、上記誤差比較検出部104からの差分の値を、上記3次元CAD200の3次元設計情報格納部201に格納された3次元設計情報、つまり元の形状情報にも反映させるようになっている。この場合も、該形状情報管理部105と上記3次元CAD200の3次元設計情報格納部201との間の情報の受け渡しは、オンライン/オフラインの何れで行っても構わない。   Further, the shape information management unit 105 of the information presenting apparatus 100 uses the difference value from the error comparison detection unit 104 as the above-described 3 as with the extracted shape information stored in the shape information storage unit 103. The three-dimensional design information stored in the three-dimensional design information storage unit 201 of the two-dimensional CAD 200, that is, the original shape information is also reflected. Also in this case, information may be exchanged between the shape information management unit 105 and the three-dimensional design information storage unit 201 of the three-dimensional CAD 200 either online or offline.

次に、このような構成における動作を説明する。
本実施の形態では、まず、前処理として、実空間とモデル空間の関連付け(レジストレーション)作業を実施する。即ち、対象物そのものを使用して、実空間上の対象物と、形状情報から作られたモデル空間上の対象物モデルとを、表示部107に重畳表示させ、両者が重なり合うように、モデル空間上の対象物モデルを移動することにより、実空間とモデル空間の関連付け作業を行うものである。そして、この関連付け作業時の対象物モデル移動量を記録し、実空間とモデル空間の関連付けに使用する。
Next, the operation in such a configuration will be described.
In the present embodiment, first, as preprocessing, an association (registration) operation between the real space and the model space is performed. That is, using the object itself, the object in the real space and the object model in the model space created from the shape information are displayed in a superimposed manner on the display unit 107, and the model space so that they overlap each other. By moving the object model above, the work of associating the real space with the model space is performed. Then, the moving amount of the object model at the time of the association work is recorded and used for associating the real space with the model space.

この関連付け作業後は、実空間とモデル空間の座標系の対応付けが完了しているので、重畳表示時に差異がある物は、対象物と対象物モデルとの整合が取れていない(対象物が形状情報通りになっていない)ことになる。   After this associating work, since the association between the coordinate system of the real space and the model space has been completed, the object that is different in the superimposed display is not consistent with the object model (the object is It does not follow the shape information).

このような実空間とモデル空間の関連付け(レジストレーション)作業は、図2の(A)のフローチャートに示すようにして行われる。   Such an association (registration) work between the real space and the model space is performed as shown in the flowchart of FIG.

即ち、まず、画像入力部101で対象物を撮影する(ステップS11)。なお、このレジストレーションに使用する対象物は、予めその形状情報が実空間とモデル空間とで一致しているのがわかっているものを使用する。また、予めレジストレーションのためのランドマークとして登録しておいても良い。   That is, first, the object is photographed by the image input unit 101 (step S11). The object used for this registration is one whose shape information is known in advance to match between the real space and the model space. Further, it may be registered in advance as a landmark for registration.

次に、3次元位置姿勢関係出力部102により、上記画像入力部101で入力された対象物の画像から、画像入力部101と対象物の相対的な3次元位置姿勢を検出する(ステップS12)。この時、実空間とモデル空間の関連付け(レジストレーション)が終了していないため、両者に差異がある。   Next, the three-dimensional position / orientation output unit 102 detects the relative three-dimensional position / orientation between the image input unit 101 and the object from the image of the object input by the image input unit 101 (step S12). . At this time, since the association (registration) between the real space and the model space is not completed, there is a difference between the two.

なお、この3次元位置姿勢の検出は、例えば、対象物そのものをマーカと見なして、特開2001−118187号公報や特開2001−126051号公報に開示されているマーカ検出や位置姿勢情報の推定方法を適用することで行うことができる。   The detection of the three-dimensional position and orientation is performed by, for example, considering the object itself as a marker, and performing marker detection and position and orientation information estimation disclosed in Japanese Patent Laid-Open Nos. 2001-118187 and 2001-122601. This can be done by applying the method.

次に、形状情報格納部103の中から、対象物に対応する形状情報を選択する(ステップS13)。この場合、上述のように、このレジストレーションに使用する対象物は予めその形状情報が実空間とモデル空間とで一致しているのがわかっているものを使用するので、自動的に選択することができる。この選択された形状情報は、上記3次元位置姿勢関係出力部102により検出された3次元位置姿勢に基づいて変形されて、誤差比較検出部104に入力される。   Next, shape information corresponding to the object is selected from the shape information storage unit 103 (step S13). In this case, as described above, the object to be used for the registration uses the object whose shape information is known to match between the real space and the model space in advance, so it is automatically selected. Can do. The selected shape information is transformed based on the three-dimensional position / orientation detected by the three-dimensional position / orientation relationship output unit 102 and input to the error comparison / detection unit 104.

そして、誤差比較検出部104により、上記画像入力部101からの入力画像と、上記形状情報格納部103の中から選択し変形された形状情報との誤差を検出する(ステップS14)。なお、この時の誤差は、実空間とモデル空間の関連付けが正確に行われていないために発生する。即ち、重畳画像生成部106によって、上記画像入力部101からの入力画像と上記選択された形状情報とを重ね合わせた画像を生成して表示部107に表示するものであるが、このとき、表示部107の画面109には、図3の(A)に示すように、対象物1の画像1Aと対象物の形状情報から作成した対象物モデル2とがずれて表示されることになる。   Then, the error comparison detection unit 104 detects an error between the input image from the image input unit 101 and the shape information selected and deformed from the shape information storage unit 103 (step S14). The error at this time occurs because the real space and the model space are not accurately associated. That is, the superimposed image generation unit 106 generates an image obtained by superimposing the input image from the image input unit 101 and the selected shape information and displays the generated image on the display unit 107. On the screen 109 of the unit 107, as shown in FIG. 3A, the image 1A of the object 1 and the object model 2 created from the object shape information are displayed in a shifted manner.

よって、3次元位置姿勢関係情報管理部108は、上記誤差比較検出部104の検出した誤差に基づき、その誤差が最小になるように画像入力部101と対象物1との相対的な3次元位置姿勢関係に関する情報を修正する(ステップS15)。   Therefore, the three-dimensional position / orientation relationship information management unit 108 determines the relative three-dimensional position between the image input unit 101 and the object 1 based on the error detected by the error comparison detection unit 104 so that the error is minimized. Information on the posture relationship is corrected (step S15).

そして、3次元位置姿勢関係情報管理部108は、その修正した3次元位置姿勢関係に関する情報を、上記3次元位置姿勢関係出力部102に供給することにより、実空間とモデル空間との座標系の関連付け作業が終了する(ステップS16)。これにより、表示部107の画面109には、図3の(B)に示すように、対象物1の画像1Aと対象物モデル2とが一致して表示されるようになる。   Then, the three-dimensional position / orientation relationship information management unit 108 supplies information regarding the corrected three-dimensional position / orientation relationship to the three-dimensional position / orientation relationship output unit 102, so that the coordinate system between the real space and the model space can be changed. The association work ends (step S16). Thereby, on the screen 109 of the display unit 107, as shown in FIG. 3B, the image 1A of the object 1 and the object model 2 are displayed in agreement with each other.

このような前処理の完了後、実空間中の対象物と設計情報(本実施形態では、形状情報)との間の誤差を的確に把握して、設計情報と実際の対象物とを一致させる作業を行うことになる。   After such pre-processing is completed, the error between the object in the real space and the design information (in this embodiment, shape information) is accurately grasped, and the design information and the actual object are matched. Will work.

即ち、図2(B)のフローチャートに示すように、まず、画像入力部101で対象物1を撮影する(ステップS21)。   That is, as shown in the flowchart of FIG. 2B, first, the object 1 is photographed by the image input unit 101 (step S21).

次に、3次元位置姿勢関係出力部102により、上記画像入力部101で入力された対象物1の画像1Aから、画像入力部101と対象物1との相対的な3次元位置姿勢を検出する(ステップS22)。この時、実空間とモデル空間の関連付け(レジストレーション)が終了しているため、両者に差異はない。   Next, the relative three-dimensional position and orientation between the image input unit 101 and the target object 1 are detected from the image 1A of the target object 1 input by the image input unit 101 by the three-dimensional position and orientation relation output unit 102. (Step S22). At this time, since the association (registration) between the real space and the model space has been completed, there is no difference between the two.

次に、形状情報格納部103に格納されている複数の形状の情報の中から、上記3次元位置姿勢関係出力部102により検出された3次元位置姿勢に該当するデータを検索する(ステップS23)。検索された形状情報は誤差比較検出部104に入力される。   Next, data corresponding to the three-dimensional position / orientation detected by the three-dimensional position / orientation relation output unit 102 is retrieved from the information on a plurality of shapes stored in the shape information storage unit 103 (step S23). . The retrieved shape information is input to the error comparison detection unit 104.

そして、誤差比較検出部104により、上記画像入力部101からの入力画像と、上記形状情報格納部103から検索した形状情報との誤差を検出する(ステップS24)。なお、検出する誤差は、例えば、形状情報の移動量である。この移動量は、平行移動や、拡大・縮小、回転や、これらの組み合わせでも、もちろん構わない。   Then, the error comparison detection unit 104 detects an error between the input image from the image input unit 101 and the shape information retrieved from the shape information storage unit 103 (step S24). The detected error is, for example, the amount of movement of shape information. Of course, this movement amount may be parallel movement, enlargement / reduction, rotation, or a combination thereof.

ここで、形状情報管理部105によって、その検出した誤差が許容範囲内であるか否かを判別し(ステップS25)、許容範囲内であれば、以降の作業を行う必要がない。   Here, the shape information management unit 105 determines whether or not the detected error is within the allowable range (step S25), and if it is within the allowable range, it is not necessary to perform the subsequent operations.

これに対して、検出した誤差が許容範囲内でないならば(ステップS25)、形状情報管理部105によって、上記形状情報格納部103から検索した形状情報に、その検出した誤差を付加し、形状情報を変更する(ステップS26)。即ち、既に作られてしまった対象物1の形状を変更することはできないので、形状情報を変更するものである。   On the other hand, if the detected error is not within the allowable range (step S25), the detected error is added to the shape information retrieved from the shape information storage unit 103 by the shape information management unit 105 to obtain the shape information. Is changed (step S26). That is, since the shape of the object 1 that has already been made cannot be changed, the shape information is changed.

そして、その形状変更情報を形状情報格納部103に格納することで、その変更を反映させる(ステップS27)。   The shape change information is stored in the shape information storage unit 103 to reflect the change (step S27).

例えば、図4の(A)に示すように、本体11に部品12及び13を取り付けたものを対象物1として撮影したとすると、それに対応する本体11の形状情報31、部品12の形状情報32、及び部品13の形状情報33でなる対象物1の形状情報3が検索され、それらが誤差比較検出部104で比較される。またこのとき、重畳画像生成部106にて、対象物1の画像1Aとそれら形状情報3から作成された対象物モデル2(本体11のモデル21、部品12のモデル22、部品13のモデル23)とを重ね合わせた画像を生成して、表示部107に表示する。ここで、実際の部品13の取付位置とその部品13の形状情報33とに誤差があると、同図に示すように、表示部107の画面109に表示される部品13の画像13Aとそのモデル23とはずれて表示されることになる。この誤差は、上記ステップS26及びステップS27の動作によって、部品13の形状情報33が、図4の(B)に示すように形状情報33’に変更されることでキャンセルされ、画面109に表示される部品13の画像13Aとその変更後のモデル23’とは一致して、重ね合って表示されることになる。   For example, as shown in FIG. 4A, if the object 11 is taken with the parts 12 and 13 attached to the main body 11, the shape information 31 of the main body 11 and the shape information 32 of the part 12 corresponding thereto are captured. , And the shape information 3 of the object 1 including the shape information 33 of the part 13 is retrieved and compared by the error comparison detection unit 104. At this time, the superimposed image generation unit 106 uses the object model 2 created from the image 1A of the object 1 and the shape information 3 (the model 21 of the main body 11, the model 22 of the part 12, and the model 23 of the part 13). Are generated and displayed on the display unit 107. Here, if there is an error between the actual mounting position of the part 13 and the shape information 33 of the part 13, as shown in the figure, an image 13A of the part 13 displayed on the screen 109 of the display unit 107 and its model are displayed. 23 will be displayed. This error is canceled by changing the shape information 33 of the component 13 to the shape information 33 ′ as shown in FIG. 4B by the operations of the above steps S26 and S27, and is displayed on the screen 109. The image 13A of the component 13 and the model 23 ′ after the change coincide with each other and are displayed in an overlapping manner.

なお、前述したように、上記形状情報管理部105から形状変更情報を、3次元CAD200の3次元設計情報格納部201に戻すことも可能である。   As described above, the shape change information from the shape information management unit 105 can be returned to the three-dimensional design information storage unit 201 of the three-dimensional CAD 200.

[第2実施形態]
次に、本発明の第2実施形態を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.

上記第1実施形態では、実空間とモデル空間の関連付け(レジストレーション)作業において使用する対象物1として、予めその形状情報が実空間とモデル空間とで一致しているのがわかっているものである必要があった。   In the first embodiment, as the object 1 used in the association (registration) work between the real space and the model space, it is known in advance that the shape information matches between the real space and the model space. There was a need.

しかしながら、必ずしもそのような対象物1を準備できない場合がある。   However, such an object 1 may not always be prepared.

そこで、本実施形態においては、そのようなレジストレーション時に、予めその形状情報が実空間とモデル空間とで一致していない対象物1を使用するため、貼付等により、対象物1上にマーカを移動可能に配置する。   Therefore, in this embodiment, at the time of such registration, since the object 1 whose shape information does not match between the real space and the model space is used in advance, a marker is placed on the object 1 by pasting or the like. Arrange to move.

即ち、上記3次元位置姿勢関係出力部102によって3次元位置姿勢の検出を行い、誤差比較検出部104で、対象物1の画像1Aと対象物1の形状情報3とを比較した場合、両者の間に誤差が検出される。この場合、マーカを基準とするので、マーカの画像とマーカの形状情報とは一致する。従って、この場合には、例えば図5の(A)に示すように、表示部107の画面109に表示されるマーカ4の画像4Aとマーカ4のモデル24とは一致するものの、対象物1の画像1Aと対象物モデル2とは、ずれて表示されることになる。   That is, when the three-dimensional position / orientation output unit 102 detects a three-dimensional position / orientation and the error comparison / detection unit 104 compares the image 1A of the object 1 with the shape information 3 of the object 1, An error is detected in between. In this case, since the marker is used as a reference, the marker image matches the marker shape information. Therefore, in this case, for example, as shown in FIG. 5A, the image 4A of the marker 4 displayed on the screen 109 of the display unit 107 matches the model 24 of the marker 4, but the object 1 The image 1A and the object model 2 are displayed in a shifted manner.

そこで、本実施形態では、上記第1実施形態のように3次元位置姿勢関係情報管理部108を用いるのではなく、図5の(B)に示すように、対象物1に対する実際のマーカ4の位置を移動させることで、対象物1と対象物1の形状情報3とを一致させるものである。即ち、画像観察者が、表示部107に表示された、撮影された対象物1の画像1Aと、その対象物モデル2とを観察しながら、両者が一致するように、マーカ4の位置を移動していくものである。   Therefore, in the present embodiment, instead of using the three-dimensional position / orientation relationship information management unit 108 as in the first embodiment, as shown in FIG. By moving the position, the object 1 and the shape information 3 of the object 1 are matched. That is, the image observer moves the position of the marker 4 so that the two coincide with each other while observing the captured image 1A of the object 1 and the object model 2 displayed on the display unit 107. It is something to do.

またこの場合、マーカ4の位置の移動を容易にするために、図6に示すように、表示部107の画面109に、対象物1の画像1A及び対象物モデル2とマーカ4の画像4A及びマーカ4のモデル24に加えて、対象物モデル2に対してスケール25を付加して表示するようにしても良い。このようなスケール25を表示することで、観察者は、この画面109上のスケール25からずれ量を確認し、その確認したずれ量に応じてマーカ4を移動することができる。   In this case, in order to facilitate the movement of the position of the marker 4, as shown in FIG. 6, the image 1 A of the object 1 and the image 4 A of the object model 2 and the marker 4 are displayed on the screen 109 of the display unit 107. In addition to the model 24 of the marker 4, a scale 25 may be added to the object model 2 and displayed. By displaying such a scale 25, the observer can confirm the amount of deviation from the scale 25 on the screen 109, and can move the marker 4 according to the confirmed amount of deviation.

[第3実施形態]
次に、本発明の第3実施形態を説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.

本実施形態も上記第2実施形態と同様、レジストレーション時に予めその形状情報が実空間とモデル空間とで一致していない対象物1を使用するものであるが、本実施形態では、マーカ4が貼付もしくは印刷等により対象物1上に配置されており、マーカ4を移動できない場合である。   Similarly to the second embodiment, the present embodiment uses the object 1 whose shape information does not match between the real space and the model space in advance at the time of registration. This is a case where the marker 4 is arranged on the object 1 by pasting or printing and the marker 4 cannot be moved.

即ち、上記3次元位置姿勢関係出力部102によって3次元位置姿勢の検出を行い、誤差比較検出部104で、対象物1の画像1Aと対象物1の形状情報3とを比較した場合、両者の間に誤差が検出される。この場合、マーカ4を基準とするので、マーカ4の画像4Aとマーカ4の形状情報34とは一致する。従って、この場合には、図7の(A)に示すように、表示部107の画面109に表示されるマーカ4の画像4Aとマーカ4のモデル24とは一致するものの、対象物1の画像1Aと対象物モデル2とは、ずれて表示されることになる。   That is, when the three-dimensional position / orientation output unit 102 detects a three-dimensional position / orientation and the error comparison / detection unit 104 compares the image 1A of the object 1 with the shape information 3 of the object 1, An error is detected in between. In this case, since the marker 4 is used as a reference, the image 4A of the marker 4 matches the shape information 34 of the marker 4. Accordingly, in this case, as shown in FIG. 7A, the image 4A of the marker 4 displayed on the screen 109 of the display unit 107 matches the model 24 of the marker 4, but the image of the object 1 1A and the object model 2 are displayed in a shifted manner.

よって、3次元位置姿勢関係情報管理部108により、3次元位置姿勢関係出力部102の検出する画像入力部101と対象物1との相対的な3次元位置姿勢関係に、誤差比較検出部104からの差分の値を用いて反映させることになるが、本実施形態では、それを、対象物1の形状情報3に対するマーカ4の形状情報34の位置姿勢を移動し、形状情報34’とすることにより行う。これにより、図7の(B)に示すように、表示部107の画面109に表示されるマーカ4の画像4Aとマーカ4の移動されたモデル24’とが一致し、また、対象物1の画像1Aと対象物モデル2とも一致することとなる。   Therefore, the error comparison / detection unit 104 changes the relative three-dimensional position / orientation relationship between the image input unit 101 and the object 1 detected by the three-dimensional position / orientation relationship output unit 102 by the three-dimensional position / orientation relationship information management unit 108. In this embodiment, the position and orientation of the shape information 34 of the marker 4 with respect to the shape information 3 of the object 1 are moved to obtain shape information 34 ′. To do. As a result, as shown in FIG. 7B, the image 4A of the marker 4 displayed on the screen 109 of the display unit 107 matches the model 24 ′ to which the marker 4 has been moved, and the object 1 Both the image 1A and the object model 2 will match.

また、画像入力部101により対象物1を複数方向から撮影して静止画とし、何れか一つの静止画上で、対象物1の形状情報3に対するマーカ4の形状情報34の位置姿勢を移動すると、対の静止画においてもその移動が反映される。図8は、対象物1の形状情報3に対するマーカ4の形状情報34の移動前を示しており、図9は、対象物1の形状情報3に対するマーカ4の形状情報34’の移動完了後を示している。   Further, when the object 1 is photographed from a plurality of directions by the image input unit 101 to be a still image, and the position and orientation of the shape information 34 of the marker 4 with respect to the shape information 3 of the object 1 is moved on any one still image. The movement is reflected in the paired still images. FIG. 8 shows before the movement of the shape information 34 of the marker 4 with respect to the shape information 3 of the object 1, and FIG. 9 shows the state after the movement of the shape information 34 ′ of the marker 4 with respect to the shape information 3 of the object 1 is completed. Show.

なお、対象物1の特徴的な凹凸や模様をマーカとみなしてレジストレーションを行う場合においても、本実施形態と同様にして一致させることができる。   Even when registration is performed by regarding the characteristic unevenness or pattern of the object 1 as a marker, matching can be performed in the same manner as in the present embodiment.

また、マーカ4の形状情報34の移動を自動で行ったが、キーボード等により観察者がその移動方向及び移動量を指定するようにしても良いことは勿論である。その場合には、上記第2実施形態で説明したようなスケール25を対象物モデル2に対して付加して表示することが好ましい。   Further, although the shape information 34 of the marker 4 is automatically moved, it is needless to say that the observer may specify the moving direction and the moving amount with a keyboard or the like. In that case, it is preferable that the scale 25 as described in the second embodiment is added to the object model 2 for display.

[第4実施形態]
次に、本発明の第4実施形態を説明する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described.

上記第1実施形態では、対象物の形状情報を格納しておき、実際に撮影した対象物との誤差を検出して反映させるようにしていたが、さらに、部品名等の対象物の属性情報も格納しておいて、その属性情報の変更も反映させるようにしても良い。   In the first embodiment, the shape information of the object is stored, and the error with the actually photographed object is detected and reflected. However, the attribute information of the object such as the part name is further added. May be stored, and the change of the attribute information may be reflected.

そのため、本実施形態における情報呈示システムは、図10のように構成される。   Therefore, the information presentation system in this embodiment is configured as shown in FIG.

即ち、上記第1実施形態における構成に加えて、3次元CAD200は、3次元設計情報格納部201に格納された対象物の3次元設計情報から、属性情報を生成する属性情報生成部203をさらに有する。また、情報呈示装置100は、この3次元CAD200の属性情報生成部203の生成した属性情報を格納する属性情報格納部110と、入力手段としてのキーボード111と、該キーボード111によって入力された属性情報の変更を上記属性情報格納部110に格納された属性情報に反映させる属性情報管理部112と、をさらに有する。   That is, in addition to the configuration in the first embodiment, the three-dimensional CAD 200 further includes an attribute information generation unit 203 that generates attribute information from the three-dimensional design information of the object stored in the three-dimensional design information storage unit 201. Have. In addition, the information presenting apparatus 100 includes an attribute information storage unit 110 that stores attribute information generated by the attribute information generation unit 203 of the three-dimensional CAD 200, a keyboard 111 as input means, and attribute information input by the keyboard 111. And an attribute information management unit 112 that reflects the change in the attribute information stored in the attribute information storage unit 110.

情報呈示装置100の重畳画像生成部106は、画像入力部101から入力された対象物の画像と、形状情報格納部103に格納された対象物の形状情報とに加えて、上記属性情報格納部110に格納された属性情報も、重ね合わせて、表示部107に表示する。   In addition to the object image input from the image input unit 101 and the shape information of the object stored in the shape information storage unit 103, the superimposed image generation unit 106 of the information presentation apparatus 100 includes the attribute information storage unit. The attribute information stored in 110 is also superimposed and displayed on the display unit 107.

また、属性情報生成部203から属性情報格納部110への属性情報の受け渡しは、無線又は有線の通信によるオンラインで行っても良いし、何らかの記憶媒体を介してオフラインで行っても良い。   Further, the transfer of attribute information from the attribute information generation unit 203 to the attribute information storage unit 110 may be performed online by wireless or wired communication, or may be performed offline via some storage medium.

さらに、上記情報呈示装置100の属性情報管理部112は、上記属性情報格納部110に格納している上記属性情報に対するのと同様に、上記キーボード111によって入力された属性情報の変更を、上記3次元CAD200の3次元設計情報格納部201に格納された3次元設計情報、つまり元の属性情報にも反映させるようになっている。この場合も、該属性情報管理部112と上記3次元CAD200の3次元設計情報格納部201との間の情報の受け渡しは、オンライン/オフラインの何れで行っても構わない。   Further, the attribute information management unit 112 of the information presentation device 100 changes the attribute information input by the keyboard 111 in the same manner as the attribute information stored in the attribute information storage unit 110. The three-dimensional design information stored in the three-dimensional design information storage unit 201 of the two-dimensional CAD 200, that is, the original attribute information is also reflected. Also in this case, information may be transferred between the attribute information management unit 112 and the three-dimensional design information storage unit 201 of the three-dimensional CAD 200 either online or offline.

[第5実施形態]
次に、本発明の第5実施形態を説明する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described.

本実施形態における情報呈示システムは、図11に示すように、図1に示した構成における誤差比較検出部104の代わりに、キーボード111を配し、該キーボード111から3次元位置姿勢関係情報管理部108及び形状情報管理部105に値として直接、形状情報の移動量を入力する構成としたものである。   As shown in FIG. 11, the information presentation system in the present embodiment includes a keyboard 111 instead of the error comparison detection unit 104 in the configuration shown in FIG. 1, and a three-dimensional position and orientation relation information management unit from the keyboard 111. The movement amount of the shape information is directly input as a value to 108 and the shape information management unit 105.

即ち、前述した第1乃至第3実施形態では、誤差比較検出部104により自動的に重畳ずれを補正していた。これに対し、本実施形態では、観察者が重畳画面を観察しながら例えばキーボード111から、対象物の画像と対象物の形状情報から作成した対象物モデルとのずれが最小になるように、3次元位置姿勢関係情報管理部108及び形状情報管理部105に指示することにより、ずれを補正するものである。   That is, in the above-described first to third embodiments, the superposition deviation is automatically corrected by the error comparison detection unit 104. In contrast, in this embodiment, the observer observes the superimposed screen, for example, from the keyboard 111 so that the deviation between the object image and the object model created from the object shape information is minimized. By instructing the dimension position / orientation relation information management unit 108 and the shape information management unit 105, the deviation is corrected.

このような構成としても、上記第1乃至第3実施形態と同様の作用効果を奏することができる。   Even with such a configuration, the same effects as those of the first to third embodiments can be obtained.

また、同様に、図12に示すように、図10に示した構成における誤差比較検出部104に代わり、キーボード111から3次元位置姿勢関係情報管理部108及び形状情報管理部105に入力するようにしても良いことは勿論である。このような構成とすれば、上記第4実施形態と同様の作用効果を奏することができる。   Similarly, as shown in FIG. 12, instead of the error comparison detection unit 104 in the configuration shown in FIG. 10, input is made from the keyboard 111 to the three-dimensional position / orientation relationship information management unit 108 and the shape information management unit 105. Of course, it may be. With such a configuration, it is possible to achieve the same effects as the fourth embodiment.

[第6実施形態]
次に、本発明の第6実施形態を説明する。
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described.

上記第5実施形態では、観察者が重畳画面を観察しながら、例えばキーボード111から、対象物の画像と対象物の形状情報から作成した対象物モデルとのずれが最小になるように、3次元位置姿勢関係情報管理部108及び形状情報管理部105に指示することにより、ずれを補正していた。   In the fifth embodiment, the observer observes the superimposed screen, for example, from the keyboard 111 so that the deviation between the object image and the object model created from the object shape information is minimized. By instructing the position / orientation relation information management unit 108 and the shape information management unit 105, the deviation is corrected.

本実施形態では、位置姿勢だけではなく、更に、3次元CAD200とリンクすることにより、形状情報管理部105に対しても、形状変更もしくは部品交換を指示するようにしたものである。   In the present embodiment, not only the position and orientation but also the shape information management unit 105 is instructed to change the shape or replace parts by linking with the three-dimensional CAD 200.

本実施形態における情報呈示システムの構成は、上記第5実施形態と同様である。   The configuration of the information presentation system in the present embodiment is the same as that in the fifth embodiment.

係る第6実施形態では、例えば、図13の(A)に示すように、本体11に部品14及び15を取り付けたものを対象物1として撮影したとすると、それに対応する本体11の形状情報31、部品14の形状情報35、及び部品15の形状情報36でなる対象物1の形状情報3が検索され、重畳画像生成部106にて、対象物1の画像1Aとそれら形状情報3から作成された対象物モデル2(本体11のモデル21、部品14のモデル26、部品15のモデル27)とを重ね合わせた画像を生成して、表示部107に表示する。ここで、実際の部品14の形状とその部品14の形状情報35とに誤差があると、同図に示すように、表示部107の画面109に表示される部品14の画像14Aとそのモデル26とはずれて表示されることになる。同様に、実際の部品15の形状とその部品15の形状情報36とに誤差があると、表示部107の画面109に表示される部品15の画像15Aとそのモデル27とはずれて表示される。   In the sixth embodiment, for example, as shown in FIG. 13A, if a subject 11 with parts 14 and 15 attached to the main body 11 is photographed as the target object 1, the shape information 31 of the main body 11 corresponding thereto. The shape information 3 of the object 1 including the shape information 35 of the part 14 and the shape information 36 of the part 15 is retrieved, and is generated from the image 1A of the object 1 and the shape information 3 by the superimposed image generation unit 106. An image in which the target object model 2 (the model 21 of the main body 11, the model 26 of the component 14, the model 27 of the component 15) is superimposed is generated and displayed on the display unit 107. Here, if there is an error between the actual shape of the component 14 and the shape information 35 of the component 14, as shown in the figure, an image 14A of the component 14 displayed on the screen 109 of the display unit 107 and its model 26 are displayed. Will be displayed. Similarly, if there is an error between the actual shape of the component 15 and the shape information 36 of the component 15, the image 15A of the component 15 displayed on the screen 109 of the display unit 107 and its model 27 are displayed.

即ち、この図の例では、設計情報では直管(長い)の形状情報35と直管(短い)の形状情報36となっているが、実空間中の対象物では部品14はエルボ管、部品15は直管(長い)という違いがあるため、表示部107の画面109に表示される重畳画像では、それらがずれて表示される。   That is, in the example of this figure, the design information includes the shape information 35 of the straight pipe (long) and the shape information 36 of the straight pipe (short). However, in the object in the real space, the part 14 is an elbow pipe, part Since 15 is a straight pipe (long), in the superimposed image displayed on the screen 109 of the display unit 107, they are displayed shifted.

従って、このような場合には、観察者が重畳画面を観察しながら、例えばキーボード111から、形状情報管理部105に対して、形状情報の形状変更を表現する値、もしくは、形状情報の部品変更を表現する値を入力する。これにより、形状情報管理部105は、図13の(B)に示すように、直管(長い)の形状情報35をエルボ管の形状情報37と交換、直管(短い)の形状情報36の長さを変更(変更後の形状情報36’とする)という作業を行うことによって、実空間と対象情報を一致させる。即ち、部品14の形状情報35が形状情報37に変更され、また、部品15の形状情報36が形状情報36’に変更されることで、ずれがキャンセルされ、画面109に表示される部品14の画像14Aとその変更後のモデル28とは一致し、また、部品15の画像15Aとその変更後のモデル27’とが一致して、重ね合って表示されることになる。   Therefore, in such a case, while the observer observes the superimposed screen, for example, the value representing the shape change of the shape information from the keyboard 111 to the shape information management unit 105 or the part change of the shape information Enter a value that represents. As a result, the shape information management unit 105 replaces the straight pipe (long) shape information 35 with the elbow pipe shape information 37 and replaces the straight pipe (short) shape information 36 as shown in FIG. The real space and the target information are matched by performing the operation of changing the length (referred to as the changed shape information 36 ′). That is, the shape information 35 of the component 14 is changed to the shape information 37, and the shape information 36 of the component 15 is changed to the shape information 36 ′, so that the deviation is canceled and the component 14 displayed on the screen 109 is displayed. The image 14A and the model 28 after the change match, and the image 15A of the part 15 and the model 27 ′ after the change match and are displayed in an overlapping manner.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

例えば、図14及び図15に示すように、上記第1実施形態及び/又は第4実施形態における形状情報管理部105及び/又は属性情報管理部112による3次元CAD200の3次元設計情報格納部201への反映を行わなくても構わない。   For example, as shown in FIGS. 14 and 15, the three-dimensional design information storage unit 201 of the three-dimensional CAD 200 by the shape information management unit 105 and / or the attribute information management unit 112 in the first embodiment and / or the fourth embodiment. There is no need to reflect it.

またこの場合も、上記第5実施形態で説明したように、図16及び図17に示すよう、誤差比較検出部104に代わって、キーボード111から3次元位置姿勢関係情報管理部108及び形状情報管理部105に入力するようにしても勿論構わない。   Also in this case, as described in the fifth embodiment, as shown in FIGS. 16 and 17, instead of the error comparison detection unit 104, the three-dimensional position / orientation relationship information management unit 108 and the shape information management are performed from the keyboard 111. Of course, it does not matter even if it inputs to the part 105.

また、入力手段は、キーボード111に限定されず、マウス、トラックボール、タッチパネル等でももちろん構わない。   Further, the input means is not limited to the keyboard 111, and may of course be a mouse, a trackball, a touch panel, or the like.

(付記)
前記の具体的実施形態から、以下のような構成の発明を抽出することができる。
(Appendix)
The invention having the following configuration can be extracted from the specific embodiment.

(1) 実空間に配置された対象物の画像を入力する画像入力手段と、
前記画像入力手段から入力された対象物の画像から、前記画像入力手段と対象物との相対的な3次元位置姿勢関係を検出して出力する3次元位置姿勢関係出力手段と、
対象物の形状情報を格納する形状情報格納手段と、
前記3次元位置姿勢関係出力手段により検出された対象物の位置姿勢と、前記画像入力手段から入力された対象物の部分に対応する前記形状情報格納手段に格納された値とを比較し、入力された対象物の実際の位置姿勢と格納された対象物の形状情報との差分を検出する誤差比較検出手段と、
前記3次元位置姿勢関係出力手段の検出する前記画像入力手段と対象物との相対的な3次元位置姿勢関係に、前記誤差比較検出手段からの差分の値を用いて反映させる3次元位置姿勢情報管理手段と、
前記画像入力手段から入力された対象物の画像と、前記形状情報格納手段に格納された対象物の形状情報と、を重ね合わせた画像を生成する重畳画像生成手段と、
前記重畳画像生成手段が生成した画像を表示する表示手段と、
を具備することを特徴とする情報呈示装置。
(1) image input means for inputting an image of an object placed in real space;
3D position and orientation relationship output means for detecting and outputting a relative 3D position and orientation relationship between the image input means and the object from the image of the object input from the image input means;
Shape information storage means for storing shape information of the object;
Compare the position and orientation of the object detected by the three-dimensional position and orientation relation output means with the value stored in the shape information storage means corresponding to the part of the object input from the image input means, and input Error comparison detection means for detecting a difference between the actual position and orientation of the target object and the shape information of the stored object;
Three-dimensional position / orientation information to be reflected in the relative three-dimensional position / orientation relationship between the image input means and the object detected by the three-dimensional position / orientation relation output means using the difference value from the error comparison / detection means. Management means;
Superimposed image generation means for generating an image obtained by superimposing the image of the object input from the image input means and the shape information of the object stored in the shape information storage means;
Display means for displaying an image generated by the superimposed image generation means;
An information presentation apparatus comprising:

(対応する実施形態)
この(1)に記載の情報呈示装置に関する実施形態は、第1乃至第3実施形態が対応する。
(Corresponding embodiment)
The first to third embodiments correspond to the embodiment related to the information presentation apparatus described in (1).

(作用効果)
この(1)に記載の情報呈示装置は、入力された対象物の実際の位置姿勢と格納された対象物の形状情報との差分を検出し、差分の値を用いて、3次元位置姿勢関係出力手段の検出する画像入力手段と対象物との相対的な3次元位置姿勢関係に反映させる。
(Function and effect)
The information presentation device according to (1) detects a difference between the actual position and orientation of the input object and the shape information of the stored object, and uses the difference value to determine a three-dimensional position and orientation relationship. It is reflected in the relative three-dimensional position and orientation relationship between the image input means detected by the output means and the object.

従って、この(1)に記載の情報呈示装置によれば、レジストレーション作業を簡単に行える。   Therefore, according to the information presentation apparatus described in (1), the registration work can be easily performed.

(2) 前記誤差比較検出手段の検出する差分は、形状情報の移動量であることを特徴とする(1)に記載の情報呈示装置。   (2) The information presenting apparatus according to (1), wherein the difference detected by the error comparison detection means is a movement amount of shape information.

(対応する実施形態)
この(2)に記載の情報呈示装置に関する実施形態は、第1乃至第3実施形態が対応する。
(Corresponding embodiment)
The first to third embodiments correspond to the embodiment related to the information presentation apparatus described in (2).

(作用効果)
この(2)に記載の情報呈示装置は、入力された対象物の実際の位置姿勢と格納された対象物の形状情報との差分として、形状情報の移動量を検出する。
(Function and effect)
The information presentation device according to (2) detects the movement amount of the shape information as a difference between the actual position and orientation of the input target object and the stored shape information of the target object.

(3) 前記誤差比較検出手段からの差分の値を用いて前記形状情報格納手段に格納された形状情報に反映させる形状情報管理手段をさらに具備することを特徴とする(1)又は(2)に記載の情報呈示装置。   (3) It further comprises shape information management means for reflecting the difference value from the error comparison detection means in the shape information stored in the shape information storage means (1) or (2) The information presentation device described in 1.

(対応する実施形態)
この(3)に記載の情報呈示装置に関する実施形態は、第1乃至第3実施形態が対応する。
(Corresponding embodiment)
The first to third embodiments correspond to the embodiment related to the information presentation device described in (3).

(作用効果)
この(3)に記載の情報呈示装置は、対象物の形状情報のみを格納しておき、入力された対象物の実際の位置姿勢とこの格納された対象物の形状情報との差分の値を上記格納された形状情報に反映させる。
(Function and effect)
The information presenting device described in (3) stores only the shape information of the object, and calculates a difference value between the actual position and orientation of the input object and the stored shape information of the object. It is reflected in the stored shape information.

従って、この(3)に記載の情報呈示装置によれば、設計情報全てではなくて、その一部である形状情報のみを格納し、それと実際の対象物とを一致させるので、大容量な記憶装置や高性能な表示装置を必要とせず、携帯型の装置で実現できるようになる。   Therefore, according to the information presenting device described in (3), only the shape information that is a part of the design information, not the entire design information, is stored and matched with the actual object. No device or high-performance display device is required, and it can be realized by a portable device.

(4) 前記3次元位置姿勢情報管理手段は、前記対象物を第1の方向から撮影した画像に基づいて前記誤差比較検出手段が検出する第1の差分の値と、前記第1の方向とは異なる第2の方向から撮影した画像に基づいて前記誤差比較検出手段が検出する第2の差分の値と、を用いることを特徴とする(1)乃至(3)の何れかに記載の情報呈示装置。   (4) The three-dimensional position / orientation information management means includes a first difference value detected by the error comparison detection means based on an image obtained by photographing the object from the first direction, and the first direction. The information according to any one of (1) to (3), characterized by using a second difference value detected by the error comparison detection means based on images taken from different second directions. Presentation device.

(対応する実施形態)
この(4)に記載の情報呈示装置に関する実施形態は、第3実施形態が対応する。
(Corresponding embodiment)
The embodiment relating to the information presentation device described in (4) corresponds to the third embodiment.

(作用効果)
この(4)に記載の情報呈示装置は、複数方向から撮影した画像それぞれに基づいて誤差比較検出手段が検出するそれぞれの差分の値を用いて、3次元位置姿勢情報の管理を行う。
(Function and effect)
The information presenting device described in (4) manages the three-dimensional position / orientation information using each difference value detected by the error comparison / detection means based on each of the images taken from a plurality of directions.

従って、この(4)に記載の情報呈示装置によれば、複数方向の画像で差分を検出できるので、レジストレーション作業をより正確に行える。   Therefore, according to the information presenting apparatus described in (4), the difference can be detected from images in a plurality of directions, so that the registration work can be performed more accurately.

(5) 前記表示手段は、前記対象物を第1の方向から撮影した画像に基づいて前記重畳画像生成手段が生成する第1の画像と、前記第1の方向とは異なる第2の方向から撮影した画像に基づいて前記重畳画像生成手段が生成する第2の画像と、を表示することを特徴とする(1)乃至(4)の何れかに記載の情報呈示装置。   (5) The display means includes a first image generated by the superimposed image generation means based on an image obtained by photographing the object from the first direction, and a second direction different from the first direction. The information presentation apparatus according to any one of (1) to (4), wherein the second image generated by the superimposed image generation unit is displayed based on the captured image.

(対応する実施形態)
この(5)に記載の情報呈示装置に関する実施形態は、第3実施形態が対応する。
(Corresponding embodiment)
The embodiment relating to the information presentation device described in (5) corresponds to the third embodiment.

(作用効果)
この(5)に記載の情報呈示装置は、複数方向から撮影した画像それぞれに基づいて重畳画像生成手段が生成する画像を表示する。
(Function and effect)
The information presentation device according to (5) displays an image generated by the superimposed image generation unit based on each of the images taken from a plurality of directions.

従って、この(5)に記載の情報呈示装置によれば、複数方向の重畳画像を表示できるので、レジストレーション作業の結果を複数方向からより詳細に確認することができる。   Therefore, according to the information presenting device described in (5), the superimposed image in a plurality of directions can be displayed, so that the result of the registration work can be confirmed in more detail from the plurality of directions.

(6) 実空間に配置された対象物の画像を入力する画像入力手段と、
前記画像入力手段から入力された対象物の画像から、前記画像入力手段と対象物との相対的な3次元位置姿勢関係を検出して出力する3次元位置姿勢関係出力手段と、
対象物の形状情報を格納する形状情報格納手段と、
入力手段と、
前記3次元位置姿勢関係出力手段の検出する前記画像入力手段と対象物との相対的な3次元位置姿勢関係に、前記入力手段から入力された値を用いて反映させる3次元位置姿勢情報管理手段と、
前記画像入力手段から入力された対象物の画像と、前記形状情報格納手段に格納された対象物の形状情報と、を重ね合わせた画像を生成する重畳画像生成手段と、
前記重畳画像生成手段が生成した画像を表示する表示手段と、
を具備することを特徴とする情報呈示装置。
(6) image input means for inputting an image of an object placed in real space;
3D position and orientation relationship output means for detecting and outputting a relative 3D position and orientation relationship between the image input means and the object from the image of the object input from the image input means;
Shape information storage means for storing shape information of the object;
Input means;
Three-dimensional position / orientation information management means for reflecting the relative three-dimensional position / orientation relationship between the image input means and the object detected by the three-dimensional position / orientation relation output means using a value input from the input means. When,
Superimposed image generation means for generating an image obtained by superimposing the image of the object input from the image input means and the shape information of the object stored in the shape information storage means;
Display means for displaying an image generated by the superimposed image generation means;
An information presentation apparatus comprising:

(対応する実施形態)
この(6)に記載の情報呈示装置に関する実施形態は、第5実施形態が対応する。
(Corresponding embodiment)
The fifth embodiment corresponds to the embodiment related to the information presentation device described in (6).

(作用効果)
この(6)に記載の情報呈示装置は、観察者が重畳画面を観察しながらキーボード等の入力手段から観察者によって入力される、画面上の重畳ずれが最小になるような値を用いて、3次元位置姿勢関係出力手段の検出する画像入力手段と対象物との相対的な3次元位置姿勢関係に反映させる。
(Function and effect)
The information presenting device described in (6) uses a value that minimizes the overlay displacement on the screen, which is input by the observer from an input means such as a keyboard while the observer observes the superimposed screen, This is reflected in the relative three-dimensional position and orientation relationship between the image input means detected by the three-dimensional position and orientation relation output means and the object.

従って、この(6)に記載の情報呈示装置によれば、レジストレーション作業を簡単に行える。また、観察者が重畳画面を観察しながらキーボード等の入力手段から入力することによりずれを補正するので、誤差比較検出手段が不要になる。   Therefore, according to the information presentation apparatus described in (6), the registration work can be easily performed. Further, since the observer corrects the deviation by inputting from the input means such as a keyboard while observing the superimposed screen, the error comparison detecting means is not required.

(7) 前記入力手段から入力する値は、形状情報の移動量であることを特徴とする(6)に記載の情報呈示装置。   (7) The information presentation apparatus according to (6), wherein the value input from the input unit is a movement amount of shape information.

(対応する実施形態)
この(7)に記載の情報呈示装置に関する実施形態は、第5実施形態が対応する。
(Corresponding embodiment)
The fifth embodiment corresponds to the embodiment related to the information presentation device described in (7).

(作用効果)
この(7)に記載の情報呈示装置は、形状情報の移動量を、値として直接入力する。
(Function and effect)
The information presentation device described in (7) directly inputs the movement amount of the shape information as a value.

(8) 前記入力手段から入力された値を用いて前記形状情報格納手段に格納された形状情報に反映させる形状情報管理手段をさらに具備することを特徴とする(6)又は(7)に記載の情報呈示装置。   (8) The method according to (6) or (7), further comprising shape information management means for reflecting the shape information stored in the shape information storage means using the value input from the input means. Information presentation device.

(対応する実施形態)
この(8)に記載の情報呈示装置に関する実施形態は、第5実施形態が対応する。
(Corresponding embodiment)
The fifth embodiment corresponds to the embodiment related to the information presentation device described in (8).

(作用効果)
この(8)に記載の情報呈示装置は、対象物の形状情報のみを格納しておき、入力手段から入力された値を、その格納された形状情報に反映させる。
(Function and effect)
The information presentation device described in (8) stores only the shape information of the object, and reflects the value input from the input means in the stored shape information.

従って、この(8)に記載の情報呈示装置によれば、設計情報全てではなくて、その一部である形状情報のみを格納し、それと実際の対象物とを一致させるので、大容量な記憶装置や高性能な表示装置を必要とせず、携帯型の装置で実現できるようになる。   Therefore, according to the information presentation device described in (8), not only all design information but only shape information as a part thereof is stored, and this is matched with an actual object, so that a large-capacity memory is stored. No device or high-performance display device is required, and it can be realized by a portable device.

(9) 前記3次元位置姿勢情報管理手段は、前記対象物を第1の方向から撮影した画像に基づいて前記入力手段から入力された形状情報の第1の移動量と、前記第1の方向とは異なる第2の方向から撮影した画像に基づいて前記入力手段から入力された形状情報の第2の移動量と、を用いることを特徴とする(6)乃至(8)の何れかに記載の情報呈示装置。   (9) The three-dimensional position / orientation information management unit includes a first movement amount of the shape information input from the input unit based on an image obtained by photographing the object from the first direction, and the first direction. (6) to (8), wherein a second movement amount of shape information input from the input unit based on an image photographed from a second direction different from the first direction is used. Information presentation device.

(対応する実施形態)
この(9)に記載の情報呈示装置に関する実施形態は、第5実施形態が対応する。
(Corresponding embodiment)
The fifth embodiment corresponds to the embodiment related to the information presentation device described in (9).

(作用効果)
この(9)に記載の情報呈示装置は、複数方向から撮影した画像それぞれに基づいて入力手段から入力された形状情報の移動量を用いて、3次元位置姿勢情報の管理を行う。
(Function and effect)
The information presenting device described in (9) manages the three-dimensional position and orientation information using the movement amount of the shape information input from the input unit based on each of the images taken from a plurality of directions.

従って、この(9)に記載の情報呈示装置によれば、複数方向の画像を観察しながら移動量を入力できるので、レジストレーション作業をより正確に行える。   Therefore, according to the information presentation apparatus described in (9), since the movement amount can be input while observing images in a plurality of directions, the registration work can be performed more accurately.

(10) 前記表示手段は、前記対象物を第1の方向から撮影した画像に基づいて前記重畳画像生成手段が生成する第1の画像と、前記第1の方向とは異なる第2の方向から撮影した画像に基づいて前記重畳画像生成手段が生成する第2の画像と、を表示することを特徴とする(6)乃至(9)の何れかに記載の情報呈示装置。   (10) The display unit is configured to generate a first image generated by the superimposed image generation unit based on an image obtained by capturing the object from the first direction, and a second direction different from the first direction. The information presentation apparatus according to any one of (6) to (9), wherein the second image generated by the superimposed image generation unit is displayed based on the captured image.

(対応する実施形態)
この(10)に記載の情報呈示装置に関する実施形態は、第5実施形態が対応する。
(Corresponding embodiment)
The fifth embodiment corresponds to the embodiment related to the information presentation device described in (10).

(作用効果)
この(10)に記載の情報呈示装置は、複数方向から撮影した画像それぞれに基づいて重畳画像生成手段が生成する画像を表示する。
(Function and effect)
The information presentation device according to (10) displays an image generated by the superimposed image generation unit based on each of images captured from a plurality of directions.

従って、この(10)に記載の情報呈示装置によれば、複数方向の重畳画像を表示できるので、レジストレーション作業の結果を複数方向からより詳細に確認することができる。   Therefore, according to the information presentation device described in (10), since the superimposed images in a plurality of directions can be displayed, the result of the registration work can be confirmed in more detail from the plurality of directions.

(11) 前記入力手段から入力する値は、前記形状情報の形状変更を表現する値であることを特徴とする(6)に記載の情報呈示装置。   (11) The information presentation apparatus according to (6), wherein the value input from the input unit is a value expressing a shape change of the shape information.

(対応する実施形態)
この(11)に記載の情報呈示装置に関する実施形態は、第6実施形態が対応する。
(Corresponding embodiment)
The sixth embodiment corresponds to the embodiment related to the information presentation device described in (11).

(作用効果)
この(11)に記載の情報呈示装置によれば、形状情報の形状変更を表現する値を直接入力することができる。
(Function and effect)
According to the information presenting device described in (11), a value expressing the shape change of the shape information can be directly input.

(12) 前記入力手段から入力する値は、前記形状情報の部品変更を表現する値であることを特徴とする(6)に記載の情報呈示装置。   (12) The information presentation apparatus according to (6), wherein the value input from the input unit is a value expressing a part change of the shape information.

(対応する実施形態)
この(12)に記載の情報呈示装置に関する実施形態は、第6実施形態が対応する。
(Corresponding embodiment)
The sixth embodiment corresponds to the embodiment related to the information presentation apparatus described in (12).

(作用効果)
この(12)に記載の情報呈示装置によれば、形状情報の部品変更を表現する値を直接入力することができる。
(Function and effect)
According to the information presenting apparatus described in (12), a value expressing the part change of the shape information can be directly input.

(13) 前記入力手段から入力された値を用いて前記形状情報格納手段に格納された形状情報に反映させる形状情報管理手段を更に具備することを特徴とする(11)又は(12)に記載の情報呈示装置。   (13) The method according to (11) or (12), further comprising shape information management means for reflecting the shape information stored in the shape information storage means using the value input from the input means. Information presentation device.

(対応する実施形態)
この(13)に記載の情報呈示装置に関する実施形態は、第6実施形態が対応する。
(Corresponding embodiment)
The sixth embodiment corresponds to the embodiment related to the information presentation apparatus described in (13).

(作用効果)
この(13)に記載の情報呈示装置は、対象物の形状情報のみを格納しておき、入力手段から入力された値を、その格納された形状情報に反映させる。
(Function and effect)
The information presenting device described in (13) stores only the shape information of the object, and reflects the value input from the input means in the stored shape information.

従って、この(13)に記載の情報呈示装置によれば、設計情報全てではなくて、その一部である形状情報のみを格納し、それを実際の対象物に一致させるので、大容量な記憶装置や高性能な表示装置を必要とせず、携帯型の装置で実現できるようになる。   Therefore, according to the information presenting apparatus described in (13), not only all design information but only part of the shape information is stored and matched with the actual object. No device or high-performance display device is required, and it can be realized by a portable device.

本発明の第1実施形態に係る情報呈示装置及びそれを用いた情報呈示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information presentation apparatus which concerns on 1st Embodiment of this invention, and an information presentation system using the same. (A)は実空間とモデル空間の関連付け(レジストレーション)作業の手順を示すフローチャートであり、(B)は実空間中の対象物と設計情報(形状情報)とを一致させる作業の手順を示すフローチャートである。(A) is a flowchart showing a procedure of association (registration) work between the real space and the model space, and (B) shows a work procedure for matching the object in the real space with the design information (shape information). It is a flowchart. (A)はレジストレーション作業完了前の対象物と表示状態とを示す図であり、(B)はレジストレーション作業完了後の対象物と表示状態とを示す図である。(A) is a figure which shows the target object and display state before completion of registration work, (B) is a figure which shows the target object and display state after completion of registration work. (A)は実空間中の対象物と設計情報(形状情報)とを一致させる作業完了前の対象物と表示状態と対象物の形状情報とを示す図であり、(B)は実空間中の対象物と設計情報(形状情報)とを一致させる作業完了後の対象物と表示状態と対象物の形状情報とを示す図である。(A) is a figure which shows the target object before the operation completion which makes the target object and design information (shape information) in real space correspond, a display state, and the shape information of a target object, (B) is in real space It is a figure which shows the target object after the completion of the operation | work which makes the target object, and design information (shape information) correspond, a display state, and the shape information of a target object. (A)は本発明の第2実施形態におけるレジストレーション作業完了前の対象物と表示状態とを示す図であり、(B)はレジストレーション作業完了後の対象物と表示状態とを示す図である。(A) is a figure which shows the target object and display state before completion of the registration work in 2nd Embodiment of this invention, (B) is a figure which shows the target object and display state after completion of registration work. is there. 第2実施形態の変形例を説明するためのレジストレーション作業完了前及び後の対象物と表示状態とを示す図である。It is a figure which shows the target object and display state before and after the completion of the registration operation for explaining a modification of the second embodiment. (A)は本発明の第3実施形態におけるレジストレーション作業完了前の対象物と表示状態と対象物の形状情報とを示す図であり、(B)はレジストレーション作業完了後の対象物と表示状態と対象物の形状情報とを示す図である。(A) is a figure which shows the target object before the registration work completion in 3rd Embodiment of this invention, a display state, and the shape information of a target object, (B) is the target object and display after completion of a registration work. It is a figure which shows a state and the shape information of a target object. 第3実施形態の変形例を説明するためのレジストレーション作業完了前の対象物と表示状態と対象物の形状情報とを示す図である。It is a figure which shows the target object before the registration operation completion for describing the modification of 3rd Embodiment, a display state, and the shape information of a target object. 第3実施形態の変形例を説明するためのレジストレーション作業完了後の対象物と表示状態と対象物の形状情報とを示す図である。It is a figure which shows the target object after the registration operation completion for describing the modification of 3rd Embodiment, a display state, and the shape information of a target object. 本発明の第4実施形態に係る情報呈示装置及びそれを用いた情報呈示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information presentation apparatus which concerns on 4th Embodiment of this invention, and an information presentation system using the same. 本発明の第5実施形態に係る情報呈示装置及びそれを用いた情報呈示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information presentation apparatus which concerns on 5th Embodiment of this invention, and an information presentation system using the same. 第5実施形態の変形例を説明するための情報呈示装置及びそれを用いた情報呈示システムのブロック構成図である。It is a block block diagram of the information presentation apparatus for demonstrating the modification of 5th Embodiment, and an information presentation system using the same. (A)は本発明の第6実施形態に係る情報呈示装置及びそれを用いた情報呈示システムにおいて実空間中の対象物と設計情報(形状情報)とを一致させる作業完了前の対象物と表示状態と対象物の形状情報とを示す図であり、(B)は実空間中の対象物と設計情報(形状情報)とを一致させる作業完了後の対象物と表示状態と対象物の形状情報とを示す図である。(A) is the information presentation apparatus and the information presentation system using the information presentation apparatus according to the sixth embodiment of the present invention, and the object and display before completion of the work for matching the object in the real space with the design information (shape information). It is a figure which shows a shape and the shape information of a target object, (B) is the target object after completion | finish of the operation | work which matches the target object and design information (shape information) in real space, and the shape information of a target object FIG. 第1実施形態の変形例を説明するための情報呈示装置及びそれを用いた情報呈示システムのブロック構成図である。It is a block block diagram of the information presentation apparatus for demonstrating the modification of 1st Embodiment, and an information presentation system using the same. 第4実施形態の変形例を説明するための情報呈示装置及びそれを用いた情報呈示システムのブロック構成図である。It is a block block diagram of the information presentation apparatus for demonstrating the modification of 4th Embodiment, and an information presentation system using the same. 図14の変形例を更に変形した構成を説明するための情報呈示装置及びそれを用いた情報呈示システムのブロック構成図である。It is a block block diagram of the information presentation apparatus for demonstrating the structure which further modified the modification of FIG. 14, and an information presentation system using the same. 図15の変形例を更に変形した構成を説明するための情報呈示装置及びそれを用いた情報呈示システムのブロック構成図である。It is a block block diagram of the information presentation apparatus for demonstrating the structure which further modified the modification of FIG. 15, and an information presentation system using the same.

符号の説明Explanation of symbols

1…対象物、 1A…対象物の画像、 2…対象物モデル、 3…対象物の形状情報、 4…マーカ、 4A…マーカの画像、 11…本体、 12,13,14,15…部品、 13A…部品13の画像、 14A…部品14の画像、 15A…部品15の画像、 21…本体のモデル、 22…部品12のモデル、 23…部品13のモデル、 23’…変更後の部品13のモデル、 24…マーカのモデル、 24’…移動されたマーカのモデル、 25…スケール、 26…部品14のモデル、 27…部品15のモデル、 27’,28…変更後のモデル、 31…本体の形状情報、 32…部品12の形状情報、 33…部品13の形状情報、 33’…変更後の部品13の形状情報、 34…マーカの形状情報、 34’…マーカの移動された形状情報、 35…部品14の形状情報、 36…部品15の形状情報、 36’…変更後の形状情報、 37…エルボ管の形状情報、 100…情報呈示装置、 101…画像入力部、 102…3次元位置姿勢関係出力部、 103…形状情報格納部、 104…誤差比較検出部、 105…形状情報管理部、 106…重畳画像生成部、 107…表示部、 108…3次元位置姿勢関係情報管理部、 109…画面、 110…属性情報格納部、 111…キーボード、 112…属性情報管理部、 120…3次元位置姿勢関係検出部、 200…3次元CAD、 201…3次元設計情報格納部、 202…形状情報生成部、 203…属性情報生成部。     DESCRIPTION OF SYMBOLS 1 ... Object, 1A ... Image of object, 2 ... Object model, 3 ... Shape information of object, 4 ... Marker, 4A ... Image of marker, 11 ... Main body, 12, 13, 14, 15 ... Parts, 13A ... Image of part 13 14A ... Image of part 14 15A ... Image of part 15 21 ... Model of main body 22 ... Model of part 12 23 ... Model of part 13 23 '... Part 13 after change Model 24 ... Marker model 24 '... Moved marker model 25 ... Scale 26 ... Part 14 model 27 ... Part 15 model 27', 28 ... Modified model 31 ... Main body Shape information, 32 ... Shape information of part 12, 33 ... Shape information of part 13, 33 '... Shape information of part 13 after change, 34 ... Shape information of marker, 34' ... Shape of moved marker Shape information 35 ... Shape information of the part 14 36 ... Shape information of the part 15 36 '... Shape information after change, 37 ... Shape information of the elbow tube, 100 ... Information presentation device, 101 ... Image input unit, 102 ... Three-dimensional position / orientation relationship output unit 103 ... Shape information storage unit 104 ... Error comparison detection unit 105 ... Shape information management unit 106 ... Superimposed image generation unit 107 ... Display unit 108 ... Three-dimensional position / orientation relationship information management 109: Screen, 110 ... Attribute information storage unit, 111 ... Keyboard, 112 ... Attribute information management unit, 120 ... Three-dimensional position and orientation relation detection unit, 200 ... Three-dimensional CAD, 201 ... Three-dimensional design information storage unit, 202 ... shape information generation unit, 203 ... attribute information generation unit.

Claims (3)

実空間に配置された対象物の画像を入力する画像入力手段と、
前記画像入力手段から入力された対象物上に配置されたマーカの画像から、前記画像入力手段と対象物との相対的な3次元位置姿勢関係を検出して出力する3次元位置姿勢関係出力手段と、
対象物の形状情報を格納する形状情報格納手段と、
前記3次元位置姿勢関係出力手段により検出された前記画像入力手段に対する対象物の位置姿勢に基づいて前記形状情報格納手段に格納された前記対象物の形状情報を変形して前記画像入力手段で入力された対象物の実際の位置姿勢における形状と格納された対象物の前記変形された形状情報との差分を検出する誤差比較検出手段と、
前記3次元位置姿勢関係出力手段の検出する前記画像入力手段と対象物との相対的な3次元位置姿勢関係を、前記誤差比較検出手段からの差分の値を用いて、対象物の形状情報に対する前記マーカの形状情報の位置姿勢を移動することで修正する3次元位置姿勢情報管理手段と、
前記3次元位置姿勢情報管理手段の修正した前記3次元位置姿勢関係出力手段の検出する前記画像入力手段と対象物との相対的な3次元位置姿勢関係を用いて、前記画像入力手段から入力された対象物の画像と、前記形状情報格納手段に格納された対象物の形状情報と、を重ね合わせた画像を生成する重畳画像生成手段と、
前記重畳画像生成手段が生成した画像を表示する表示手段と、
を具備することを特徴とする情報呈示装置。
Image input means for inputting an image of an object placed in real space;
3D position / orientation relationship output means for detecting and outputting a relative 3D position / orientation relationship between the image input means and the object from an image of a marker placed on the object input from the image input means When,
Shape information storage means for storing shape information of the object;
Based on the position and orientation of the object relative to the image input means detected by the three-dimensional position and orientation relation output means , the shape information of the object stored in the shape information storage means is transformed, and the image input means Error comparison detection means for detecting a difference between the shape at the actual position and orientation of the input object and the deformed shape information of the stored object;
The relative three-dimensional position / orientation relationship between the image input means and the object detected by the three-dimensional position / orientation output means is calculated with respect to the shape information of the object using the difference value from the error comparison / detection means. Three-dimensional position and orientation information management means for correcting by moving the position and orientation of the marker shape information;
Using the relative 3D position and orientation relationship between the image input means and the object detected by the 3D position and orientation relationship output means modified by the 3D position and orientation information management means, the image input means is input. Superimposed image generation means for generating an image obtained by superimposing the image of the target object and the shape information of the target object stored in the shape information storage means,
Display means for displaying an image generated by the superimposed image generation means;
An information presentation apparatus comprising:
前記誤差比較検出手段の検出する差分は、前記マーカを基準とした場合の、前記画像入力手段で入力された対象物の実際の位置姿勢における形状に対する格納された対象物の前記変形された形状情報の移動量であることを特徴とする請求項1に記載の情報呈示装置。 The difference detected by the error comparison detection means is the deformed shape information of the stored object relative to the shape of the object in the actual position and orientation input by the image input means when the marker is used as a reference. The information presenting apparatus according to claim 1, wherein the information presenting apparatus is an amount of movement. 前記誤差比較検出手段からの差分の値を用いて前記形状情報格納手段に格納された形状情報に反映させる形状情報管理手段をさらに具備し、
前記重畳画像生成手段は、前記画像入力手段から入力された対象物の画像と、前記形状情報格納手段に格納された、前記差分の値を用いて反映させた後の対象物の形状情報と、を重ね合わせた画像を生成することを特徴とする請求項1又は2に記載の情報呈示装置。
Further comprising shape information management means for reflecting the shape information stored in the shape information storage means using the difference value from the error comparison detection means;
The superimposed image generation means includes an object image input from the image input means, and shape information of the object after being reflected using the difference value stored in the shape information storage means, The information presentation apparatus according to claim 1, wherein an image in which the images are superimposed is generated.
JP2003400768A 2003-07-11 2003-11-28 Information presentation device Expired - Fee Related JP4540329B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2003400768A JP4540329B2 (en) 2003-07-11 2003-11-28 Information presentation device
EP04747254A EP1653191A4 (en) 2003-07-11 2004-07-02 Information presentation device and information presentation system using the same
PCT/JP2004/009786 WO2005005924A1 (en) 2003-07-11 2004-07-02 Information presentation device and information presentation system using the same
CN200480019973.4A CN1823256B (en) 2003-07-11 2004-07-02 Information display apparatus
KR1020067000665A KR20060030902A (en) 2003-07-11 2004-07-02 Information presentation device and information presentation system using the same
US11/327,776 US7433510B2 (en) 2003-07-11 2006-01-06 Information presentation apparatus and information presentation system using the same
HK06110939.7A HK1090414A1 (en) 2003-07-11 2006-10-03 Information presentation device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003273566 2003-07-11
JP2003355462 2003-10-15
JP2003400768A JP4540329B2 (en) 2003-07-11 2003-11-28 Information presentation device

Publications (2)

Publication Number Publication Date
JP2005141702A JP2005141702A (en) 2005-06-02
JP4540329B2 true JP4540329B2 (en) 2010-09-08

Family

ID=34704839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003400768A Expired - Fee Related JP4540329B2 (en) 2003-07-11 2003-11-28 Information presentation device

Country Status (1)

Country Link
JP (1) JP4540329B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2933218B1 (en) * 2008-06-30 2011-02-11 Total Immersion METHOD AND APPARATUS FOR REAL-TIME DETECTION OF INTERACTIONS BETWEEN A USER AND AN INCREASED REALITY SCENE
JP6165579B2 (en) * 2013-10-02 2017-07-19 共同印刷株式会社 Identification code reading system and method
JP6712453B2 (en) * 2015-10-16 2020-06-24 富士フイルム株式会社 Augmented reality providing system and method, information processing device, and program
JP7101381B2 (en) * 2018-04-11 2022-07-15 国立大学法人千葉大学 Parts management system and parts management method
JP6970817B2 (en) * 2018-04-11 2021-11-24 富士フイルム株式会社 Structure management equipment, structure management method, and structure management program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61277012A (en) * 1985-06-03 1986-12-08 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for correcting position and posture of camera
JPS6274155A (en) * 1985-09-27 1987-04-04 Olympus Optical Co Ltd Medical image filing device
JPH07146121A (en) * 1993-10-01 1995-06-06 Nippondenso Co Ltd Recognition method and device for three dimensional position and attitude based on vision
JP2002092044A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Equipment management system and its method and recording medium with equipment management program recorded thereon

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61277012A (en) * 1985-06-03 1986-12-08 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for correcting position and posture of camera
JPS6274155A (en) * 1985-09-27 1987-04-04 Olympus Optical Co Ltd Medical image filing device
JPH07146121A (en) * 1993-10-01 1995-06-06 Nippondenso Co Ltd Recognition method and device for three dimensional position and attitude based on vision
JP2002092044A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Equipment management system and its method and recording medium with equipment management program recorded thereon

Also Published As

Publication number Publication date
JP2005141702A (en) 2005-06-02

Similar Documents

Publication Publication Date Title
JP4434890B2 (en) Image composition method and apparatus
JP6171671B2 (en) Information processing apparatus, position specifying method, and position specifying program
US7433510B2 (en) Information presentation apparatus and information presentation system using the same
JP6585665B2 (en) Virtual object display system
JP5991423B2 (en) Display device, display method, display program, and position setting system
JP5378374B2 (en) Method and system for grasping camera position and direction relative to real object
JP5852364B2 (en) Information processing apparatus, information processing apparatus control method, and program
US8390534B2 (en) Method and device for generating tracking configurations for augmented reality applications
JP4834424B2 (en) Information processing apparatus, information processing method, and program
JP6144364B2 (en) Work support data creation program
US20190377330A1 (en) Augmented Reality Systems, Methods And Devices
CN109740487B (en) Point cloud labeling method and device, computer equipment and storage medium
Lin et al. A real-time 4D augmented reality system for modular construction progress monitoring
Ziaei et al. Real-time markerless Augmented Reality for Remote Handling system in bad viewing conditions
JP2010179403A (en) Robot simulation image display system
US11395102B2 (en) Field cooperation system and management device
JP2005031045A (en) Information presentation device and information presentation system
JP4540329B2 (en) Information presentation device
Scheuermann et al. Mobile augmented reality based annotation system: A cyber-physical human system
JP2006018444A (en) Image processing system and additional information indicating device
JP2020194214A (en) Image display device
JP2008040913A (en) Information processing method, and information processor
KR20200056688A (en) System and method for structural quality inspection using augmented reality
TWI737371B (en) System and method for integrating virtual and real space
JP2009008577A (en) Object recognizing device and program for object recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100622

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees