JP2007233971A - Image compositing method and device - Google Patents

Image compositing method and device Download PDF

Info

Publication number
JP2007233971A
JP2007233971A JP2006058366A JP2006058366A JP2007233971A JP 2007233971 A JP2007233971 A JP 2007233971A JP 2006058366 A JP2006058366 A JP 2006058366A JP 2006058366 A JP2006058366 A JP 2006058366A JP 2007233971 A JP2007233971 A JP 2007233971A
Authority
JP
Japan
Prior art keywords
image
sensor
camera
measurement range
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006058366A
Other languages
Japanese (ja)
Other versions
JP2007233971A5 (en
JP4834424B2 (en
Inventor
Kaname Tanimura
要 谷村
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006058366A priority Critical patent/JP4834424B2/en
Publication of JP2007233971A publication Critical patent/JP2007233971A/en
Publication of JP2007233971A5 publication Critical patent/JP2007233971A5/ja
Application granted granted Critical
Publication of JP4834424B2 publication Critical patent/JP4834424B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To visualize measurement areas of a position attitude sensor and an objective camera. <P>SOLUTION: A three-dimensional computer graphics model, representing measurement areas of the position attitude sensor and the objective camera, is prepared previously. A composite image formed, by superimposing the measurement areas of the position attitude sensor and the objective camera to an actual image in a real space, in which the position attitude sensor is arranged, is produced as an image for a positioned virtual object. When the composite image is displayed, the measurement areas of the position attitude sensor and the objective camera can be visualized. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、現実世界の画像にコンピュータにより生成された画像(CG:Computer Graphics)を位置合わせして重畳する画像合成技術に関する。   The present invention relates to an image composition technique for aligning and superimposing a computer generated image (CG: Computer Graphics) on a real world image.

実写画像を背景とし、その上にコンピュータグラフィックス(以下、CG)で生成した仮想物体の画像を位置合わせして重畳表示することにより、観察者に対して、あたかも現実空間中に仮想物体が存在するかのように体感させる複合現実感(Mixed Reality: MR)技術がある(例えば特許文献1参照)。   A virtual object exists in the real space as if it were in the real space by aligning and displaying the image of the virtual object generated by computer graphics (hereinafter referred to as CG) on the background of the real image. There is a mixed reality (MR) technology that allows the user to feel as if he / she is doing (see, for example, Patent Document 1).

MR技術の応用例には様々なものがある。例えば、患者の体表面の実写画像に、内蔵のCGを位置合わせして重畳表示することで、体内を透視しているように医師に提示する医療補助の用途。また、工場において製品の実写画像にその組み立て手順をCGで重畳表示することで、組み立て作業を補助する用途や、現実の風景の画像に地名や名称などをCGで重畳表示する案内用途などを例示することができる。   There are various application examples of MR technology. For example, a medical assistance application in which a built-in CG is aligned and superimposed on a live-action image of a patient's body surface to present to a doctor as if they are seeing through the body. In addition, examples of the use of assisting the assembly work by superimposing and displaying the assembly procedure on the actual image of the product at the factory in CG, and the guidance application for superimposing and displaying the name of the place and name on the image of the actual scenery, etc. can do.

なお、CGを重畳する背景は必ずしも撮影された画像である必要はなく、観察者の視線上に配置された半透明表示部材(ハーフミラーなど)にCGのみを表示することによっても同様の効果が実現される。このような方式を光学シースルー方式と呼ぶ。一方、実写画像を背景に用いる方式をビデオシースルー方式と呼ぶ。   Note that the background on which the CG is superimposed does not necessarily have to be a captured image, and the same effect can be obtained by displaying only CG on a translucent display member (such as a half mirror) disposed on the observer's line of sight. Realized. Such a method is called an optical see-through method. On the other hand, a method using a real image as a background is called a video see-through method.

特開平11−84307号公報Japanese Patent Laid-Open No. 11-84307

複合現実感を違和感なく観察者に体感させるためには、背景となる現実空間と、そこに重畳するCGとの位置合わせ精度が重要となる。そのため、通常は観察者の視点位置及び姿勢を計測し、計測した視点位置及び姿勢と、仮想物体の3次元モデルとを用いてCGを生成することにより、違和感の少ないCGの重畳を実現している。   In order for the observer to experience mixed reality without a sense of incongruity, the alignment accuracy between the real space serving as the background and the CG superimposed thereon is important. For this reason, the viewpoint position and orientation of the observer are usually measured, and the CG is generated by using the measured viewpoint position and orientation and the three-dimensional model of the virtual object, thereby realizing superimposition of CG with less discomfort. Yes.

観察者の視点位置姿勢は6自由度を有する情報であるため、その測定に用いられるセンサ(位置姿勢センサ)として利用できるものは限られており、一般に磁気センサ、光学センサ、画像センサが用いられている。   Since the observer's viewpoint position and orientation is information having six degrees of freedom, there are only a limited number of sensors (position and orientation sensors) that can be used for the measurement, and magnetic sensors, optical sensors, and image sensors are generally used. ing.

しかしながら、磁気センサや画像センサをはじめ、位置姿勢測定用のセンサは、予め設定された計測範囲を持ち、その計測範囲の中でしか位置姿勢を計測することができない。そのため、センサの配置によって観察者の行動できる範囲が限定されてしまう。   However, sensors for position and orientation measurement, including magnetic sensors and image sensors, have a preset measurement range, and can measure the position and orientation only within the measurement range. For this reason, the range in which the observer can act is limited by the arrangement of the sensors.

従って、現場にセンサを設置する際、どのようにセンサを配置するかが大きな課題となる。しかし、センサが用いる磁気や光といった情報は視覚的に捉えることができないため、センサの計測範囲は目視できず、結局のところ経験による勘に頼ってセンサを配置するしかなかった。しかし、勘に頼ったセンサの配置では、計画した計測範囲を確保できない場合があり、その場合には再度センサの設置調整を行う必要があるため、非効率であった。   Therefore, how to arrange a sensor becomes a big subject when installing a sensor in the field. However, since information such as magnetism and light used by the sensor cannot be grasped visually, the measurement range of the sensor cannot be visually observed, and eventually the sensor must be arranged by relying on experience. However, the arrangement of the sensors relying on intuition may not be able to ensure the planned measurement range, and in such a case, it is necessary to perform sensor installation adjustment again, which is inefficient.

また、センサの検出情報を補正するための情報を得るなどの目的により、センサに加えて客観カメラ(第3者の視点位置姿勢から撮影するカメラ)を用いることもある。しかし、センサと同様、カメラで撮影可能(計測可能な)範囲は限られているため、客観カメラの計測可能範囲についても可視化可能であることが好ましい。   In addition to the sensor, an objective camera (a camera that captures images from the viewpoint position and orientation of a third party) may be used in addition to the sensor for the purpose of obtaining information for correcting the detection information of the sensor. However, like the sensor, since the range that can be photographed (measured) by the camera is limited, it is preferable that the measurable range of the objective camera can also be visualized.

本発明はこのような従来技術の課題に鑑みなされたものであり、センサや客観カメラの計測範囲を可視化することで、画像合成システムの設定や管理を効率よく行えるようにすることを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to enable efficient setting and management of an image composition system by visualizing the measurement range of a sensor or an objective camera. .

上述の目的は、実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成方法において、位置姿勢が既知である客観カメラの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する第1の設定工程と、視点位置姿勢情報を取得する視点位置姿勢情報取得工程と、視点位置姿勢情報と、3次元コンピュータグラフィクスモデルとを用い、客観カメラの計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成工程と、実写画像とコンピュータグラフィックス画像とを合成する画像合成工程とを有することを特徴とする本発明の画像合成方法によって達成される。   The above-described object is to provide a first setting step of setting a three-dimensional computer graphics model representing a measurement range of an objective camera whose position and orientation are known in an image composition method for aligning and synthesizing a computer graphics image with a photographed image. A viewpoint position / orientation information acquisition step for acquiring viewpoint position / orientation information, a CG image generation step for generating a computer graphics image representing the measurement range of the objective camera using the viewpoint position / orientation information and a three-dimensional computer graphics model; The image synthesis method of the present invention is characterized by comprising an image synthesis step of synthesizing a real image and a computer graphics image.

また、上述の目的は、それぞれが予め定められた測定範囲を有するセンサと客観カメラとを用いて測定した位置姿勢情報を用い、実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成方法において、センサ及び客観カメラの、予め定められた計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定工程と、センサの検出情報及び客観カメラの撮影した画像から、実写画像を撮像するカメラの位置姿勢情報を取得するカメラ位置姿勢情報取得工程と、カメラ位置姿勢情報と、3次元コンピュータグラフィクスモデルとを用い、センサ及び客観カメラの予め定められた計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成工程と、実写画像とコンピュータグラフィクス画像とを合成する画像合成工程とを有することを特徴とする本発明による画像合成方法によっても達成される。   In addition, the above-described object is an image composition method for aligning and synthesizing a computer graphics image with a real image using position and orientation information measured using a sensor and an objective camera each having a predetermined measurement range. A setting process for setting a three-dimensional computer graphics model representing a predetermined measurement range of the sensor and the objective camera, and position and orientation information of the camera that captures a real image from the detection information of the sensor and the image captured by the objective camera Camera position / orientation information acquisition step for acquiring image data, and CG image generation step for generating a computer graphics image representing a predetermined measurement range of the sensor and objective camera using the camera position / orientation information and the three-dimensional computer graphics model A live-action image and a computer graphics image Also achieved by an image synthesizing method according to the present invention characterized by having an image synthesis process.

さらに、上述の目的は、観察者が装着する頭部装着型表示装置に設けられたカメラで撮影した実写画像に、予め用意した仮想物体の3次元コンピュータグラフィクスモデルとカメラの位置姿勢情報とを用いて生成した仮想物体の画像を合成し、合成画像を頭部装着型表示装置に表示する画像合成方法において、観察者が存在する空間中に配置されたセンサと客観カメラそれぞれの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定工程と、計測範囲を仮想物体の画像として生成する画像生成工程を有することを特徴とする本発明の画像合成方法によっても達成される。   Furthermore, the above-described object is to use a 3D computer graphics model of a virtual object and camera position / orientation information prepared in advance for a real image taken by a camera provided in a head-mounted display device worn by an observer. 3 represents the measurement range of each of the sensor and the objective camera arranged in the space where the observer exists in the image composition method for compositing the generated virtual object images and displaying the composite image on the head-mounted display device. The present invention is also achieved by an image composition method of the present invention comprising a setting step for setting a three-dimensional computer graphics model and an image generation step for generating a measurement range as an image of a virtual object.

さらに、上述の目的は、本発明の画像合成方法をコンピュータに実行させるプログラム及びこのプログラムを格納したコンピュータ読み取り可能な記録媒体によっても達成される。   Furthermore, the above-described object is also achieved by a program for causing a computer to execute the image composition method of the present invention and a computer-readable recording medium storing the program.

以上の構成により、本発明によれば、センサや客観カメラの目に見えない計測範囲を可視化することが可能となり、画像合成システムの設定や管理を効率よく行うことが可能となる。   With the above configuration, according to the present invention, it is possible to visualize a measurement range invisible to a sensor or an objective camera, and it is possible to efficiently set and manage an image composition system.

〈第1の実施形態〉
以下、添付図面を参照して本発明をその好適な実施形態に基づき詳細に説明する。
第1の実施形態に係る画像合成装置の一例は、センサに取り付けたマーカに基づいてセンサの位置情報を取得し、その位置にセンサの計測範囲を3次元CGのモデルデータを用いて重畳表示して、センサの計測範囲を可視化する。なお、計測範囲を可視化するための3次元CGのモデルデータは、センサの仕様による計測範囲に対応したモデルデータであっても良いし、経験によって得られる計測範囲でも良い。また、モデルデータの表示方法も特に制限はなく、そのまま出力しても良いし、透明度の設定を行って表示するなどしても良い。
<First Embodiment>
Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings.
An example of the image composition device according to the first embodiment acquires position information of a sensor based on a marker attached to the sensor, and superimposes and displays the measurement range of the sensor on the position using 3D CG model data. Visualize the measurement range of the sensor. Note that the 3D CG model data for visualizing the measurement range may be model data corresponding to the measurement range according to the sensor specifications, or may be a measurement range obtained through experience. The model data display method is not particularly limited, and may be output as it is, or may be displayed after setting transparency.

(画像合成装置の構成)
図1は、本実施形態における画像合成装置の構成例を示すブロック図である。また、図2は図1の画像合成装置を複合現実感アプリケーションに適用した場合の具体的な機器配置と、観察者が体感する複合現実感を模式的に示す図である。
(Configuration of image composition device)
FIG. 1 is a block diagram illustrating a configuration example of an image composition device according to the present embodiment. FIG. 2 is a diagram schematically showing a specific device arrangement when the image synthesizing apparatus of FIG. 1 is applied to a mixed reality application, and a mixed reality sensed by an observer.

図1において、小型のビデオカメラ101は現実空間を撮影する。ビデオカメラ101は、図2に示すように頭部搭載型画像表示装置(Head Mounted Display、以下HMDという)108の、観察者201の両目に近い部分に、それぞれ観察者の視線と一致する向きに固定されている。なお、右目用、左目用のビデオカメラ101を用いる代わりに、単眼のビデオカメラを用いたり、観察者が手で保持するタイプの表示装置(Hand Held Display、以下HHDという)にビデオカメラを取り付けても良い。   In FIG. 1, a small video camera 101 captures a real space. As shown in FIG. 2, the video camera 101 has a head-mounted image display device (Head Mounted Display, hereinafter referred to as an HMD) 108 in a portion close to both eyes of the observer 201 in a direction that matches the line of sight of the observer. It is fixed. Instead of using the right-eye and left-eye video cameras 101, a monocular video camera is used, or a video camera is attached to a display device (Hand Held Display, hereinafter referred to as HHD) that is held by an observer. Also good.

なお、以下では、説明及び理解を簡単にするため、右目用ビデオカメラと左目用ビデオカメラが撮影した一対の画像に対してそれぞれ行われる処理であっても、1つの画像に対する処理として説明することがある。しかし、一対のビデオカメラ(複眼カメラ)を用いる場合には、各ビデオカメラが撮影した画像についてそれぞれ同様の処理が行われ、一対の合成画像が生成され、例えばHMDが有する右目用表示装置、左目用表示装置に独立して表示される。   In the following, in order to simplify the explanation and understanding, even if the processing is performed for each of a pair of images taken by the right-eye video camera and the left-eye video camera, it will be described as processing for one image. There is. However, when using a pair of video cameras (compound-eye cameras), the same processing is performed on the images captured by each video camera to generate a pair of composite images. For example, the right-eye display device or the left-eye included in the HMD Displayed on the display device.

例えばビデオキャプチャボードである画像入力部102は、ビデオカメラ101より撮影された映像(画像)を入力する。図2では観察者が現実物体である机の上を見ているものとする。ビデオカメラ101で撮影された画像の信号は、画像入力部102によって処理され、ディジタル画像データとして画像合成部107及びマーカ検出部103に供給される。   For example, an image input unit 102 that is a video capture board inputs a video (image) taken by the video camera 101. In FIG. 2, it is assumed that the observer is looking on a desk that is a real object. An image signal captured by the video camera 101 is processed by the image input unit 102 and supplied to the image composition unit 107 and the marker detection unit 103 as digital image data.

マーカ検出部103は画像入力部102から供給される画像から、図2に示す2次元マーカ205を検出する。2次元マーカは、現実空間上の絶対位置が既知の、画像から抽出可能な特徴(色、形、パターンなど)を有する指標である。従って、マーカ検出部103は、2次元マーカ205の有する特徴に合致する領域を画像中から探索することにより2次元マーカ205を検出する。   The marker detection unit 103 detects the two-dimensional marker 205 shown in FIG. 2 from the image supplied from the image input unit 102. The two-dimensional marker is an index having a feature (color, shape, pattern, etc.) that can be extracted from an image, whose absolute position in the real space is known. Therefore, the marker detection unit 103 detects the two-dimensional marker 205 by searching the image for an area that matches the characteristics of the two-dimensional marker 205.

視点位置姿勢算出部104は、観察者の頭部202に装着されたHMD108の3次元位置、姿勢を算出する。この算出には、マーカ検出部103が検出したマーカ情報(画像中の位置やマーカ205の向き、面積など)と、マーカ205の特徴点のマーカ座標系における位置及びビデオカメラ101のカメラパラメータなどを用いる。視点位置姿勢算出部104の処理の詳細については後述する。   The viewpoint position / orientation calculation unit 104 calculates the three-dimensional position and orientation of the HMD 108 mounted on the observer's head 202. For this calculation, the marker information (position in the image, direction of the marker 205, area, etc.) detected by the marker detection unit 103, the position of the feature point of the marker 205 in the marker coordinate system, the camera parameters of the video camera 101, and the like. Use. Details of processing of the viewpoint position and orientation calculation unit 104 will be described later.

画像生成部105は、仮想空間データベース106に登録されている3次元CGモデルデータを視点位置姿勢算出部104で算出したHMD108の位置姿勢データを元に、観察者の視点から観察されるべきCG画像の生成を行う。仮想空間データベース106は例えばハードディスクドライブである。生成したCG画像は画像合成部107へ供給する。画像生成部105におけるCG画像の生成においては、仮想空間データベース106に含まれるCGモデルの幾何情報、色やテクスチャなどの属性情報、および照明情報が用いられる。なお、3次元CG画像の生成は既知の技術であるのでその詳細についての説明は省略する。   The image generation unit 105 generates a CG image to be observed from the viewpoint of the observer based on the position / orientation data of the HMD 108 calculated by the viewpoint position / orientation calculation unit 104 from the three-dimensional CG model data registered in the virtual space database 106. Is generated. The virtual space database 106 is, for example, a hard disk drive. The generated CG image is supplied to the image composition unit 107. In the generation of the CG image in the image generation unit 105, geometric information of the CG model, attribute information such as color and texture, and illumination information included in the virtual space database 106 are used. Since generation of a three-dimensional CG image is a known technique, a detailed description thereof is omitted.

画像合成部107は、画像入力部102からの実写画像と、画像生成部105からのCG画像(仮想物体206の画像)とを合成し、HMD108に出力する。HMD108に表示された合成画像を観察者が見ると、机204の上に仮想物体206があるかのように見える。   The image synthesis unit 107 synthesizes the real image from the image input unit 102 and the CG image (image of the virtual object 206) from the image generation unit 105, and outputs the synthesized image to the HMD 108. When the observer views the composite image displayed on the HMD 108, it appears as if the virtual object 206 is on the desk 204.

なお、このような画像合成装置のうち、ビデオカメラ101を除く機能ブロックについては、ビデオキャプチャボードを装着した汎用コンピュータ装置によって実現することが可能である。従って、以下に説明する画像合成装置内の処理は、少なくともその一部をCPUが制御プログラムを実行することによってソフトウェア的に実現することが可能である。   Of these image composition apparatuses, functional blocks excluding the video camera 101 can be realized by a general-purpose computer apparatus equipped with a video capture board. Therefore, at least a part of the processing in the image composition apparatus described below can be realized by software by the CPU executing the control program.

(センサ計測範囲の可視化)
本実施形態においては、上で説明した画像合成装置を用いて、位置姿勢センサの計測範囲を可視化することを特徴とする。
図3は本実施形態における位置姿勢センサの計測範囲可視化を模式的に示す図である。観察者201は例えばHMD108に取り付けられたビデオカメラ101により、一対のセンサ301に取り付けた2次元マーカ205を撮像する。そして、予め用意したセンサ301の計測範囲の3次元モデルデータを仮想空間データベース106より読み出し、センサ301の計測範囲を表すCG画像302を視点位置姿勢算出部104が算出する観察者の視点位置姿勢に基づいて生成する。このCG画像302をカメラ101で撮影した実写画像と合成してHMD108に表示することで、観察者にセンサ301の計測範囲を提示する。
(Visualization of sensor measurement range)
In the present embodiment, the measurement range of the position and orientation sensor is visualized using the image composition apparatus described above.
FIG. 3 is a diagram schematically showing visualization of the measurement range of the position and orientation sensor in the present embodiment. The observer 201 images the two-dimensional marker 205 attached to the pair of sensors 301 by using, for example, the video camera 101 attached to the HMD 108. Then, the three-dimensional model data of the measurement range of the sensor 301 prepared in advance is read from the virtual space database 106, and the CG image 302 representing the measurement range of the sensor 301 is set as the viewpoint position / posture of the observer calculated by the viewpoint position / posture calculation unit 104. Generate based on. The CG image 302 is combined with a real image captured by the camera 101 and displayed on the HMD 108 to present the measurement range of the sensor 301 to the observer.

なお、上述したように、センサの計測範囲を表す3次元モデルデータには、センサの仕様上の計測範囲を用いても良いし、経験による計測範囲を用いてもよい。また、ワイヤーフレーム表示、面のある立体として表示、不透明物体として表示、透明度を有する物体として表示など、任意の表示方法を採用することができる。また、センサが複数存在する場合には、個々のセンサの計測範囲が識別できるよう、色などの視覚的に識別可能な属性を異ならせて表示することも可能である。また、2つのセンサの各々のみが計測可能な範囲を赤と青で、重複する計測範囲は紫で表示するようにするなど、計測範囲の重なりを把握しやすくなるように表示することも可能である。   Note that, as described above, for the three-dimensional model data representing the measurement range of the sensor, a measurement range based on the sensor specifications may be used, or a measurement range based on experience may be used. Further, any display method such as wire frame display, display as a solid with a surface, display as an opaque object, display as an object having transparency, and the like can be employed. When there are a plurality of sensors, visually distinguishable attributes such as colors can be displayed so that the measurement ranges of the individual sensors can be identified. In addition, it is possible to display so that it is easy to grasp the overlap of the measurement range, such as displaying the range that can be measured only by each of the two sensors in red and blue and the overlapping measurement range in purple. is there.

また、本実施形態において、2次元マーカ205は、白色カード上に書かれた黒色正方形であり、黒色正方形によるパターンをマーカ毎に異ならせることで、マーカの識別を容易にしている。マーカの詳細についても後述する。   In the present embodiment, the two-dimensional marker 205 is a black square written on a white card, and the pattern of the black square is made different for each marker to facilitate marker identification. Details of the marker will also be described later.

(センサの計測範囲の3次元モデルの作成方法)
本実施形態において用いることができる、センサの計測範囲の3次元モデルの作成方法としては、様々な方法が考えられる。
まず、センサの仕様に基づき計測範囲の3次元モデルを作成する方法を説明する。
位置姿勢センサが光学センサの場合は、図9に示されるような対象機種の仕様に基づき、計測範囲の寸法をコンピュータグラフィックのモデリングソフト上で入力することで、センサの計測範囲の3次元モデルを作成することができる。
また、磁気センサの場合は、対象機種の仕様に記載されている計測範囲の距離を半径とする半球をコンピュータグラフィックのモデリングソフトで作成することにより、センサの計測範囲の3次元モデルを作成することができる。
(How to create a 3D model of sensor measurement range)
Various methods can be considered as a method for creating a three-dimensional model of the sensor measurement range that can be used in the present embodiment.
First, a method for creating a three-dimensional model of a measurement range based on sensor specifications will be described.
When the position / orientation sensor is an optical sensor, based on the specifications of the target model as shown in FIG. 9, the dimension of the measurement range is input on the computer graphic modeling software, so that the three-dimensional model of the sensor measurement range is obtained. Can be created.
In the case of a magnetic sensor, create a three-dimensional model of the sensor's measurement range by creating a hemisphere with the radius of the measurement range described in the specifications of the target model using computer graphic modeling software. Can do.

次に、経験に基づき位置姿勢センサの計測範囲の3次元モデルを作成する方法を説明する。
センサの計測範囲外に出たときにセンサから「センサの計測範囲外」という旨のデータが送られてくる場合は、その直前の座標(X,Y,Z)データを複数取得、格納しておく。そして、格納した座標点を頂点としたポリゴンを生成することで、計測範囲をモデリングすることができる。格納した頂点からポリゴンを生成する方法としては、Marching Cubes法「Lorensen,W.E and Cline H.E, Marching Cubes: A High Resolution 3D Surface Construction Algorithm,ACM computer Graphics,21(3),1987.」などが知られている。
「センサの計測範囲外」という旨のデータが送られてこない場合は、オペレータが予め体験し、その体験結果から計測範囲を示す3次元データを作成する。例えば、磁気センサでは、計測結果から半球の半径を設定し、半球の3次元モデルを作成する。
Next, a method for creating a three-dimensional model of the measurement range of the position and orientation sensor based on experience will be described.
If data indicating “outside sensor measurement range” is sent from the sensor when it goes out of the measurement range of the sensor, acquire and store multiple pieces of the immediately preceding coordinate (X, Y, Z) data deep. Then, the measurement range can be modeled by generating a polygon having the stored coordinate point as a vertex. As a method of generating polygons from stored vertices, the Marching Cubes method `` Lorensen, WE and Cline HE, Marching Cubes: A High Resolution 3D Surface Construction Algorithm, ACM computer Graphics, 21 (3), 1987. '' ing.
When data indicating “outside sensor measurement range” is not sent, the operator experiences in advance and creates three-dimensional data indicating the measurement range from the experience result. For example, in the magnetic sensor, the radius of the hemisphere is set from the measurement result, and a three-dimensional model of the hemisphere is created.

(視点位置姿勢算出部104)
ここで、本実施形態に係る画像合成装置において重要な機能を果たす視点位置姿勢算出部104の動作について詳細に説明する。視点位置姿勢算出部104の基本的な動作は座標変換である。
(Viewpoint position and orientation calculation unit 104)
Here, the operation of the viewpoint position / orientation calculation unit 104 that performs an important function in the image composition apparatus according to the present embodiment will be described in detail. The basic operation of the viewpoint position and orientation calculation unit 104 is coordinate conversion.

図4は本実施形態の画像合成装置が取り扱う座標系を示している。
本実施形態において、仮想物体206はマーカ座標系401の上で表現される。
撮影画像中のマーカ位置およびマーカ座標系におけるマーカ位置の関係に基づき、マーカ座標系からカメラ座標系への変換行列Tcmを動的に求める。そして、予め求められている、カメラ座標系からHMDスクリーン座標系への変換行列Tscと、変換行列Tcmとに基づき、マーカ座標系で定義されているセンサの計測範囲の3次元モデルを変換して、仮想物体206をHMDスクリーン上に表示する。
FIG. 4 shows a coordinate system handled by the image composition apparatus of this embodiment.
In the present embodiment, the virtual object 206 is expressed on the marker coordinate system 401.
Based on the relationship between the marker position in the captured image and the marker position in the marker coordinate system, a transformation matrix T cm from the marker coordinate system to the camera coordinate system is dynamically obtained. Then, based on the conversion matrix T sc from the camera coordinate system to the HMD screen coordinate system and the conversion matrix T cm which are obtained in advance, the three-dimensional model of the measurement range of the sensor defined in the marker coordinate system is converted. Then, the virtual object 206 is displayed on the HMD screen.

以下に、変換行列の算出方法を具体的に説明する。
図3の実施形態では、配置する2台のセンサの夫々に対してマーカを取り付け、各センサの計測範囲の3次元モデルを独立に管理している。したがって、本実施形態では、以下に示す変換行列の算出を、各マーカに対して行う。
カメラ座標系402は焦点位置を原点、画像平面に垂直な方向をZ軸、画像のx,y軸に平行な方向を各X,Y軸とする。
マーカ座標系401で表現された任意の点(X,Y,Z)は、回転移動と平行移動の組合せでカメラ座標系402上の点に変換可能であり、カメラ座標系402では(X,Y,Z)と表記する。
Below, the calculation method of a conversion matrix is demonstrated concretely.
In the embodiment of FIG. 3, a marker is attached to each of the two sensors to be arranged, and the three-dimensional model of the measurement range of each sensor is managed independently. Therefore, in this embodiment, the conversion matrix shown below is calculated for each marker.
In the camera coordinate system 402, the focal position is the origin, the direction perpendicular to the image plane is the Z axis, and the directions parallel to the x and y axes of the image are the X and Y axes.
An arbitrary point (X m , Y m , Z m ) expressed in the marker coordinate system 401 can be converted into a point on the camera coordinate system 402 by a combination of rotational movement and parallel movement. Xc , Yc , Zc ).

透視変換モデルによって投影される画像平面を理想スクリーン座標系403と呼ぶ。カメラ座標系402における点(X,Y,Z)は理想スクリーン座標系403において(x,y)に写るものとする。
また、複合現実感システムにおいては広範囲における位置計測が要求され、そのためにビデオカメラ101には広角レンズが用いられる。そのため、撮影した画像には樽型歪みが発生する。
An image plane projected by the perspective transformation model is called an ideal screen coordinate system 403. It is assumed that a point (X c , Y c , Z c ) in the camera coordinate system 402 appears in (x c , y c ) in the ideal screen coordinate system 403.
Further, in the mixed reality system, position measurement in a wide range is required, and therefore a wide-angle lens is used for the video camera 101. Therefore, barrel distortion occurs in the photographed image.

そこで、まず、理想スクリーン座標系403から画像歪み変換関数404によって変換された座標系を観測スクリーン座標系405とする。また、実際にビデオカメラ101から取り込まれた画像データを観測スクリーン座標系405で表現し、その座標値を(x,y)で表す。 First, a coordinate system converted from the ideal screen coordinate system 403 by the image distortion conversion function 404 is set as an observation screen coordinate system 405. Further, the image data actually captured from the video camera 101 is expressed by the observation screen coordinate system 405, and the coordinate value is expressed by (x d , y d ).

HMD108と観察者の目は理想的な透視変換モデルで表現できる。HMD108の画像表示面をHMDスクリーン座標系406と呼び、その上の座標値を(x,y)で表す。このHMDスクリーン座標系406に対し同一方向にX,Y軸を持ち、垂直な方向にZ軸を有する、目の焦点位置を原点とする座標系を視点座標系407と呼び、その座標値は(X,Y,Z)で表す。 The HMD 108 and the observer's eyes can be expressed by an ideal perspective transformation model. The image display surface of the HMD 108 is referred to as an HMD screen coordinate system 406, and the coordinate values above it are represented by (x s , y s ). A coordinate system having the X and Y axes in the same direction and the Z axis in the vertical direction with respect to the HMD screen coordinate system 406 and having the focal point of the eye as the origin is called a viewpoint coordinate system 407, and the coordinate value is ( Xe , Ye , Ze ).

この視点座標系407の設定は、視線方向をZ軸にした方が考えやすいが、HMDスクリーン座標系406との間に透視変換モデルを成立させるためには、そのスクリーンとの相対的な関係によって規定されるような座標系設定が重要となる。また、視点座標系407及びHMDスクリーン座標系406は左右各々の目に対して設定する必要があるが、ここでは説明の簡素化のために両眼に共通した座標系として説明する。   This viewpoint coordinate system 407 is easier to set when the line-of-sight direction is the Z-axis, but in order to establish a perspective transformation model with the HMD screen coordinate system 406, depending on the relative relationship with the screen. The coordinate system setting as specified is important. The viewpoint coordinate system 407 and the HMD screen coordinate system 406 need to be set for each of the left and right eyes. Here, for simplicity of explanation, the viewpoint coordinate system 407 and the HMD screen coordinate system 406 will be described as a coordinate system common to both eyes.

次に、視点位置姿勢算出部104における処理の概要を、図5に示すフローチャートを用いて説明する。
S501の前処理では、入力された実写画像に対して、固定閾値による2値化、連結領域ごとの面積・外接長方形計算を行う。本実施形態においては、これらの処理を1パスで行うアルゴリズムを用いることで高速化を図っている。
Next, an outline of processing in the viewpoint position / orientation calculation unit 104 will be described with reference to a flowchart shown in FIG.
In the pre-processing of S501, binarization with a fixed threshold value and area / circumscribed rectangle calculation for each connected region are performed on the inputted real image. In this embodiment, the speed is increased by using an algorithm that performs these processes in one pass.

S502のマーカ抽出では、S501で検出された連結領域から、面積値によって巨大領域と微少領域を除外し、さらに連結領域に外接する長方形情報から、画像境界に接する連結領域も除外する。
残された連結領域に対して輪郭線追跡を行い、輪郭線上の画素位置をすべて記憶する。
In the marker extraction in S502, the giant region and the minute region are excluded from the connected region detected in S501 by the area value, and the connected region that touches the image boundary is also excluded from the rectangle information that circumscribes the connected region.
Contour tracking is performed on the remaining connected regions, and all pixel positions on the contour are stored.

輪郭線データに対して折れ線近似を行い、4本の線分によって十分な精度で近似できた連結領域をマーカ候補とする。そして、マーカ候補領域の4つの折れ点(頂点)の座標値を記憶しておく。   A polygonal line approximation is performed on the contour line data, and a connected region that can be approximated with sufficient accuracy by four line segments is set as a marker candidate. Then, the coordinate values of the four break points (vertices) of the marker candidate area are stored.

図6は、本実施形態に適用可能な次元マーカの例を示す。
2次元マーカは、黒い枠の中に識別用のパターン501が設けられた正方形マーカである。なお、本実施形態ではテンプレートマッチングによりマーカ識別を行っているため、中央部の識別用パターンはマーカの方向性(上下左右)が認識できる任意のシンボルを用いることができる。
FIG. 6 shows an example of a dimension marker applicable to the present embodiment.
The two-dimensional marker is a square marker in which an identification pattern 501 is provided in a black frame. In this embodiment, since marker identification is performed by template matching, an arbitrary symbol that can recognize the directionality (up / down / left / right) of the marker can be used as the identification pattern in the center.

そして、S503のマーカ識別では、実写画像と予め登録したパターンとのテンプレートマッチングによりマーカを検出及び識別する。
このテンプレートマッチングを行うためには、画像の正規化を行う必要がある。
In the marker identification in S503, the marker is detected and identified by template matching between the photographed image and a previously registered pattern.
In order to perform this template matching, it is necessary to normalize the image.

まず、透視変換モデルによって、マーカをマーカ座標系401から理想スクリーン座標系403に投影する。
式1は、マーカ座標系401のX−Y平面内の点(X,Y,0)を、透視変換モデル行列Cによって理想スクリーン座標系403上の点(x,y)に変換する変換式である。
First, the marker is projected from the marker coordinate system 401 to the ideal screen coordinate system 403 by the perspective transformation model.
Equation 1 shows that a point (X m , Y m , 0) in the X m -Y m plane of the marker coordinate system 401 is converted into a point (x c , y c ) on the ideal screen coordinate system 403 by the perspective transformation model matrix C. Is a conversion formula to convert to.

Figure 2007233971
Figure 2007233971

マーカの物理的な大きさ(図6における一辺の長さL(mm))は既知なので、その情報と画像から検出したマーカ候補領域の4頂点の座標値とを用いて、連立方程式を解くと透視変換モデル行列Cの値を求めることができる。従って、マーカ内部のパターンはこの式によって正規化できる。   Since the physical size of the marker (the length L (mm) of one side in FIG. 6) is known, using the information and the coordinate values of the four vertices of the marker candidate area detected from the image, the simultaneous equations are solved. The value of the perspective transformation model matrix C can be obtained. Therefore, the pattern inside the marker can be normalized by this equation.

具体的には、マーカ内部のパターン領域を縦横64x64の領域に分割し、各領域に対応する画素値を入力画像から抜き出し、64x64画素のパターン画像を得る。これを16x16画素の画像に縮小し、テンプレートマッチングに使用する。   Specifically, the pattern area inside the marker is divided into vertical and horizontal 64 × 64 areas, and pixel values corresponding to the respective areas are extracted from the input image to obtain a 64 × 64 pixel pattern image. This is reduced to an image of 16 × 16 pixels and used for template matching.

また、テンプレートマッチングに用いるテンプレートは、マーカの回転に対処するために、0度、90度、180度、270度に回転した状態のものを各1枚、合計4枚作成しておく。   In addition, in order to cope with the rotation of the marker, templates used for template matching are created in a total of four, one each rotated at 0 degrees, 90 degrees, 180 degrees, and 270 degrees.

式2は、4枚のテンプレート画像と入力画像間の類似度を計算する式である。   Expression 2 is an expression for calculating the similarity between the four template images and the input image.

Figure 2007233971
Figure 2007233971

式2において、xは16x16の縮小画像(画像ベクトル)のi番目の要素を示す。x〜は要素の平均値で、Nは次元数(この場合は255となる)。x(l)はl番目(l=1、2、3、4)のテンプレート画像(画像ベクトル)を意味し、x (l)はl番目のテンプレート画像のi番目の画素を意味する。そして、式2は明るさの正規化された2つの画像ベクトルの余弦を求める式に相当する。
そして、縮小画像との類似度sが最大値となるテンプレートの種類と向きを、マーカの種類及び方向と見なす。
In Expression 2, x i represents the i-th element of a 16 × 16 reduced image (image vector). x is an average value of elements, and N is the number of dimensions (in this case, 255). x (l) means the l-th (l = 1, 2, 3, 4) template image (image vector), and x i (l) means the i-th pixel of the l-th template image. Expression 2 corresponds to an expression for obtaining the cosine of two image vectors with normalized brightness.
Then, the template type and direction in which the similarity s with the reduced image has the maximum value are regarded as the marker type and direction.

続いて、S504の頂点の位置検出では、マーカの各辺に対応する輪郭線データに最小2乗法で直線当てはめを行い、それら直線の交点を頂点座標値とする。   Subsequently, in the vertex position detection of S504, straight line fitting is performed on the contour line data corresponding to each side of the marker by the least square method, and the intersection of these straight lines is set as the vertex coordinate value.

Figure 2007233971
Figure 2007233971

この直線当てはめの際、式3の歪み関数による変換を行い、理想スクリーン座標系403における頂点座標値を求める。
ここで、(x,y)は理想スクリーン座標系403における座標値、(x,y)は観測スクリーン座標系405における座標値である。
At the time of this straight line fitting, conversion by the distortion function of Expression 3 is performed, and the vertex coordinate value in the ideal screen coordinate system 403 is obtained.
Here, (x c , y c ) is a coordinate value in the ideal screen coordinate system 403, and (x d , y d ) is a coordinate value in the observation screen coordinate system 405.

また、pは歪み率、(xc0,yc0)は歪み中心座標値で、この3パラメータはカメラキャリブレーションによって予め算出しておく。 Further, p is a distortion rate, (x c0 , y c0 ) is a distortion center coordinate value, and these three parameters are calculated in advance by camera calibration.

観測された正方形マーカ画像には広角レンズの影響で樽型歪みが生じているため、マーカの辺は曲線として観測される。しかし、観測スクリーン座標系405から理想スクリーン座標系403への変換式3により樽型歪みが補正され、辺は直線として取り扱うことができる。   Since the observed square marker image has barrel distortion due to the influence of the wide-angle lens, the side of the marker is observed as a curve. However, the barrel distortion is corrected by the conversion formula 3 from the observation screen coordinate system 405 to the ideal screen coordinate system 403, and the side can be handled as a straight line.

最後に、S505の後処理では、マーカの誤検出の抑制を行う。具体的には、処理中に過去のマーカの検出位置とその大きさを記憶しておき、検出されたマーカの位置・大きさが記憶されている値に類似している場合には、同一マーカと見なす。類似度が所定値よりも低い場合には異なるマーカもしくは誤検出と判断する。これにより、マーカのパターン識別誤りを抑制することが可能である。   Finally, in the post-process of S505, suppression of marker misdetection is performed. Specifically, the past marker detection position and size are stored during processing, and if the detected marker position / size is similar to the stored value, the same marker is detected. Is considered. When the similarity is lower than a predetermined value, it is determined that the marker is different or erroneously detected. Thereby, it is possible to suppress marker pattern identification errors.

次に、マーカの3次元位置推定処理に関して説明する。
まず、マーカ座標系401からカメラ座標系402への変換行列Tcm の推定を行う。
この変換行列は、回転移動成分Rと平行移動成分Tからなる。理想スクリーン座標系403とカメラ座標系402の間は透視変換モデルで変換でき、その具体的な変換行列Pは事前にキャリブレーションにより算出することができる。この透視変換モデルの算出は一般的に利用されている技術であるため、ここでは、その具体的な算出方法の説明は省略する。
Next, the marker three-dimensional position estimation process will be described.
First, the conversion matrix T cm from the marker coordinate system 401 to the camera coordinate system 402 is estimated.
This transformation matrix is composed of a rotational movement component R and a parallel movement component T. The ideal screen coordinate system 403 and the camera coordinate system 402 can be transformed by a perspective transformation model, and the specific transformation matrix P can be calculated in advance by calibration. Since the calculation of the perspective transformation model is a commonly used technique, the description of the specific calculation method is omitted here.

以下の式4、5はこれらの座標系の関係を示したものである。   The following formulas 4 and 5 show the relationship between these coordinate systems.

Figure 2007233971
Figure 2007233971
Figure 2007233971
Figure 2007233971

式1は、マーカ座標系401のX−Y平面内座標値(2次元座標値)と理想スクリーン座標系403の関係式であったが、式4及び5は、マーカ座標系401の3次元座標値とカメラ座標系402の関係式である。 Expression 1 is a relational expression between the X m -Y m in- plane coordinate value (two-dimensional coordinate value) of the marker coordinate system 401 and the ideal screen coordinate system 403, but Expressions 4 and 5 are 3 of the marker coordinate system 401. This is a relational expression between the dimension coordinate value and the camera coordinate system 402.

マーカ座標系401におけるマーカの4頂点の座標値は図6に示すように設定されており、これらに対応する理想スクリーン座標系403における座標値もこれまでの処理で得られている。   The coordinate values of the four vertices of the marker in the marker coordinate system 401 are set as shown in FIG. 6, and the coordinate values in the ideal screen coordinate system 403 corresponding to these are also obtained by the processing so far.

図7は式4及び式5より変換行列Tcmを算出する際の手順を示したフローチャートである。
S701では、回転移動成分Rの推定を行う。
FIG. 7 is a flowchart showing a procedure for calculating the transformation matrix T cm from Equation 4 and Equation 5.
In S701, the rotational movement component R is estimated.

理想スクリーン座標系403におけるマーカの頂点位置から向かい合う2辺の直線の方程式が得られる(式6)。
そして、式5の(x,y)をこれに代入すると、式7が得られる。
An equation of two straight lines facing from the vertex position of the marker in the ideal screen coordinate system 403 is obtained (Formula 6).
Then, by substituting (x c , y c ) in Expression 5 into Expression 7, Expression 7 is obtained.

Figure 2007233971
Figure 2007233971

式7は、カメラ座標系402によって表現される3次元空間中の平面の方程式であり、3次元空間中のマーカの辺がこの平面内に存在することを意味する。マーカの向かい合う2辺は平行なのでその方向ベクトルは一致し、式7の2平面の面内方向となる。つまり、式7の2平面の各法線ベクトルの外積として計算されるベクトルが、平行2辺のカメラ座標系402における方向ベクトルとなる。   Expression 7 is an equation of a plane in the three-dimensional space expressed by the camera coordinate system 402, and means that the side of the marker in the three-dimensional space exists in this plane. Since the two opposite sides of the marker are parallel, their direction vectors coincide, and the in-plane directions of the two planes of Equation 7 are obtained. That is, the vector calculated as the outer product of the normal vectors of the two planes of Expression 7 is the direction vector in the camera coordinate system 402 with two parallel sides.

この計算を2組の平行2辺に対して行うことで、マーカの隣り合う2辺の方向ベクトルU,Uを求めることができる。本実施形態で用いるマーカは正方形であるので、理想的には、この2つのベクトルは直交するが、計測誤差により実際には直交しない。そこで、計測された2つの方向ベクトルに対し、それらを含む平面内で直交する2つの単位ベクトルV,Vを計算し、これをU,Uの代わりに用いる。 By performing this calculation on two sets of parallel two sides, the direction vectors U 1 and U 2 of two adjacent sides of the marker can be obtained. Since the marker used in this embodiment is a square, ideally, these two vectors are orthogonal, but are not actually orthogonal due to measurement errors. Therefore, two unit vectors V 1 and V 2 which are orthogonal to each other in the plane including them are calculated for the two measured direction vectors, and these are used instead of U 1 and U 2 .

またこのV,Vの外積を計算することでマーカ平面に垂直な方向の単位ベクトルVも得られる。このとき、[V ,V ,V ]が、マーカ座標系401からカメラ座標系402への回転変換成分Rとなる。 Further, by calculating the outer product of V 1 and V 2 , a unit vector V 3 in the direction perpendicular to the marker plane can be obtained. At this time, [V 1 t , V 3 t , V 3 t ] is a rotation conversion component R from the marker coordinate system 401 to the camera coordinate system 402.

ただし、前述のテンプレートマッチングの結果から、2つの方向ベクトルとマーカ座標系401のX軸Y軸の対応関係および正逆方向を判定しておく必要がある。マーカ座標系401のZ軸はマーカ平面下向きに設定しているので、カメラ座標系402の原点から理想スクリーン座標系403でのマーカ対角線交点を向く方向ベクトルとの内積が正になる方向に設定する。   However, it is necessary to determine the correspondence between the two direction vectors and the X and Y axes of the marker coordinate system 401 and the forward and reverse directions from the result of the template matching described above. Since the Z-axis of the marker coordinate system 401 is set downward in the marker plane, it is set in a direction in which the inner product of the direction vector pointing from the origin of the camera coordinate system 402 to the marker diagonal intersection in the ideal screen coordinate system 403 is positive. .

S702では、平行移動成分Tの推定を行う。
式4及び式5を結合し、マーカ4頂点のマーカ座標系401での座標値、理想スクリーン座標系403での座標値を代入すると、T,T,Tに関する1次方程式が8個得られる。行列P,Rが既知なので、これらの式からT,T,Tを計算できる。最後にS703では、変換行列Tcmの修正を行う。
In S702, the translation component T is estimated.
Combining Equations 4 and 5, and substituting the coordinate values in the marker coordinate system 401 and the coordinate values in the ideal screen coordinate system 403 of the vertexes of the markers 4, eight linear equations relating to T 1 , T 2 , and T 3 are obtained. can get. Since the matrices P and R are known, T 1 , T 2 , and T 3 can be calculated from these equations. Finally, in S703, to correct the transformation matrix T cm.

S702までの計算でTcmが一応求まるが、回転行列Rの計算においてしばしば大きな誤差を伴う。そこで、再度、画像情報を利用し回転行列Rの修正を行う。式4において回転行列は9個のパラメータR11〜R33で表現されているが、これを3つの回転角(a:Z軸の傾斜方向、b:Z軸の傾斜角度、c:X−Y平面のZ軸周りの回転角)で表現する。 Although T cm can be obtained in the calculation up to S702, the calculation of the rotation matrix R often involves a large error. Therefore, the rotation matrix R is corrected again using the image information. The rotation matrix is expressed by 9 parameters R 11 to R 33 in Formula 4, three rotation angles which (a: inclination direction of Z m axis, b: angle of inclination of the Z m axis, c: X m −Y The angle of rotation around the Z m axis of the m plane.

これはZYZオイラー角表現を修正したものである。通常のオイラー角表現ではベクトルの微少変動が回転角に大きな変化を及ぼす場合があるが、この表現ではそのような影響が小さい。
式8は回転行列を回転角で表した式である。
This is a modification of the ZYZ Euler angle representation. In the normal Euler angle expression, a slight variation of the vector may greatly change the rotation angle, but such an influence is small in this expression.
Expression 8 is an expression in which a rotation matrix is expressed by a rotation angle.

Figure 2007233971
Figure 2007233971

この式より(式9)が導出でき、回転行列Rから各回転角a〜cを求めることができる。 (Equation 9) can be derived from this equation, and the rotation angles a to c can be obtained from the rotation matrix R.

Figure 2007233971
Figure 2007233971

そこで、これまでに求めたTcmを用いて、マーカ4頂点の座標値を式4,式5に代入することで、その理想スクリーン座標系403における座標値を計算できる。この計算値と実際に画像処理によって求められた値の誤差の2乗和が少なくなるようにa,b,cの値を修正する。具体的には、山登り法を用いて10回の繰り返し処理により新たな回転行列Rを求める。さらにS702の処理を再度適用し平行移動成分Tも更新する。 Thus, the coordinate value in the ideal screen coordinate system 403 can be calculated by substituting the coordinate value of the vertex of the marker 4 into Equations 4 and 5 using the T cm obtained so far. The values of a, b, and c are corrected so that the square sum of the error between this calculated value and the value actually obtained by image processing is reduced. Specifically, a new rotation matrix R is obtained through 10 iterations using the hill-climbing method. Further, the process of S702 is applied again to update the translation component T.

カメラ座標系402からHMDスクリーン座標系406への変換行列Tscを公知のキャリブレーション方法などによって予め算出しておく。算出した変換行列は、カメラ座標系402からHMDスクリーン座標系406への射影行列として使用する。 A transformation matrix T sc from the camera coordinate system 402 to the HMD screen coordinate system 406 is calculated in advance by a known calibration method or the like. The calculated transformation matrix is used as a projection matrix from the camera coordinate system 402 to the HMD screen coordinate system 406.

このようにして、視点位置姿勢算出部104は、逐次観測によって得られるマーカ座標系401からカメラ座標系402への変換行列Tcmと、変換行列Tscを用いて、マーカ座標系401で表現された3次元CGモデルデータをHMDスクリーン座標406に投影する変換行列を求める。そして、この変換行列を視点位置姿勢情報として画像生成部105に出力する。 In this way, the viewpoint position / orientation calculation unit 104 is expressed in the marker coordinate system 401 by using the conversion matrix T cm from the marker coordinate system 401 to the camera coordinate system 402 obtained by successive observations and the conversion matrix T sc. A transformation matrix for projecting the three-dimensional CG model data onto the HMD screen coordinates 406 is obtained. Then, this transformation matrix is output to the image generation unit 105 as viewpoint position and orientation information.

画像合成部105はこの変換行列を用いてCG画像を生成することで、HMDスクリーン座標系406に正しく投影されたCG画像生成することができ、実写画像とCG画像とが正しく位置合わせされた合成画像が生成できる。その結果、観察者はマーカ座標系を基準に表現された仮想物体を実世界のマーカ位置に存在する物体であるかのように見ることができる。   The image synthesizing unit 105 can generate a CG image using this transformation matrix to generate a CG image correctly projected on the HMD screen coordinate system 406, and a composition in which the real image and the CG image are correctly aligned. An image can be generated. As a result, the observer can view a virtual object expressed with reference to the marker coordinate system as if it were an object existing at the marker position in the real world.

上述した仮想物体の3次元CGモデルデータとして、センサ301の計測範囲を表す3次元CGモデルデータを予め用意しておく。そして、2次元マーカを貼り付けたセンサ301をビデオカメラ101で逐次観測し、上述の処理によって現実空間と位置合わせして表示することにより、観察者は計測範囲を確認しながら作業することができる。   As the above-described three-dimensional CG model data of the virtual object, three-dimensional CG model data representing the measurement range of the sensor 301 is prepared in advance. The observer 301 can work while confirming the measurement range by sequentially observing the sensor 301 with the two-dimensional marker pasted with the video camera 101 and displaying the sensor 301 in alignment with the real space by the above-described processing. .

なお、センサの計測範囲を表すCG画像は、常時生成、表示することも可能であるが、本来の複合現実感アプリケーションの体感の邪魔になる場合も考えられる。従って、例えば観察者が操作するスイッチのオン、オフに応じて、動的に、表示あり、無しを切り替え可能に構成してもよい。また、表示透明度を変更可能にして、必要な場合には透明度を下げ、不要な場合には透明度を上げて表示するように構成することも可能である。   Note that a CG image representing the measurement range of the sensor can be generated and displayed at all times, but it may be a hindrance to the experience of the original mixed reality application. Therefore, for example, it may be configured such that the display can be dynamically switched according to whether the switch operated by the observer is on or off. It is also possible to change the display transparency so that the transparency is lowered when necessary, and the transparency is raised when unnecessary.

また、本実施形態では、計測範囲を可視化したいセンサに直接2次元マーカを貼り付け、計測範囲の可視化を行ったが、例えばセンサのレイアウトを検討する場合などは、本物のセンサを用いる必要は無い。むしろ、センサが大型又は重い場合などは、配置の検討時には移動の容易な別のもの、例えばラケットや杖の先といった場所に2次元マーカを貼り付けておき、計測範囲を可視化しながらセンサの配置を検討し、決定後に実際のセンサを設置する方が作業効率が向上する。
また、本実施形態では、各センサに1つの2次元マーカを使用したが、マーカ間の位置関係が予め定義されている場合は、1つのセンサに対して複数の点マーカを使用することができる。また、同様に複数の2次元マーカを使用することもできる。
In this embodiment, a two-dimensional marker is directly attached to a sensor whose measurement range is to be visualized, and the measurement range is visualized. However, for example, when examining the layout of the sensor, it is not necessary to use a real sensor. . Rather, if the sensor is large or heavy, place the sensor while visualizing the measurement range by attaching a two-dimensional marker to another place that is easy to move when considering the placement, for example, a racket or the tip of a cane. If the actual sensor is installed after the determination, the working efficiency is improved.
In this embodiment, one two-dimensional marker is used for each sensor. However, when the positional relationship between the markers is defined in advance, a plurality of point markers can be used for one sensor. . Similarly, a plurality of two-dimensional markers can be used.

以上説明したように、本実施形態によれば、複合現実感技術を用い、センサの計測範囲を仮想物体として可視化することにより、センサの設置位置をすみやかに、かつ適切に、勘に頼ることなく決定することができる。
また、複合現実感アプリケーションの実行中に、観察者がセンサの計測範囲を把握することを可能とし、正しい範囲内で移動することを可能とする。
As described above, according to the present embodiment, by using the mixed reality technology and visualizing the measurement range of the sensor as a virtual object, the installation position of the sensor can be promptly and appropriately without depending on intuition. Can be determined.
In addition, during execution of the mixed reality application, the observer can grasp the measurement range of the sensor and can move within the correct range.

〈第2の実施形態〉
第2の実施形態に係る画像合成装置は、位置姿勢センサの設置後、実際に設置した位置姿勢センサの計測値から観察者の頭部の世界座標系における位置姿勢情報を取得する。そして、予め用意した、世界座標系で定義された、センサの計測範囲を表す3次元CGモデルデータを、観察者の視線近傍に配置したカメラから得られる実写画像に重畳表示することによって位置姿勢センサの計測範囲を可視化するものである。
<Second Embodiment>
The image composition device according to the second embodiment acquires position and orientation information of the observer's head in the world coordinate system from the measurement values of the actually installed position and orientation sensor after the position and orientation sensor is installed. Then, a position and orientation sensor is prepared by superimposing and displaying on a real image obtained from a camera arranged in the vicinity of the observer's line of sight, which is prepared in advance and defined in the world coordinate system and representing the measurement range of the sensor. It visualizes the measurement range.

本実施形態では、観察者の世界座標系における位置姿勢をセンサの出力値にから求めることができる。よって、センサの計測範囲を表す3次元CGモデルデータを、世界座標系で管理している。 なお、本実施形態においても、第1の実施形態と同様、計測範囲を可視化するための3次元CGのモデルデータは、仕様による計測範囲であっても良いし、経験によって得られる計測範囲でも良い。また、モデルデータの表示方法も任意である。   In the present embodiment, the position and orientation of the observer in the world coordinate system can be obtained from the output value of the sensor. Therefore, the three-dimensional CG model data representing the measurement range of the sensor is managed in the world coordinate system. Also in the present embodiment, as in the first embodiment, the 3D CG model data for visualizing the measurement range may be a measurement range based on specifications or a measurement range obtained through experience. . The model data display method is also arbitrary.

第2の実施形態に係る画像合成装置の構成例を図10に示す。なお、図10において図1と同一の構成には同一の番号を付与し、説明を省略する。
1001は、観察者の視点位置姿勢を検出する位置姿勢センサである。1002は位置姿勢センサ1001の出力に基づき世界座標系をHMDスクリーン座標系406へ変換する変換行列を算出する視点位置姿勢算出部である。画像生成部105は、視点位置姿勢算出部1002で算出された変換行列を用いて、仮想空間データベース1003に格納されている世界座標系で定義されている3次元モデルに基づく仮想物体画像を生成する。
ただし、複合現実感技術の分野では周知であるように、位置姿勢センサの出力値をマーカから得られる情報によって補正することも可能である。
FIG. 10 shows a configuration example of an image composition device according to the second embodiment. In FIG. 10, the same components as those in FIG.
Reference numeral 1001 denotes a position and orientation sensor that detects the viewpoint position and orientation of the observer. A viewpoint position / orientation calculation unit 1002 calculates a conversion matrix for converting the world coordinate system to the HMD screen coordinate system 406 based on the output of the position / orientation sensor 1001. The image generation unit 105 generates a virtual object image based on a three-dimensional model defined in the world coordinate system stored in the virtual space database 1003 using the transformation matrix calculated by the viewpoint position / orientation calculation unit 1002. .
However, as is well known in the field of mixed reality technology, the output value of the position / orientation sensor can be corrected by information obtained from the marker.

図8は本実施形態の画像合成装置によって実現されるセンサ計測範囲の表示を模式的に表す図である。
位置姿勢センサ1001で観察者201の視点位置姿勢を検出する。そして、予め用意した、センサ1001の計測範囲を表す3次元CGモデルデータ(本実施形態では世界座標系で記述)と、観察者201に提示するためのCGオブジェクト801の3次元CGモデルデータとを仮想空間データベース1003より読み出す。次に、位置姿勢センサ1001が測定した観察者の視点位置姿勢と、視点位置姿勢算出部1002からの変換行列とから、HMD108のスクリーン座標系406へ投影された3次元CG画像302を生成する。画像合成部107は画像入力部102からの実写画像に画像生成部105からのCG画像302を合成し、HMD108に表示させる。このようにして、観察者にセンサ1001の計測範囲を視認させることができる。
FIG. 8 is a diagram schematically showing the display of the sensor measurement range realized by the image composition device of the present embodiment.
The position and orientation sensor 1001 detects the viewpoint position and orientation of the observer 201. Then, the three-dimensional CG model data (described in this embodiment in the world coordinate system) representing the measurement range of the sensor 1001 and the three-dimensional CG model data of the CG object 801 to be presented to the observer 201 are prepared. Read from the virtual space database 1003. Next, a three-dimensional CG image 302 projected onto the screen coordinate system 406 of the HMD 108 is generated from the viewpoint position and orientation of the observer measured by the position and orientation sensor 1001 and the transformation matrix from the viewpoint position and orientation calculation unit 1002. The image composition unit 107 synthesizes the CG image 302 from the image generation unit 105 with the actual photograph image from the image input unit 102 and displays it on the HMD 108. In this manner, the observer can visually recognize the measurement range of the sensor 1001.

ここで、単純にセンサの計測範囲を半透明3次元CG画像302により観察者201に提示すると、観察者201は計測範囲内において、計測範囲を表すCG画像の中に閉じ込められているような感覚を受けることとなる。さらに、複合現実感アプリケーションにおいて本来視認させるべき目的のCGオブジェクトにセンサの計測範囲を表すCG画像が重なって描画され、描画品質を劣化させたり、CGオブジェクトの視認を妨げる原因になってしまうことがある。   Here, when the measurement range of the sensor is simply presented to the observer 201 by the translucent three-dimensional CG image 302, the observer 201 feels like being confined in the CG image representing the measurement range within the measurement range. Will receive. Furthermore, in a mixed reality application, a CG image representing the measurement range of the sensor is overlaid on a target CG object that should be visually recognized, which may cause deterioration in drawing quality or obstructing the visual recognition of the CG object. is there.

本実施形態においては、実空間においてセンサがどこまで計測可能であるのかを観察者201が把握可能であればよい。したがって、計測範囲を表すCG画像を常時描画する必要は必ずしもない。例えば、観察者201が計測範囲の境界線に近付いたときに、計測範囲を示す3次元オブジェクトの半透明度を調整して表示することにより、観察者201に計測範囲の限界に近づいていることを知らせるようにしてもよい。   In the present embodiment, it is only necessary that the observer 201 can grasp how far the sensor can be measured in the real space. Therefore, it is not always necessary to draw a CG image representing the measurement range at all times. For example, when the observer 201 approaches the boundary of the measurement range, by adjusting and displaying the translucency of the three-dimensional object indicating the measurement range, the observer 201 is approaching the limit of the measurement range. You may make it inform.

このような表示方法を適用することで、観察者201の位置姿勢が正常に取得できている位置(すなわち、センサの計測範囲の十分内側に観察者が存在する状態)では、計測範囲を表すCG画像を表示せず、計測範囲の境界に近付くにしたがって、観察者201に明示的に計測範囲の境界を示す方法を実現することができる。   By applying such a display method, at a position where the position and orientation of the observer 201 can be normally acquired (that is, in a state where the observer exists sufficiently inside the measurement range of the sensor), a CG representing the measurement range. A method of explicitly showing the boundary of the measurement range to the observer 201 can be realized as the image approaches the boundary of the measurement range without displaying an image.

以上説明したように、本実施形態によっても、センサの計測範囲を仮想物体として可視化することにより、センサの設置位置をすみやかに、かつ適切に、勘に頼ることなく決定することができる。
また、複合現実感アプリケーションの実行中に、観察者がセンサの計測範囲を把握することを可能とし、正しい範囲内で移動することを可能とする。
As described above, according to the present embodiment as well, by visualizing the measurement range of the sensor as a virtual object, the installation position of the sensor can be determined promptly and appropriately without depending on intuition.
In addition, during execution of the mixed reality application, the observer can grasp the measurement range of the sensor and can move within the correct range.

(第3の実施形態)
上述の実施形態においては、いずれも観察者にセンサの計測範囲を提示するものであった。しかしながら、画像合成装置のオペレータに、可視化したセンサの計測範囲を提示することも可能である。オペレータ用の操作画面にセンサの計測範囲を可視化することによって、オペレータは観察者とセンサ計測範囲との位置関係を把握することができる。そのため、オペレータが観察者の作業をモニタリングする場合などにおいて、観察者を適切な位置(センサ計測範囲内)に誘導することが可能となる。
また、図8に示すようなCGオブジェクトを動的に観察者に提示させる場合、観察者にとって最も見易い位置に配置させることも可能となる。
(Third embodiment)
In the above-described embodiments, the sensor measurement range is presented to the observer. However, it is possible to present the measurement range of the visualized sensor to the operator of the image composition device. By visualizing the measurement range of the sensor on the operation screen for the operator, the operator can grasp the positional relationship between the observer and the sensor measurement range. Therefore, when the operator monitors the work of the observer, the observer can be guided to an appropriate position (within the sensor measurement range).
In addition, when a CG object as shown in FIG. 8 is dynamically presented to the observer, it can be arranged at a position that is most easily seen by the observer.

このように、オペレータに対してセンサ計測範囲を提示する場合には、観察者とセンサの計測範囲との関係が把握できるような第3者の視点位置姿勢から見た可視化画像を用いることが好ましい。図8は、オペレータに対して提示する画像の例を示す。このように、全体を見渡せる第3者の視点位置姿勢を用いて画像生成部105で観察者(3次元CGモデルを登録しておく)及びセンサの計測範囲をCG画像として生成し、図示しないオペレータ用表示装置に提示することができる。図8では、斜め上方から全体を見下ろすような第3者の視点位置姿勢を用いた例を示している。しかし、真下を見るような第3者の視点位置姿勢として、俯瞰図のように、上方から複合現実空間を模式的に表すような画像を生成してオペレータに提示しても良い。   Thus, when presenting the sensor measurement range to the operator, it is preferable to use a visualized image viewed from the viewpoint position and orientation of a third person who can grasp the relationship between the observer and the sensor measurement range. . FIG. 8 shows an example of an image presented to the operator. In this way, the image generation unit 105 generates a measurement range of the observer (registered three-dimensional CG model) and the sensor as a CG image using the third person's viewpoint position / posture that can see the whole, and an operator (not shown) Can be presented on the display device. FIG. 8 shows an example in which the third person's viewpoint position / posture is used as if looking down from the upper side. However, as a viewpoint position / posture of a third person looking directly below, an image that schematically represents the mixed reality space from above may be generated and presented to the operator as shown in an overhead view.

なお、現実空間上に配置される位置姿勢センサの計測範囲を仮想物体としてコンピュータグラフィクスにより描画し、現実空間を撮像した実写画像に位置合わせして合成することにより位置姿勢センサの計測範囲を可視化することができれば、上述した実施形態以外の任意の構成の画像合成装置に本発明を適用することができる。   In addition, the measurement range of the position and orientation sensor placed in the real space is rendered by computer graphics as a virtual object, and the measurement range of the position and orientation sensor is visualized by aligning and synthesizing the real space with the captured real image. If possible, the present invention can be applied to an image composition apparatus having an arbitrary configuration other than the above-described embodiment.

(第4の実施形態)
第4の実施形態に係る画像合成装置は、観察者の位置姿勢情報を取得するために、位置姿勢センサに加え客観カメラ(第3者の視点位置姿勢から撮影するカメラ)を用いることで、一層高精度に観察者の位置姿勢情報を取得する。また、センサの計測範囲および客観カメラの計測範囲の両方を可視化し、提示する。
(Fourth embodiment)
The image synthesizing apparatus according to the fourth embodiment further uses an objective camera (a camera that captures the viewpoint position and orientation of a third party) in addition to the position and orientation sensor in order to acquire the position and orientation information of the observer. The position and orientation information of the observer is acquired with high accuracy. Moreover, both the measurement range of the sensor and the measurement range of the objective camera are visualized and presented.

客観カメラを用いて位置姿勢情報を取得する場合、客観カメラがどの程度の視野範囲(計測範囲)をカバーし、位置姿勢情報の取得に寄与できるのかについて、客観カメラの実写映像から判断することは困難である。また、位置姿勢情報の精度を向上させるために、複数台の客観カメラをシーン中に配置して計測を行う場合がある。この場合、どの客観カメラとどの客観カメラの計測範囲が重なり合っているか、といった情報が必要となるが、客観カメラの実写映像からだけでは判断が困難である。   When acquiring position / orientation information using an objective camera, it is possible to determine from the actual video of the objective camera how much the objective camera covers and can contribute to acquisition of position / orientation information. Have difficulty. In addition, in order to improve the accuracy of position and orientation information, measurement may be performed with a plurality of objective cameras arranged in a scene. In this case, information such as which objective camera overlaps with the measurement range of which objective camera is necessary, but it is difficult to make a judgment only from the actual captured video of the objective camera.

つまり、シーン中に客観カメラを配置する場合にも、上述のセンサ配置の問題と同様の問題が生じる。そこで、この問題を解決するため、本実施形態では、上述のセンサの計測範囲を可視化するのと同様の方法で、客観カメラの視野範囲(計測範囲)を可視化してオペレータおよび観察者に提示する。   That is, when the objective camera is arranged in the scene, the same problem as the above-described sensor arrangement problem occurs. Therefore, in order to solve this problem, in the present embodiment, the visual field range (measurement range) of the objective camera is visualized and presented to the operator and the observer in the same manner as the visualization of the measurement range of the sensor described above. .

第4の実施形態に係る画像合成装置の構成例を図11に示す。なお、図11において図1又は図10と同一の構成には同一の番号を付与し、説明を省略する。
1101は、観察者201の視点位置姿勢を精度良く検出するために配置された客観カメラである。客観カメラ1201の位置姿勢は固定かつ既知である。また、観察者201の視点位置姿勢を検出するための目安として、観察者の頭部に、例えばHMDを利用して少なくとも1点、好ましくは複数のマーカを取り付けておく。複数のマーカを取り付ける場合、マーカ間の位置姿勢関係を予め求めておく。客観カメラ1201の撮影した映像は、画像入力部102と同様の画像入力部1102を通じて入力される。
FIG. 11 shows a configuration example of an image composition device according to the fourth embodiment. In FIG. 11, the same components as those in FIG. 1 or FIG.
Reference numeral 1101 denotes an objective camera arranged to detect the viewpoint position and orientation of the observer 201 with high accuracy. The position and orientation of the objective camera 1201 are fixed and known. As a guide for detecting the viewpoint position and orientation of the observer 201, at least one point, preferably a plurality of markers, is attached to the head of the observer using, for example, an HMD. When attaching a plurality of markers, the positional orientation relationship between the markers is obtained in advance. The video captured by the objective camera 1201 is input through the image input unit 1102 similar to the image input unit 102.

マーカ検出部1103は画像入力部1102から供給される画像から、観察者の頭部に装着されたマーカ、例えば2次元マーカを検出する。この2次元マーカは、画像から抽出可能な特徴(色、形、パターンなど)を有する指標である。従って、マーカ検出部1103は、2次元マーカの有する特徴に合致する領域を画像中から探索することにより2次元マーカを検出する。   The marker detection unit 1103 detects a marker, for example, a two-dimensional marker, mounted on the observer's head from the image supplied from the image input unit 1102. This two-dimensional marker is an index having features (color, shape, pattern, etc.) that can be extracted from an image. Therefore, the marker detection unit 1103 detects the two-dimensional marker by searching an area that matches the characteristics of the two-dimensional marker from the image.

視点位置姿勢算出部1002は、位置姿勢が既知の客観カメラ1201が撮影した画像に含まれる、観察者頭部に装着されたマーカの3次元位置、姿勢を算出する。この算出には、マーカ検出部1103が検出したマーカ情報(画像中の位置やマーカの向き、面積など)と、客観カメラ1201のカメラパラメータなどを用いる。そして、算出したマーカの位置姿勢から、観察者の視点位置姿勢を算出する。   The viewpoint position / orientation calculation unit 1002 calculates the three-dimensional position and orientation of the marker mounted on the observer's head included in the image captured by the objective camera 1201 whose position and orientation are known. For this calculation, marker information (position in the image, direction of the marker, area, etc.) detected by the marker detection unit 1103, camera parameters of the objective camera 1201, and the like are used. Then, the viewpoint position and orientation of the observer is calculated from the calculated position and orientation of the marker.

そして、視点位置姿勢算出部1002は、客観カメラ1201が撮影する映像に基づいて算出した視点位置姿勢を用い、位置姿勢センサ1001の出力を補正する。そして、補正した視点位置姿勢値に基づき、世界座標系をHMDスクリーン座標系406へ変換する変換行列を算出する。画像生成部105は、視点位置姿勢算出部1002で算出された変換行列を用いて、仮想空間データベース1003に格納されている、世界座標系で定義されている3次元モデルに基づく仮想物体画像を生成する。また、センサ301の計測範囲や、客観カメラ1201の視野範囲1202を表す3次元モデルも、仮想空間データベース1003に予め格納しておき、仮想物体画像として描画、表示することができる。   The viewpoint position / orientation calculation unit 1002 corrects the output of the position / orientation sensor 1001 using the viewpoint position / orientation calculated based on the video captured by the objective camera 1201. Based on the corrected viewpoint position / orientation value, a conversion matrix for converting the world coordinate system to the HMD screen coordinate system 406 is calculated. The image generation unit 105 generates a virtual object image based on the three-dimensional model defined in the world coordinate system stored in the virtual space database 1003 using the transformation matrix calculated by the viewpoint position / orientation calculation unit 1002. To do. A three-dimensional model representing the measurement range of the sensor 301 and the visual field range 1202 of the objective camera 1201 can also be stored in advance in the virtual space database 1003 and drawn and displayed as a virtual object image.

図12は本実施形態の画像合成装置によって実現される、センサ計測範囲及び客観カメラの視野範囲の表示を模式的に表す図である。ここで、図12では、説明及び理解を簡単にするため、客観カメラを1台用いる例を示しているが、複数台の客観カメラを用いてもよい。   FIG. 12 is a diagram schematically showing the display of the sensor measurement range and the visual field range of the objective camera, which is realized by the image composition device of the present embodiment. Here, FIG. 12 shows an example in which one objective camera is used for ease of explanation and understanding. However, a plurality of objective cameras may be used.

視点位置姿勢算出部1002位置姿勢センサ1001の測定結果からもで観察者201の視点位置姿勢を検出する。そして、客観カメラ1201で撮影した画像から検出した観察者201の視点位置姿勢を用い、位置姿勢センサ1001の測定値を補正する。視点位置姿勢算出部1002は、補正した視点位置姿勢を用いて変換行列を算出する。   The viewpoint position / orientation calculation unit 1002 detects the viewpoint position / orientation of the observer 201 from the measurement result of the position / orientation sensor 1001. Then, using the viewpoint position and orientation of the observer 201 detected from the image captured by the objective camera 1201, the measurement value of the position and orientation sensor 1001 is corrected. The viewpoint position / orientation calculation unit 1002 calculates a transformation matrix using the corrected viewpoint position / orientation.

そして、画像生成部1005は、予め用意した、客観カメラ1201およびセンサ1001の計測範囲1201及び302を表す3次元CGモデルデータ(本実施形態では世界座標系で記述)を、仮想空間データベース1003から読み出す。また、観察者201に提示するためのCGオブジェクト801の3次元CGモデルデータもまた、仮想空間データベース1003より読み出す。画像合成部105は、これらの3次元CGモデルデータと、視点位置姿勢算出部1002が算出した変換行列とから、HMD108のスクリーン座標系406へ投影された3次元CG画像を生成する。画像合成部107は画像入力部102からの実写画像に画像生成部105からのCG画像を合成し、HMD108に表示させる。このようにして、観察者201に、客観カメラ1201および位置姿勢センサ1001の計測範囲1202および302を視認させることができる。   Then, the image generation unit 1005 reads, from the virtual space database 1003, three-dimensional CG model data (described in the world coordinate system in this embodiment) representing the measurement ranges 1201 and 302 of the objective camera 1201 and the sensor 1001 prepared in advance. . Also, the three-dimensional CG model data of the CG object 801 to be presented to the observer 201 is also read from the virtual space database 1003. The image composition unit 105 generates a three-dimensional CG image projected on the screen coordinate system 406 of the HMD 108 from the three-dimensional CG model data and the transformation matrix calculated by the viewpoint position / orientation calculation unit 1002. The image composition unit 107 synthesizes the CG image from the image generation unit 105 with the photographed image from the image input unit 102 and displays it on the HMD 108. In this way, the observer 201 can visually recognize the measurement ranges 1202 and 302 of the objective camera 1201 and the position and orientation sensor 1001.

また、第3の実施形態において説明したように、客観カメラ1201の計測範囲1202と、位置姿勢センサ1001の計測範囲302とを、画像合成装置のオペレータに提示するように構成することももちろん可能である。
この場合、客観カメラ1201とは別の、オペレータ用の画像(客観画像)を生成するための仮想客観カメラとして第3者の視点位置姿勢を想定し、オペレータに提示する画像を生成、表示すればよい。
Further, as described in the third embodiment, the measurement range 1202 of the objective camera 1201 and the measurement range 302 of the position and orientation sensor 1001 can of course be configured to be presented to the operator of the image composition apparatus. is there.
In this case, assuming that the viewpoint position and orientation of a third party is assumed as a virtual objective camera for generating an operator image (objective image) that is different from the objective camera 1201, an image to be presented to the operator is generated and displayed. Good.

なお、客観カメラの視野範囲(計測範囲)を示すCGオブジェクト1202の奥行きは、客観カメラ1201で撮影した画像から、実際にどの程度離れた位置までのマーカを(視点位置姿勢の検出に利用可能な大きさで)観察できるかに基づいて決定する。これは、実際に使用する客観カメラ1201の性能やマーカの大きさ等に依存するため、予め計測して定めることができる。   The depth of the CG object 1202 indicating the visual field range (measurement range) of the objective camera can be determined by using a marker from the image captured by the objective camera 1201 to the actual distance (detection of the viewpoint position and orientation). Decide based on what you can observe (by size). Since this depends on the performance of the objective camera 1201 actually used, the size of the marker, and the like, it can be determined in advance by measurement.

なお、本実施形態では、位置姿勢センサと客観カメラの組み合わせにより観察者の視点位置姿勢を算出し、計測範囲を可視化した。しかし、客観カメラを必ずしも位置姿勢センサと組み合わせる必要はない。例えば、ジャイロ等の姿勢センサと客観カメラを組み合わせることにより観察者の視点位置姿勢を検出し、複合現実空間を構築する画像合成装置であってもよい。   In this embodiment, the viewpoint position and orientation of the observer is calculated by a combination of the position and orientation sensor and the objective camera, and the measurement range is visualized. However, it is not always necessary to combine the objective camera with the position and orientation sensor. For example, an image composition device that detects the viewpoint position and orientation of an observer by combining an orientation sensor such as a gyro and an objective camera and constructs a mixed reality space may be used.

(他の実施形態)
上述の実施形態において、センサや客観カメラの計測範囲を観察者およびオペレータに、より効果的に提示するための方法としては、以下の方法を例示できる。例えば、計測範囲を、取得可能な位置姿勢情報の精度に応じて色分けし、グラデーション表示を行う方法。また、視野範囲(計測範囲)を半透明のCGオブジェクトとして描画し、視野範囲同士が重なり合う部分が、CGオブジェクトの色の混合により把握可能なように表示する方法などがある。さらに、シーン中に存在する客観カメラの番号等を、客観カメラの画像に注釈情報として重畳表示するなどして、観察者およびオペレータに提示する方法などもある。
(Other embodiments)
In the above-described embodiment, the following method can be exemplified as a method for more effectively presenting the measurement range of the sensor or objective camera to the observer and the operator. For example, the measurement range is color-coded according to the accuracy of position and orientation information that can be acquired, and a gradation display is performed. In addition, there is a method in which a visual field range (measurement range) is drawn as a semi-transparent CG object and a portion where the visual field ranges overlap is displayed so as to be grasped by mixing the colors of the CG object. Furthermore, there is a method of presenting the number of the objective camera or the like existing in the scene to the observer and the operator by superimposing and displaying it on the image of the objective camera as annotation information.

また、第4の実施形態においては、位置姿勢センサと客観カメラの両方の計測範囲を可視化していたが、客観カメラの計測範囲だけを可視化する構成であっても良い。また、位置姿勢センサの計測範囲のみ、客観カメラの計測範囲のみ、両方の計測範囲、を切り換えて表示するように構成することももちろん可能である。   In the fourth embodiment, the measurement ranges of both the position and orientation sensor and the objective camera are visualized. However, only the measurement range of the objective camera may be visualized. Of course, it is also possible to switch and display only the measurement range of the position and orientation sensor, only the measurement range of the objective camera, or both measurement ranges.

また、上述した画像合成装置と同等の機能を複数の機器から構成されるシステムによって実現しても良い。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
Further, a function equivalent to that of the above-described image composition device may be realized by a system constituted by a plurality of devices.
A software program that realizes the functions of the above-described embodiments is supplied directly from a recording medium or to a system or apparatus having a computer that can execute the program using wired / wireless communication. The present invention includes a case where an equivalent function is achieved by a computer executing the supplied program.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。   Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   As a recording medium for supplying the program, for example, a magnetic recording medium such as a flexible disk, a hard disk, a magnetic tape, MO, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-R, DVD- There are optical / magneto-optical storage media such as RW, and non-volatile semiconductor memory.

有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。   As a program supply method using wired / wireless communication, a computer program forming the present invention on a server on a computer network, or a computer forming the present invention on a client computer such as a compressed file including an automatic installation function A method of storing a data file (program data file) that can be a program and downloading the program data file to a connected client computer can be used. In this case, the program data file can be divided into a plurality of segment files, and the segment files can be arranged on different servers.

つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。   That is, the present invention includes a server device that allows a plurality of users to download a program data file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to the user, and key information for decrypting the encryption for a user who satisfies a predetermined condition is provided via a homepage via the Internet, for example. It is also possible to realize the program by downloading it from the computer and executing the encrypted program using the key information and installing it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on the instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU of the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

本発明の第1の実施形態に係る画像合成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image synthesizing | combining apparatus which concerns on the 1st Embodiment of this invention. 図1の画像合成装置を複合現実感アプリケーションに適用した場合の具体的な機器配置と、観察者が体感する複合現実感を模式的に示す図である。It is a figure which shows typically the specific apparatus arrangement | positioning at the time of applying the image composition apparatus of FIG. 1 to a mixed reality application, and the mixed reality which an observer senses. 本実施形態における位置姿勢センサの計測範囲可視化を模式的に示す図である。It is a figure which shows typically the measurement range visualization of the position and orientation sensor in this embodiment. 本実施形態の画像合成装置が取り扱う座標系を示す図である。It is a figure which shows the coordinate system which the image composition apparatus of this embodiment handles. 本実施形態の画像合成装置における視点位置姿勢算出処理の概要を説明するフローチャート。6 is a flowchart for explaining an overview of viewpoint position / orientation calculation processing in the image composition apparatus according to the embodiment. 本実施形態で用いることのできる2次元マーカの例を示す図である。It is a figure which shows the example of the two-dimensional marker which can be used by this embodiment. 変換行列Tを算出する手順を説明するフローチャートである。It is a flowchart illustrating a procedure for calculating the transformation matrix T m. 本発明の第2の実施形態の画像合成装置によって実現されるセンサ計測範囲の表示を模式的に表す図である。It is a figure which represents typically the display of the sensor measurement range implement | achieved by the image synthesizing | combining apparatus of the 2nd Embodiment of this invention. センサ計測範囲の仕様例を模式的に表す図である。It is a figure which represents typically the example of a specification of a sensor measurement range. 本発明の第2の実施形態に係る画像合成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image composition apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第4の実施形態に係る画像合成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image synthesizing | combining apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る画像合成装置によって実現されるセンサ計測範囲及び客観カメラの視野範囲の表示を模式的に表す図である。It is a figure which represents typically the display of the sensor measurement range implement | achieved by the image synthesizing | combining apparatus which concerns on the 4th Embodiment of this invention, and the visual field range of an objective camera.

Claims (10)

実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成方法において、
位置姿勢が既知である客観カメラの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する第1の設定工程と、
視点位置姿勢情報を取得する視点位置姿勢情報取得工程と、
前記視点位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記客観カメラの計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成工程と、
前記実写画像と前記コンピュータグラフィックス画像とを合成する画像合成工程とを有することを特徴とする画像合成方法。
In an image composition method for aligning and synthesizing a computer graphics image with a real image,
A first setting step of setting a three-dimensional computer graphics model representing a measurement range of an objective camera whose position and orientation are known;
A viewpoint position and orientation information acquisition step for acquiring viewpoint position and orientation information;
A CG image generation step of generating a computer graphics image representing the measurement range of the objective camera using the viewpoint position and orientation information and the three-dimensional computer graphics model;
An image synthesizing method comprising an image synthesizing step of synthesizing the photographed image and the computer graphics image.
前記視点位置姿勢情報取得工程が、位置姿勢センサ又は姿勢センサの検出情報と、前記客観カメラの位置姿勢と前記客観カメラが撮影した画像に含まれるマーカの画像とを用いて検出した視点位置姿勢情報とから、前記視点位置姿勢を取得することを特徴とする請求項1記載の画像合成方法。   Viewpoint position / orientation information detected by the viewpoint position / orientation information acquisition step using the position / orientation sensor or detection information of the attitude sensor, the position / orientation of the objective camera, and the image of the marker included in the image captured by the objective camera. The image synthesizing method according to claim 1, wherein the viewpoint position / orientation is acquired. さらに、前記位置姿勢センサ又は姿勢センサの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する第2の設定工程と、
前記位置姿勢センサ又は姿勢センサの位置情報を取得するセンサ位置情報取得工程とを有し、
前記CG画像生成工程が、前記位置情報と、前記第1及び第2の設定工程で設定された3次元コンピュータグラフィクスモデルとを用い、前記客観カメラの計測範囲と、前記位置姿勢センサ又は姿勢センサの計測範囲を表すコンピュータグラフィックス画像を生成することを特徴とする請求項2記載の画像合成方法。
A second setting step for setting a position and orientation sensor or a three-dimensional computer graphics model representing a measurement range of the orientation sensor;
A sensor position information acquisition step of acquiring the position and orientation sensor or position information of the orientation sensor;
The CG image generation step uses the position information and the three-dimensional computer graphics model set in the first and second setting steps, and uses the measurement range of the objective camera and the position and orientation sensor or the orientation sensor. The image composition method according to claim 2, wherein a computer graphics image representing a measurement range is generated.
それぞれが予め定められた測定範囲を有するセンサと客観カメラとを用いて測定した位置姿勢情報を用い、実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成方法において、
前記センサ及び前記客観カメラの、前記予め定められた計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定工程と、
前記センサの検出情報及び前記客観カメラの撮影した画像から、前記実写画像を撮像するカメラの位置姿勢情報を取得するカメラ位置姿勢情報取得工程と、
前記カメラ位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記センサ及び前記客観カメラの前記予め定められた計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成工程と、
前記実写画像と前記コンピュータグラフィクス画像とを合成する画像合成工程とを有することを特徴とする画像合成方法。
In an image composition method that uses position and orientation information measured using a sensor and an objective camera, each having a predetermined measurement range, and aligns and synthesizes a computer graphics image with a real image,
A setting step of setting a three-dimensional computer graphics model representing the predetermined measurement range of the sensor and the objective camera;
A camera position / orientation information acquisition step of acquiring position / orientation information of a camera that captures the live-action image from detection information of the sensor and an image captured by the objective camera;
A CG image generation step of generating a computer graphics image representing the predetermined measurement range of the sensor and the objective camera using the camera position and orientation information and the three-dimensional computer graphics model;
An image synthesizing method comprising an image synthesizing step of synthesizing the photographed image and the computer graphics image.
観察者が装着する頭部装着型表示装置に設けられたカメラで撮影した実写画像に、予め用意した仮想物体の3次元コンピュータグラフィクスモデルと前記カメラの位置姿勢情報とを用いて生成した前記仮想物体の画像を合成し、合成画像を前記頭部装着型表示装置に表示する画像合成方法において、
前記観察者が存在する空間中に配置されたセンサと客観カメラそれぞれの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定工程と、
前記計測範囲を前記仮想物体の画像として生成する画像生成工程を有することを特徴とする画像合成方法。
The virtual object generated by using a three-dimensional computer graphics model of the virtual object prepared in advance and the position and orientation information of the camera on a real image captured by a camera provided in a head-mounted display device worn by an observer In an image synthesis method for synthesizing images of the above and displaying the synthesized image on the head-mounted display device,
A setting step of setting a three-dimensional computer graphics model representing the measurement ranges of the sensor and the objective camera arranged in the space where the observer exists;
An image composition method comprising an image generation step of generating the measurement range as an image of the virtual object.
実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成装置において、
位置姿勢が既知である客観カメラの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する第1の設定手段と、
視点位置姿勢情報を取得する視点位置姿勢情報取得手段と、
前記視点位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記客観カメラの計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成手段と、
前記実写画像と前記コンピュータグラフィックス画像とを合成する画像合成手段とを有することを特徴とする画像合成装置。
In an image synthesizer that positions and synthesizes a computer graphics image with a live-action image,
First setting means for setting a three-dimensional computer graphics model representing a measurement range of an objective camera whose position and orientation are known;
Viewpoint position and orientation information acquisition means for acquiring viewpoint position and orientation information;
CG image generation means for generating a computer graphics image representing the measurement range of the objective camera using the viewpoint position and orientation information and the three-dimensional computer graphics model;
An image composition device comprising image composition means for compositing the photographed image and the computer graphics image.
それぞれが予め定められた測定範囲を有するセンサと客観カメラとを用いて測定した位置姿勢情報を用い、実写画像にコンピュータグラフィクス画像を位置合わせして合成する画像合成装置において、
前記センサ及び前記客観カメラの、前記予め定められた計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定手段と、
前記センサの検出情報及び前記客観カメラの撮影した画像から、前記実写画像を撮像するカメラの位置姿勢情報を取得するカメラ位置姿勢情報取得手段と、
前記カメラ位置姿勢情報と、前記3次元コンピュータグラフィクスモデルとを用い、前記センサ及び前記客観カメラの前記予め定められた計測範囲を表すコンピュータグラフィックス画像を生成するCG画像生成手段と、
前記実写画像と前記コンピュータグラフィクス画像とを合成する画像合成手段とを有することを特徴とする画像合成装置。
In an image composition device that uses position and orientation information measured using a sensor and an objective camera, each having a predetermined measurement range, and aligns and synthesizes a computer graphics image with a real image,
Setting means for setting a three-dimensional computer graphics model representing the predetermined measurement range of the sensor and the objective camera;
Camera position and orientation information acquisition means for acquiring position and orientation information of a camera that captures the live-action image from detection information of the sensor and an image captured by the objective camera;
CG image generation means for generating a computer graphics image representing the predetermined measurement range of the sensor and the objective camera using the camera position and orientation information and the three-dimensional computer graphics model;
An image composition device comprising image composition means for compositing the photographed image and the computer graphics image.
観察者が装着する頭部装着型表示装置に設けられたカメラで撮影した実写画像に、予め用意した仮想物体の3次元コンピュータグラフィクスモデルと前記カメラの位置姿勢情報とを用いて生成した前記仮想物体の画像を合成し、合成画像を前記頭部装着型表示装置に表示する画像合成装置において、
前記観察者が存在する空間中に配置されたセンサと客観カメラそれぞれの計測範囲を表す3次元コンピュータグラフィクスモデルを設定する設定手段と、
前記計測範囲を前記仮想物体の画像として生成する画像生成手段を有することを特徴とする画像合成装置。
The virtual object generated by using a three-dimensional computer graphics model of the virtual object prepared in advance and the position and orientation information of the camera on a real image captured by a camera provided in a head-mounted display device worn by an observer In the image composition device that synthesizes the images and displays the composite image on the head-mounted display device,
Setting means for setting a three-dimensional computer graphics model representing a measurement range of each of a sensor and an objective camera arranged in a space where the observer exists;
An image composition device comprising image generation means for generating the measurement range as an image of the virtual object.
請求項1乃至請求項5のいずれか1項に記載の画像合成方法をコンピュータに実行させるプログラム。   A program for causing a computer to execute the image composition method according to any one of claims 1 to 5. 請求項9記載のプログラムを格納するコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the program according to claim 9.
JP2006058366A 2006-03-03 2006-03-03 Information processing apparatus, information processing method, and program Expired - Fee Related JP4834424B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006058366A JP4834424B2 (en) 2006-03-03 2006-03-03 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006058366A JP4834424B2 (en) 2006-03-03 2006-03-03 Information processing apparatus, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2007233971A true JP2007233971A (en) 2007-09-13
JP2007233971A5 JP2007233971A5 (en) 2009-04-16
JP4834424B2 JP4834424B2 (en) 2011-12-14

Family

ID=38554461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006058366A Expired - Fee Related JP4834424B2 (en) 2006-03-03 2006-03-03 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP4834424B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010123121A (en) * 2008-11-17 2010-06-03 Honeywell Internatl Inc Method and apparatus for marking position of real world object in see-through display
JP2010541087A (en) * 2007-10-05 2010-12-24 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Image analysis apparatus and method
JP2012003669A (en) * 2010-06-21 2012-01-05 Nintendo Co Ltd Image recognition program, image recognition apparatus, image recognition system, and image recognition method
US8882591B2 (en) 2010-05-14 2014-11-11 Nintendo Co., Ltd. Storage medium having image display program stored therein, image display apparatus, image display system, and image display method
US9256797B2 (en) 2010-06-11 2016-02-09 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
JP2016218839A (en) * 2015-05-22 2016-12-22 Kddi株式会社 AR information display device
JP2017046233A (en) * 2015-08-27 2017-03-02 キヤノン株式会社 Display device, information processor, and control method of the same
JP2017049658A (en) * 2015-08-31 2017-03-09 Kddi株式会社 AR information display device
JP2019160177A (en) * 2018-03-16 2019-09-19 京セラドキュメントソリューションズ株式会社 Display device and display program
WO2019230285A1 (en) * 2018-05-29 2019-12-05 オムロン株式会社 Simulation device, simulation method, and program
WO2022202016A1 (en) * 2021-03-26 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1184307A (en) * 1997-09-01 1999-03-26 M R Syst Kenkyusho:Kk Head-mounted optical device
JP2001195601A (en) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc Device and method for presenting composite reality and storage medium
JP2005049996A (en) * 2003-07-30 2005-02-24 Canon Inc Image display method and device
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1184307A (en) * 1997-09-01 1999-03-26 M R Syst Kenkyusho:Kk Head-mounted optical device
JP2001195601A (en) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc Device and method for presenting composite reality and storage medium
JP2005049996A (en) * 2003-07-30 2005-02-24 Canon Inc Image display method and device
JP2005165848A (en) * 2003-12-04 2005-06-23 Canon Inc Method and device for presenting augmented reality

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010541087A (en) * 2007-10-05 2010-12-24 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Image analysis apparatus and method
US8363955B2 (en) 2007-10-05 2013-01-29 Sony Computer Entertainment Europe Limited Apparatus and method of image analysis
JP2010123121A (en) * 2008-11-17 2010-06-03 Honeywell Internatl Inc Method and apparatus for marking position of real world object in see-through display
US8882591B2 (en) 2010-05-14 2014-11-11 Nintendo Co., Ltd. Storage medium having image display program stored therein, image display apparatus, image display system, and image display method
US9256797B2 (en) 2010-06-11 2016-02-09 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
JP2012003669A (en) * 2010-06-21 2012-01-05 Nintendo Co Ltd Image recognition program, image recognition apparatus, image recognition system, and image recognition method
JP2016218839A (en) * 2015-05-22 2016-12-22 Kddi株式会社 AR information display device
JP2017046233A (en) * 2015-08-27 2017-03-02 キヤノン株式会社 Display device, information processor, and control method of the same
JP2017049658A (en) * 2015-08-31 2017-03-09 Kddi株式会社 AR information display device
JP2019160177A (en) * 2018-03-16 2019-09-19 京セラドキュメントソリューションズ株式会社 Display device and display program
WO2019230285A1 (en) * 2018-05-29 2019-12-05 オムロン株式会社 Simulation device, simulation method, and program
JP2019207153A (en) * 2018-05-29 2019-12-05 オムロン株式会社 Simulation device, simulation method, and program
JP7099052B2 (en) 2018-05-29 2022-07-12 オムロン株式会社 Simulation equipment, simulation methods and programs
WO2022202016A1 (en) * 2021-03-26 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and storage medium

Also Published As

Publication number Publication date
JP4834424B2 (en) 2011-12-14

Similar Documents

Publication Publication Date Title
JP4434890B2 (en) Image composition method and apparatus
JP4834424B2 (en) Information processing apparatus, information processing method, and program
KR101761751B1 (en) Hmd calibration with direct geometric modeling
JP4401727B2 (en) Image display apparatus and method
JP4137078B2 (en) Mixed reality information generating apparatus and method
JP3991020B2 (en) Image display method and image display system
EP1404126B1 (en) Video combining apparatus and method
JP4065507B2 (en) Information presentation apparatus and information processing method
EP1596329B1 (en) Marker placement information estimating method and information processing device
JP2016533832A (en) Surgical navigation system operating method and surgical navigation system
JP2008210276A (en) Method and device for generating three-dimensional model information
JP2008532149A (en) Method and apparatus for determining optical overlap with an AR object
JP3910239B2 (en) Medical image synthesizer
JP2006267879A (en) Image processing method, image processing apparatus and marker
JP2005174021A (en) Method and device for presenting information
JP2008146108A (en) Index, image processor and image processing method
JP2006012042A (en) Image generating method and device
US20220175485A1 (en) Method for operating a visualization system in a surgical application, and visualization system for a surgical application
JP4366165B2 (en) Image display apparatus and method, and storage medium
JP2008040913A (en) Information processing method, and information processor
KR20190048810A (en) Apparatus and method for providing augmented reality contents
KR20200056688A (en) System and method for structural quality inspection using augmented reality
JP7465133B2 (en) Information processing device and information processing method
Lin Lightweight and Sufficient Two Viewpoint Connections for Augmented Reality
JP2010118002A (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110916

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110926

R151 Written notification of patent or utility model registration

Ref document number: 4834424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees