JP2005234757A - Extended reality sense system, image composition display method and program - Google Patents

Extended reality sense system, image composition display method and program Download PDF

Info

Publication number
JP2005234757A
JP2005234757A JP2004041262A JP2004041262A JP2005234757A JP 2005234757 A JP2005234757 A JP 2005234757A JP 2004041262 A JP2004041262 A JP 2004041262A JP 2004041262 A JP2004041262 A JP 2004041262A JP 2005234757 A JP2005234757 A JP 2005234757A
Authority
JP
Japan
Prior art keywords
marker
image
virtual object
captured
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004041262A
Other languages
Japanese (ja)
Inventor
Hidenori Sato
秀則 佐藤
Akira Onozawa
晃 小野澤
Ikuo Harada
育生 原田
Hisao Nojima
久雄 野島
Noriko Aragaki
紀子 新垣
Hidekazu Hosoya
英一 細谷
Hiroto Matsuoka
裕人 松岡
Yoshinori Kitahashi
美紀 北端
Norihiko Maeda
典彦 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004041262A priority Critical patent/JP2005234757A/en
Publication of JP2005234757A publication Critical patent/JP2005234757A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent that a marker appears to protrude from a display virtual object even when the display virtual object is small relatively to the marker. <P>SOLUTION: A marker concealing data storage part 70 stores three-dimensional information about a preset marker arrangement position as marker concealing data. When an image composition part 50 composes an virtual object image in a marker position inside a photography image, the image composition part 50 composes the virtual object image on an image wherein a marker concealing image stored in the marker concealing data storage part 70 is composed in the marker arrangement position of the photography image to generate a final composition image. Because composing the virtual object image 102 after concealing the marker 100 by the marker concealing image 103, it can be prevented that the marker 100 is viewed from the side of the display virtual object even when the virtual object image 102 is small as compared to the marker 100. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、実空間に仮想物体が存在するかのように重畳させる技術である拡張現実感(Augmented Reality)技術を用いた拡張現実感システムおよび画像合成表示方法に関し、特に、3次元位置認識のためのマーカを含む画像の撮影を行い、この撮影画像中のマーカの種類に応じた仮想物体画像を、撮影画像中のマーカの位置および方向に基づいて当該撮影画像中に合成する拡張現実感システムおよび画像合成表示方法に関する。   The present invention relates to an augmented reality system and an image composition display method using augmented reality technology, which is a technology for superimposing a virtual object as if it exists in real space. An augmented reality system that shoots an image including a marker for the purpose and synthesizes a virtual object image corresponding to the type of marker in the captured image into the captured image based on the position and direction of the marker in the captured image And an image composition display method.

近年、3次元画像技術の向上に伴い、実空間に仮想物体が存在するかのうように重畳させる拡張現実感システムが、製品のプレゼンテーション等に用いられるようになってきている。   In recent years, with the improvement of three-dimensional image technology, augmented reality systems that superimpose virtual objects as if they existed in real space have been used for product presentations and the like.

このような拡張現実感システムを実現するためには、重畳する仮想物体の種類、実空間をカメラで撮影した画像上での合成位置、及び仮想物体の表示方向を認識する技術が必要となる。   In order to realize such an augmented reality system, a technique for recognizing the type of virtual object to be superimposed, the combined position on the image obtained by photographing the real space with the camera, and the display direction of the virtual object is required.

これらの問題を解決するひとつの方法として、仮想物体を表示する3次元位置を計測するためのマーカを用いた拡張現実感システムが提案されている(例えば、非特許文献1、2参照。)。   As one method for solving these problems, an augmented reality system using a marker for measuring a three-dimensional position for displaying a virtual object has been proposed (for example, see Non-Patent Documents 1 and 2).

このマーカを用いた従来の拡張現実感システムの構成の一例を図6に示す。この従来の拡張現実感システムは、図6に示すように、撮影部10と、マーカ認識部20と、マーカ3次元位置/方向決定部30と、表示仮想物体データ決定部40と、画像合成部150と、仮想物体データ格納部60とから構成されている。   An example of the configuration of a conventional augmented reality system using this marker is shown in FIG. As shown in FIG. 6, the conventional augmented reality system includes a photographing unit 10, a marker recognizing unit 20, a marker three-dimensional position / direction determining unit 30, a display virtual object data determining unit 40, and an image synthesizing unit. 150 and a virtual object data storage unit 60.

図6では、テーブルの上にマーカ100が配置されたものをカメラにより撮影した場合を示している。このマーカ100は、予め設定された大きさの黒い枠により構成されていて、内部の白い部分の文字、模様等のパターンの認識により、マーカの種類を特定し、重畳する仮想物体を決定する。また、パターンの大きさ、傾きから、マーカが置かれた3次元位置及び方向を検出し、撮影画像上での合成位置及び表示方向を決定する。   FIG. 6 shows a case where a camera with a marker 100 placed on a table is photographed. The marker 100 is configured by a black frame having a preset size, and by identifying a pattern such as a character or a pattern in an internal white portion, the marker type is specified and a virtual object to be superimposed is determined. Further, the three-dimensional position and direction where the marker is placed are detected from the size and inclination of the pattern, and the combined position and display direction on the captured image are determined.

撮影部10は、接続されたビデオカメラを介して、マーカ100を含む画像の撮影を行う。マーカ認識部20は、撮影部10により撮影された撮影画像の中からマーカを認識する処理を行っている。マーカ3次元位置/方向決定部30は、マーカ認識部20により認識されたマーカの3次元位置および方向を検出する。   The imaging unit 10 captures an image including the marker 100 via a connected video camera. The marker recognizing unit 20 performs processing for recognizing the marker from the captured image captured by the capturing unit 10. The marker 3D position / direction determination unit 30 detects the 3D position and direction of the marker recognized by the marker recognition unit 20.

仮想物体データ格納部60は、マーカの種類に対応した仮想物体画像データが格納されている。表示仮想物体データ決定部40は、仮想物体データ格納部60に格納されている仮想物体データの中から、マーカ認識部20により認識されたマーカの種類に対応した仮想物体データを選択して表示を行うための仮想物体画像102として決定する。   The virtual object data storage unit 60 stores virtual object image data corresponding to the type of marker. The display virtual object data determination unit 40 selects and displays virtual object data corresponding to the marker type recognized by the marker recognition unit 20 from the virtual object data stored in the virtual object data storage unit 60. It is determined as a virtual object image 102 for performing.

画像合成部150は、撮影部10により撮影された撮影画像101と、表示仮想物体データ決定部40からの仮想物体画像102とを合成して合成画像として出力する。   The image synthesis unit 150 synthesizes the captured image 101 captured by the imaging unit 10 and the virtual object image 102 from the display virtual object data determination unit 40 and outputs the synthesized image.

次に、図7のフローチャートを参照してこの従来の拡張現実感システムの動作について説明する。   Next, the operation of this conventional augmented reality system will be described with reference to the flowchart of FIG.

先ず最初に、撮影部10では、マーカ100を含む画像の撮影が行われる(ステップ701)。そして、次にマーカ認識部20により、撮影部10により撮影された撮影画像101中のマーカの認識が行われる(ステップ702)。そして、表示仮想物体データ決定部40により、マーカ認識部20により認識されたマーカの種類に基づいて、仮想物体データ格納部60に格納されている仮想物体データの中から、対応する仮想物体画像のデータが決定される(ステップ703)。そして、3次元位置/方向決定部30により、撮影画像中のマーカの3次元位置および方向の検出が行われる(ステップ704、705)。   First, the image capturing unit 10 captures an image including the marker 100 (step 701). Then, the marker recognizing unit 20 recognizes the marker in the captured image 101 photographed by the photographing unit 10 (step 702). Based on the type of marker recognized by the marker recognizing unit 20 by the display virtual object data determining unit 40, the virtual object data corresponding to the virtual object image stored in the virtual object data storing unit 60 is displayed. Data is determined (step 703). Then, the three-dimensional position / direction determination unit 30 detects the three-dimensional position and direction of the marker in the captured image (steps 704 and 705).

そして、最後に、画像合成部150では、図8に示すように、マーカ3次元位置/方向決定部30からの位置情報および方向情報に基づいて、撮影部10からの撮影画像101中に表示仮想物体データ決定部102からの仮想物体画像102を合成する処理が行われる(ステップ706)。   Finally, in the image composition unit 150, as shown in FIG. 8, based on the position information and direction information from the marker three-dimensional position / direction determination unit 30, a virtual image displayed in the captured image 101 from the imaging unit 10 is displayed. A process of synthesizing the virtual object image 102 from the object data determination unit 102 is performed (step 706).

このような拡張現実感システムを用いることにより、マーカ100を含む画像を撮影すると、このマーカ100を配置した位置および方向に対応して、撮影画像中に仮想物体画像を合成して表示することが可能となる。   By using such an augmented reality system, when an image including the marker 100 is captured, a virtual object image can be synthesized and displayed in the captured image corresponding to the position and direction in which the marker 100 is disposed. It becomes possible.

しかし、このようなマーカを使用した従来の拡張現実感システムでは、マーカに対して表示仮想物体が小さい場合、撮影画像中に合成した仮想物体画像によりマーカを完全に消すことができないため、マーカが表示仮想物体の横からはみ出たように見えてしまうという問題があった。例えば、図8に示した合成画像では、合成画像中に挿入された仮想物体画像102の下からマーカ100がはみ出してしまっている。マーカ自体の大きさを小さくすればこのような問題を解決することは可能だが、マーカの大きさを小さくするとマーカの種類、距離、方向等の認識率が悪化してしまうという別の問題が発生する。そのため、マーカは実用上ある程度以上の大きさであることが要求され、小さくするには限界があった。
加藤博一, Mark Billinghurst, 浅野浩一, 橘啓八郎: マーカー追跡に基づく拡張現実感システムとそのキャリブレーション, 日本バーチャルリアリティ学会論文誌, Vol.4, No.4, pp.607-616 (1999)、[平16年1月13日検索]、インターネット<URL:http://www.sys.im.hiroshima-cu.ac.jp/people/kato/publications/c-00.his2000.1.pdf> Hirokazu Kato, Mark Billinghurst:Marker Tracking and HMD Calibration for a Video-based Augmented Reality Conferencing System, Proc. of 2nd Int. Workshop on Augmented Reality, pp.85-94 (1999)、[平16年1月13日検索]、インターネット<URL:http://www.sys.im.hiroshima-cu.ac.jp/people/kato/publications/c-01.ismr2001.1.pdf>
However, in the conventional augmented reality system using such a marker, if the displayed virtual object is small relative to the marker, the marker cannot be completely erased by the virtual object image synthesized in the captured image. There was a problem that it seemed to protrude from the side of the display virtual object. For example, in the composite image shown in FIG. 8, the marker 100 protrudes from the bottom of the virtual object image 102 inserted in the composite image. It is possible to solve this problem by reducing the size of the marker itself, but if the size of the marker is reduced, another problem occurs that the recognition rate of the marker type, distance, direction, etc. deteriorates. To do. For this reason, the marker is required to be practically larger than a certain size, and there is a limit to reducing it.
Hirokazu Kato, Mark Billinghurst, Koichi Asano, Keihachiro Tachibana: Augmented Reality System Based on Marker Tracking and its Calibration, Transactions of the Virtual Reality Society of Japan, Vol.4, No.4, pp.607-616 (1999) [Search January 13, 2016] Internet <URL: http://www.sys.im.hiroshima-cu.ac.jp/people/kato/publications/c-00.his2000.1.pdf> Hirokazu Kato, Mark Billinghurst: Marker Tracking and HMD Calibration for a Video-based Augmented Reality Conferencing System, Proc. Of 2nd Int. Workshop on Augmented Reality, pp.85-94 (1999), [Searched on January 13, 2016 ], Internet <URL: http://www.sys.im.hiroshima-cu.ac.jp/people/kato/publications/c-01.ismr2001.1.pdf>

上述した従来の拡張現実感システムでは、マーカに対して表示仮想物体が小さい場合、撮影画像中に合成した仮想物体画像によりマーカを完全に消すことができないため、マーカが表示仮想物体の横からはみ出たように見えてしまうという問題点があった。   In the above-described conventional augmented reality system, if the display virtual object is small relative to the marker, the marker cannot be completely erased by the virtual object image synthesized in the captured image, so the marker protrudes from the side of the display virtual object. There was a problem that it looked like.

本発明の目的は、マーカに対して表示仮想物体が小さい場合でも、表示仮想物体からマーカがはみ出して見えてしまうことを防ぐことが可能な拡張現実感システムおよび画像合成表示方法を提供することである。   An object of the present invention is to provide an augmented reality system and an image composition display method capable of preventing a marker from protruding from a display virtual object even when the display virtual object is small relative to the marker. is there.

上記目的を達成するために、本発明の拡張現実感システムは、3次元位置認識のためのマーカを含む画像の撮影を行い、該撮影画像中のマーカの種類に応じた仮想物体画像を、前記撮影画像中のマーカの位置および方向に基づいて当該撮影画像中に合成する拡張現実感システムにおいて、
予め設定されたマーカ配置位置の3次元情報がマーカ隠蔽用データとして格納されているマーカ隠蔽用データ格納部と、
仮想物体画像を前記撮影画像中のマーカ位置に合成する際に、前記マーカ隠蔽用データ格納部に格納されているマーカ隠蔽用画像を当該撮影画像のマーカ配置位置に合成した上に前記仮想物体画像を合成することにより合成画像を生成する画像合成部とを備えていることを特徴とする。
In order to achieve the above object, the augmented reality system of the present invention captures an image including a marker for three-dimensional position recognition, and displays a virtual object image corresponding to the type of the marker in the captured image. In an augmented reality system that synthesizes in the captured image based on the position and direction of the marker in the captured image,
A marker concealment data storage unit in which the three-dimensional information of a preset marker arrangement position is stored as marker concealment data;
When the virtual object image is combined with the marker position in the captured image, the marker concealment image stored in the marker concealment data storage unit is combined with the marker arrangement position of the captured image, and then the virtual object image And an image synthesizing unit that generates a synthesized image by synthesizing the images.

本発明によれば、3次元位置認識のためのマーカをマーカ隠蔽用画像により隠蔽した上に仮想物体画像を合成するようにしているので、マーカと比較して仮想物体画像が小さい場合でも、表示仮想物体の横からマーカが見えてしまうことを防ぐことが可能となる。   According to the present invention, the virtual object image is synthesized after concealing the marker for recognizing the three-dimensional position with the marker concealing image, so even if the virtual object image is smaller than the marker, the display is possible. It is possible to prevent the marker from being seen from the side of the virtual object.

以上説明したように、本発明によれば、3次元位置認識のためのマーカをマーカ隠蔽用画像により隠蔽した上に仮想物体画像を合成するようにしているので、マーカと比較して仮想物体画像が小さい場合でも、表示仮想物体の横からマーカが見えてしまうことを防ぐことが可能となるという効果を得ることができる。   As described above, according to the present invention, the virtual object image is combined with the marker for concealing the marker for recognizing the three-dimensional position with the marker concealing image, so that the virtual object image is compared with the marker. Even when is small, it is possible to prevent the marker from being seen from the side of the display virtual object.

次に、本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の一実施形態の拡張現実感システムの構成を示すブロック図である。図1において、図6中の構成要素と同一の構成要素には同一の符号を付し、説明を省略するものとする。   FIG. 1 is a block diagram showing a configuration of an augmented reality system according to an embodiment of the present invention. In FIG. 1, the same components as those in FIG. 6 are denoted by the same reference numerals, and description thereof is omitted.

本実施形態の拡張現実感システムは、図6に示した従来の拡張現実感システムに対して、マーカ隠蔽用データ格納部70を新たに設け、画像合成部150を画像合成部50に置き換えた構成となっている。   The augmented reality system of the present embodiment has a configuration in which a marker concealment data storage unit 70 is newly provided and the image composition unit 150 is replaced with an image composition unit 50, compared to the conventional augmented reality system shown in FIG. It has become.

マーカ隠蔽用データ格納部70には、予め設定されたマーカ配置位置の3次元情報がマーカ隠蔽用データとして格納されている。本実施形態では、テーブル上面の中央部がマーカの配置位置として予め設定されているため、図2に示すように、テーブル上面の中央部の画像をマーカ隠蔽用画像データとして取得して、マーカ隠蔽用データ格納部70に予め格納しておく。尚、本実施形態では、マーカを配置するマーカ配置位置は予め設定されていることが前提となっている。   The marker concealment data storage unit 70 stores three-dimensional information of preset marker arrangement positions as marker concealment data. In the present embodiment, since the center portion of the table upper surface is preset as the marker placement position, as shown in FIG. 2, the image of the center portion of the table upper surface is acquired as marker concealment image data, and the marker concealment is performed. Stored in advance in the data storage unit 70. In the present embodiment, it is assumed that the marker placement position for placing the marker is set in advance.

また、本実施形態における画像合成部50は、仮想物体画像を撮影画像中のマーカ位置に合成する際に、マーカ隠蔽用データ格納部70に格納されているマーカ隠蔽用画像を当該撮影画像のマーカ配置位置に合成した上に仮想物体画像を合成することにより最終的な合成画像を生成する。   Further, when the image composition unit 50 in this embodiment synthesizes the virtual object image with the marker position in the captured image, the marker concealment image stored in the marker concealment data storage unit 70 is used as the marker of the captured image. A final synthesized image is generated by synthesizing the virtual object image after being synthesized at the arrangement position.

次に、図3を参照して、マーカ隠蔽用画像103の具体的な生成方法について説明する。   Next, a specific method for generating the marker concealment image 103 will be described with reference to FIG.

マーカを配置しようとする位置の3次元情報を取得する方法としては様々な方法が考えられるが、例えば、図3に示すように、仮想物体と比較して十分小さな小マーカ200を用いて、本番マーカが配置される範囲をズームアップして多視点方向から撮影してマーカ隠蔽用画像103を生成するようにしてもよい。また、このような操作を階層的にすることにより、マーカの影響をさらに小さくすることができる。   Various methods are conceivable as a method for acquiring the three-dimensional information of the position where the marker is to be arranged. For example, as shown in FIG. The marker concealment image 103 may be generated by zooming in on the range where the marker is arranged and shooting from a multi-viewpoint direction. Further, by making such an operation hierarchical, the influence of the marker can be further reduced.

さらに、マーカ配置面は平面であると仮定すれば、小マーカ200を配置して、この小マーカ200を正面から撮影した1つの画像のみを準備し、表示の際には取得したマーカ隠蔽用画像を、表示する向きに合わせてワーピングして(ゆがめて)表示するようにしてもよい。   Further, if it is assumed that the marker arrangement plane is a plane, a small marker 200 is arranged, and only one image obtained by photographing the small marker 200 from the front is prepared. May be warped (distorted) according to the display direction.

さらに、レーザスキャナ等の既存の手法でマーカ配置面の3次元計測を実施し、マーカ配置面の3次元モデルを生成することによりマーカ隠蔽用画像103を生成するようにしてもよい。   Furthermore, the marker concealment image 103 may be generated by performing three-dimensional measurement of the marker arrangement surface by an existing method such as a laser scanner and generating a three-dimensional model of the marker arrangement surface.

次に、本実施形態の拡張現実感システムの動作を図4のフローチャートを参照して説明する。   Next, the operation of the augmented reality system of this embodiment will be described with reference to the flowchart of FIG.

図4に示したフローチャートにおけるステップ401〜405までの処理については、従来の拡張現実感システムの動作を示した図7のフローチャートにおけるステップ701〜705までの処理と同じであるため、その説明については省略する。   The processing from step 401 to step 405 in the flowchart shown in FIG. 4 is the same as the processing from step 701 to step 705 in the flowchart of FIG. 7 showing the operation of the conventional augmented reality system. Omitted.

本実施形態の拡張現実感システムでは、画像合成部50は、マーカ隠蔽用データ格納部70に格納されているマーカ隠蔽用画像103のデータを読み込んだ後に(ステップ406)、図5に示すように、マーカ3次元位置/方向決定部30からの位置情報および方向情報に基づいて、撮影部10からの撮影画像101中に、読み込んだマーカ隠蔽用画像103のデータをマーカ配置位置に合成した上に、表示仮想物体データ決定部102からの仮想物体画像102を合成する処理を行う(ステップ407)。   In the augmented reality system of the present embodiment, the image composition unit 50 reads the data of the marker concealment image 103 stored in the marker concealment data storage unit 70 (step 406), and then, as shown in FIG. Based on the position information and direction information from the marker 3D position / direction determination unit 30, the data of the read marker concealment image 103 is combined with the marker arrangement position in the captured image 101 from the imaging unit 10. Then, a process of synthesizing the virtual object image 102 from the display virtual object data determination unit 102 is performed (step 407).

本実施形態の拡張現実感システムによれば、マーカ100をマーカ隠蔽用画像103により隠蔽した後に仮想物体画像102を合成するようにしているので、マーカ100と比較して仮想物体画像102が小さい場合でも、表示仮想物体の横からマーカ100が見えてしまうことを防ぐことが可能となる。   According to the augmented reality system of the present embodiment, since the virtual object image 102 is synthesized after the marker 100 is concealed by the marker concealment image 103, the virtual object image 102 is smaller than the marker 100. However, it is possible to prevent the marker 100 from being seen from the side of the display virtual object.

また、図には示されていないが、本実施形態の拡張現実感システムは、上記で説明した画像合成表示方法を実行するためのプログラムを記録した記録媒体を備えている。この記録媒体は磁気ディスク、半導体メモリまたはその他の記録媒体であってもよい。このプログラムは、記録媒体から拡張現実感システムに読み込まれ、拡張現実感システムの動作を制御する。具体的には、拡張現実感システム内のCPUがこのプログラムの制御により拡張現実感システムのハードウェア資源に特定の処理を行うように指示することにより上記の処理が実現される。   Although not shown in the figure, the augmented reality system of the present embodiment includes a recording medium on which a program for executing the image composition display method described above is recorded. This recording medium may be a magnetic disk, a semiconductor memory, or another recording medium. This program is read from the recording medium into the augmented reality system and controls the operation of the augmented reality system. Specifically, the above processing is realized by the CPU in the augmented reality system instructing the hardware resource of the augmented reality system to perform a specific process under the control of this program.

本発明の一実施形態の拡張現実感システムの構成を示すブロック図である。It is a block diagram which shows the structure of the augmented reality system of one Embodiment of this invention. マーカ隠蔽用画像103の生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of the marker concealment image. マーカ隠蔽用画像103の具体的な生成方法について説明するための図である。It is a figure for demonstrating the specific production | generation method of the image 103 for marker concealment. 図1の拡張現実感システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the augmented reality system of FIG. 本発明の一実施形態の拡張現実感システムにより生成された合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image produced | generated by the augmented reality system of one Embodiment of this invention. 従来の拡張現実感システムの構成を示すブロック図である。It is a block diagram which shows the structure of the conventional augmented reality system. 従来の拡張現実感システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the conventional augmented reality system. 従来の拡張現実感システムにより生成された合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image produced | generated by the conventional augmented reality system.

符号の説明Explanation of symbols

10 撮影部
20 マーカ認識部
30 マーカ3次元位置/方向決定部
40 表示仮想物体データ決定部
50 画像合成部
60 仮想物体データ格納部
70 マーカ隠蔽用データ格納部
100 マーカ
101 撮影画像
102 仮想物体画像
103 マーカ隠蔽用画像
150 画像合成部
200 小マーカ
401〜407 ステップ
701〜706 ステップ
DESCRIPTION OF SYMBOLS 10 Image pick-up part 20 Marker recognition part 30 Marker three-dimensional position / direction determination part 40 Display virtual object data determination part 50 Image composition part 60 Virtual object data storage part 70 Marker concealment data storage part 100 Marker 101 Photographed image 102 Virtual object image 103 Marker concealment image 150 Image composition unit 200 Small marker 401-407 Step 701-706 Step

Claims (3)

3次元位置認識のためのマーカを含む画像の撮影を行い、該撮影画像中のマーカの種類に応じた仮想物体画像を、前記撮影画像中のマーカの位置および方向に基づいて当該撮影画像中に合成する拡張現実感システムにおいて、
予め設定されたマーカ配置位置の3次元情報がマーカ隠蔽用データとして格納されているマーカ隠蔽用データ格納部と、
仮想物体画像を前記撮影画像中のマーカ位置に合成する際に、前記マーカ隠蔽用データ格納部に格納されているマーカ隠蔽用画像を当該撮影画像のマーカ配置位置に合成した上に前記仮想物体画像を合成することにより合成画像を生成する画像合成部とを備えていることを特徴とする拡張現実感システム。
An image including a marker for three-dimensional position recognition is captured, and a virtual object image corresponding to the type of marker in the captured image is displayed in the captured image based on the position and direction of the marker in the captured image. In the augmented reality system to synthesize,
A marker concealment data storage unit in which the three-dimensional information of a preset marker arrangement position is stored as marker concealment data;
When the virtual object image is combined with the marker position in the captured image, the marker concealment image stored in the marker concealment data storage unit is combined with the marker arrangement position of the captured image, and then the virtual object image An augmented reality system comprising: an image synthesis unit that generates a synthesized image by synthesizing.
3次元位置認識のためのマーカを含む画像の撮影を行い、該撮影画像中のマーカの種類に応じた仮想物体画像を、前記撮影画像中のマーカの位置および方向に基づいて当該撮影画像中に合成する画像合成表示方法であって、
撮影部により3次元位置認識のためのマーカを含む画像の撮影を行い、マーカ認識部により該撮影画像中のマーカの認識を行うステップと、
認識された前記マーカの種類に基づいて、表示仮想物体データ決定部において、格納されている仮想物体データの中から対応する仮想物体画像のデータを決定するステップと、
マーカ3次元位置/方向決定部において、前記撮影画像中のマーカの3次元位置および方向の検出を行うステップと、
画像合成部において、予め設定されたマーカ配置位置の3次元情報をマーカ隠蔽用画像として当該撮影画像のマーカ配置位置に合成した上に前記仮想物体画像を合成することにより合成画像を生成するステップとを備えた画像合成表示方法。
An image including a marker for three-dimensional position recognition is captured, and a virtual object image corresponding to the type of marker in the captured image is displayed in the captured image based on the position and direction of the marker in the captured image. An image composition display method for composition,
Photographing an image including a marker for three-dimensional position recognition by the photographing unit, and recognizing the marker in the photographed image by the marker recognizing unit;
Based on the recognized type of the marker, the display virtual object data determination unit determines the corresponding virtual object image data from the stored virtual object data;
In the marker 3D position / direction determining unit, detecting the 3D position and direction of the marker in the captured image;
A step of generating a synthesized image by synthesizing the virtual object image after synthesizing three-dimensional information of a preset marker arrangement position as a marker concealment image at the marker arrangement position of the captured image in an image synthesis unit; An image composition display method comprising:
3次元位置認識のためのマーカを含む画像の撮影を行い、該撮影画像中のマーカの種類に応じた仮想物体画像を、前記撮影画像中のマーカの位置および方向に基づいて当該撮影画像中に合成する画像合成表示方法をコンピュータに実行させるためのプログラムであって、
撮影部により3次元位置認識のためのマーカを含む画像の撮影を行い、マーカ認識部により該撮影画像中のマーカの認識を行う処理と、
認識された前記マーカの種類に基づいて、表示仮想物体データ決定部において、格納されている仮想物体データの中から対応する仮想物体画像のデータを決定する処理と、
マーカ3次元位置/方向決定部において、前記撮影画像中のマーカの3次元位置および方向の検出を行う処理と、
画像合成部において、予め設定されたマーカ配置位置の3次元情報をマーカ隠蔽用画像として当該撮影画像のマーカ配置位置に合成した上に前記仮想物体画像を合成することにより合成画像を生成する処理とをコンピュータに実行させるためのプログラム。
An image including a marker for three-dimensional position recognition is captured, and a virtual object image corresponding to the type of marker in the captured image is displayed in the captured image based on the position and direction of the marker in the captured image. A program for causing a computer to execute an image composition display method to be synthesized,
Processing of capturing an image including a marker for three-dimensional position recognition by the capturing unit, and recognizing the marker in the captured image by the marker recognizing unit;
Based on the recognized type of the marker, the display virtual object data determination unit determines the corresponding virtual object image data from the stored virtual object data;
Processing for detecting a three-dimensional position and direction of a marker in the captured image in a marker three-dimensional position / direction determining unit;
A process of generating a synthesized image by synthesizing the virtual object image after synthesizing the three-dimensional information of a preset marker arrangement position as a marker concealment image at the marker arrangement position of the captured image in an image synthesis unit; A program that causes a computer to execute.
JP2004041262A 2004-02-18 2004-02-18 Extended reality sense system, image composition display method and program Pending JP2005234757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004041262A JP2005234757A (en) 2004-02-18 2004-02-18 Extended reality sense system, image composition display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004041262A JP2005234757A (en) 2004-02-18 2004-02-18 Extended reality sense system, image composition display method and program

Publications (1)

Publication Number Publication Date
JP2005234757A true JP2005234757A (en) 2005-09-02

Family

ID=35017669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004041262A Pending JP2005234757A (en) 2004-02-18 2004-02-18 Extended reality sense system, image composition display method and program

Country Status (1)

Country Link
JP (1) JP2005234757A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9007400B2 (en) 2012-03-08 2015-04-14 Casio Computer Co., Ltd. Image processing device, image processing method and computer-readable medium
CN114626116A (en) * 2020-12-10 2022-06-14 光宝电子(广州)有限公司 Model generation system and model construction method for building space

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9007400B2 (en) 2012-03-08 2015-04-14 Casio Computer Co., Ltd. Image processing device, image processing method and computer-readable medium
CN114626116A (en) * 2020-12-10 2022-06-14 光宝电子(广州)有限公司 Model generation system and model construction method for building space

Similar Documents

Publication Publication Date Title
US8836760B2 (en) Image reproducing apparatus, image capturing apparatus, and control method therefor
EP2328125B1 (en) Image splicing method and device
JP5084682B2 (en) Image processing apparatus, control method, program, and recording medium
US10547822B2 (en) Image processing apparatus and method to generate high-definition viewpoint interpolation image
WO2018112788A1 (en) Image processing method and device
JP4733651B2 (en) Position detection apparatus, position detection method, and position detection program
US20020060648A1 (en) Image-display control apparatus
US8254626B2 (en) Output apparatus, output method and program for outputting a moving image including a synthesized image by superimposing images
US7643070B2 (en) Moving image generating apparatus, moving image generating method, and program
CN110636276B (en) Video shooting method and device, storage medium and electronic equipment
JP6610535B2 (en) Image processing apparatus and image processing method
JP2002159019A (en) Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program
JP6420605B2 (en) Image processing device
JP2004193962A (en) Image communication equipment, image communication method, and computer program
JP2010072813A (en) Image processing device and image processing program
JPH10126665A (en) Image composing device
KR101529820B1 (en) Method and apparatus for determing position of subject in world coodinate system
JP2013200867A (en) Animation creation device and camera
KR20190129433A (en) Method for generating panoramic image and apparatus thereof
US10282633B2 (en) Cross-asset media analysis and processing
Zhang et al. Coherent video generation for multiple hand-held cameras with dynamic foreground
JP2006048484A (en) Design support device
JP2002207963A (en) Image processor
JP2005234757A (en) Extended reality sense system, image composition display method and program
JP7065708B2 (en) Recording / playback device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050606

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050623

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080625