JP2009020614A - Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program - Google Patents

Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program Download PDF

Info

Publication number
JP2009020614A
JP2009020614A JP2007181395A JP2007181395A JP2009020614A JP 2009020614 A JP2009020614 A JP 2009020614A JP 2007181395 A JP2007181395 A JP 2007181395A JP 2007181395 A JP2007181395 A JP 2007181395A JP 2009020614 A JP2009020614 A JP 2009020614A
Authority
JP
Japan
Prior art keywords
marker
marker unit
unit
color
reality system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007181395A
Other languages
Japanese (ja)
Inventor
Hideyuki Tamura
秀行 田村
Fumihisa Shibata
史久 柴田
Toshiichi Oshima
登志一 大島
Asako Kimura
朝子 木村
Ryuhei Tenme
隆平 天目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2007181395A priority Critical patent/JP2009020614A/en
Publication of JP2009020614A publication Critical patent/JP2009020614A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a marker unit to be used for an augmented reality system for surely securing identity without damaging any fine sight. <P>SOLUTION: This marker unit MU is used for the augmented reality system 1 for recognizing the position of an object R in an actual environment, and for displaying virtual information by superimposing it, and arranged in the object R so as to be configured as the index of the position recognition of the object R. The marker unit MU is configured of a plurality of marker elements ME, attached with a color approximated to the color of the object R, configuring identification information according to the combination of the external forms and layout. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複合現実感システムに用いるマーカユニット及び複合現実感システムに関する。また、本発明は、マーカユニットを作成するためのマーカユニット作成支援システム及び作成支援プログラムに関する。   The present invention relates to a marker unit and a mixed reality system used in a mixed reality system. The present invention also relates to a marker unit creation support system and a creation support program for creating a marker unit.

近年、カメラによって撮影された現実環境(現実空間)の画像にCG(コンピュータグラフィックス)画像や文字等の仮想情報を重畳表示することによって、現実環境の情報を増幅・拡張する複合現実感技術(MR:Mixed Reality)に関する研究、開発が盛んに行われている。この複合現実感技術の応用として、例えば、人間の頭部に装着可能なシースルータイプのディスプレイに、現実の視野に対応した仮想の映像を重ね合わせて映し出すことにより、装着者により多くの情報をリアルタイムに提供する複合現実感システムが考えられている。   In recent years, mixed reality technology that amplifies and expands real environment information by superimposing and displaying virtual information such as CG (computer graphics) images and characters on real environment (real space) images taken by a camera ( Research and development related to MR (Mixed Reality) are actively conducted. As an application of this mixed reality technology, for example, a virtual image corresponding to the real field of view can be superimposed on a see-through type display that can be worn on a human head, thereby providing more information to the wearer in real time. A mixed reality system to provide is considered.

このような複合現実感システムでは、人間が頭部を動かしたり移動したりすると当然に視野も変わるため、仮想情報も追随して変化しなければならない。この追随のため、現実環境の物体とその物体に対応した仮想情報との位置合わせが重要となる。この位置合わせを行うための方法として、現実環境の物体に人工的に作成したマーカを複数配置し、カメラで撮影した画像から物体に配置したマーカを検出することによって映像中の物体の位置を認識し、その位置からカメラの位置や姿勢を特定して位置合わせする方法が知られている。   In such a mixed reality system, when a human moves or moves his / her head, the field of view naturally changes, so the virtual information must also follow and change. For this follow-up, it is important to align the object in the real environment with the virtual information corresponding to the object. As a method for performing this alignment, a plurality of artificially created markers are placed on the object in the real environment, and the position of the object in the video is recognized by detecting the marker placed on the object from the image captured by the camera. A method is known in which the position and orientation of the camera are specified from the position and aligned.

従来、人工的に作成したマーカは、円形状や正方形状等の識別しやすい形状のものや、コントラストの高い白黒2色を配したもの、赤・青・黄などの色を組み合わせて配したもの等が用いられている。しかし、このようなマーカは識別性のみを重視したものであるため、これを配置した物体と調和せず、美観を損ねるという問題がある。
また、美観を損ねないようにするため、マーカ自身を肉眼では視認しにくい再帰性反射材で作成し、赤外光を照射したマーカを赤外線カメラで撮影することも提案されている(非特許文献1)。しかし、この場合、赤外線カメラの使用が前提となるため、使用環境が限定され、普及は困難である。
中里祐介、他2名、“ウェアラブル拡張現実感のための不可視マーカと赤外線カメラを用いた位置・姿勢推定”、日本バーチャルリアリティ学会論文誌Vol.10,No.3,2005
Conventionally, artificially created markers have a circular or square shape that can be easily identified, two high-contrast black and white colors, or a combination of red, blue, yellow, etc. Etc. are used. However, since such a marker emphasizes only the discriminability, there is a problem that it does not harmonize with the object on which the marker is placed and impairs the beauty.
In addition, in order not to impair the aesthetic appearance, it is also proposed that the marker itself is made of a retroreflective material that is difficult to see with the naked eye, and the marker irradiated with infrared light is photographed with an infrared camera (non-patent document). 1). However, in this case, since the use of an infrared camera is a prerequisite, the use environment is limited and it is difficult to spread.
Yusuke Nakazato and two others, “Position / Attitude Estimation Using Invisible Markers and Infrared Cameras for Wearable Augmented Reality”, Transactions of the Virtual Reality Society of Japan, Vol. 10, no. 3,2005

本発明は、上記の実情に鑑みてなされたものであり、美観を損ねることが無く、しかも、識別性(識別の頑健性)を十分に確保することができるマーカユニット及びこのマーカユニットを用いた複合現実感システムを提供することを目的とする。
また、物体に応じて適切なマーカユニットを作成するためのマーカユニット作成支援システム及び作成支援プログラムを提供することを目的とする。
The present invention has been made in view of the above circumstances, and has used a marker unit that does not impair the aesthetics and that can sufficiently ensure discrimination (robustness of discrimination) and the marker unit. The purpose is to provide a mixed reality system.
It is another object of the present invention to provide a marker unit creation support system and a creation support program for creating an appropriate marker unit according to an object.

本発明のマーカユニットは、現実環境における物体の位置を認識して仮想情報を重畳表示する複合現実感システムに用いられ、前記物体に配置されることによって当該物体の位置認識の指標とされるマーカユニットであって、
前記物体の色に近似した色が付され、且つ、その外形及び配置の組合せにより識別情報を構成する複数のマーカエレメントからなることを特徴とする。
The marker unit of the present invention is used in a mixed reality system that recognizes the position of an object in a real environment and displays virtual information in a superimposed manner, and is a marker used as an index for recognizing the position of the object by being arranged on the object A unit,
It is characterized by comprising a plurality of marker elements which are provided with a color approximate to the color of the object and which constitute identification information by a combination of its outer shape and arrangement.

この構成によれば、マーカユニットの色が物体の色に近似した色とされるので、現実環境における美観を損ねることが無く、また、複数のマーカエレメントの外形及び配置の組合せによって識別情報を構成しているので、マーカユニットの色が物体の色に近似していても、マーカユニットの識別性を十分に確保することができる。   According to this configuration, since the color of the marker unit is a color that approximates the color of the object, the aesthetic appearance in the real environment is not impaired, and the identification information is configured by a combination of the outer shape and arrangement of a plurality of marker elements. Therefore, even if the color of the marker unit approximates the color of the object, it is possible to sufficiently ensure the distinguishability of the marker unit.

前記マーカエレメントの色は、物体の色と同一の色系統で濃度が近似するように設定したり、物体の色と同一の濃度で色系統が近似するように設定したりすることができる。
前記マーカエレメントは、その外形の少なくとも一部が物体の外形に沿う形状とされていることが好ましい。これによって、物体に調和したマーカエレメントを配置することができ、美観を損ねないようにすることができる。
The color of the marker element can be set so that the density approximates in the same color system as the object color, or can be set so that the color system approximates in the same density as the object color.
It is preferable that at least a part of the outer shape of the marker element has a shape along the outer shape of the object. This makes it possible to arrange marker elements that are in harmony with the object, so that the aesthetic appearance is not impaired.

上記のマーカユニットを用いた本発明の複合現実感システムは、前記物体とこの物体に配置されている前記マーカエレメントとの色情報、及び、前記マーカユニットの外形及び配置の組合せ情報とを記憶する記憶手段と、前記物体の撮影画像から、前記色情報に基づいて前記マーカエレメントを検出するマーカエレメント検出手段と、検出された複数のマーカエレメントの外形及び配置の組合せが、前記組合せ情報に対応するかを判別することにより、そのマーカエレメントにより構成されるマーカユニットを検出するマーカユニット検出手段と、を備えていることを特徴とする。
このような構成によって、物体の色に近似した色のマーカエレメントや、このマーカエレメントの外形や配置により識別されるマーカユニットを適切に検出することができる。
The mixed reality system of the present invention using the marker unit stores color information of the object and the marker element arranged on the object, and combination information of the outer shape and arrangement of the marker unit. The combination of the storage means, the marker element detection means for detecting the marker element based on the color information from the photographed image of the object, and the detected outline and arrangement of the plurality of marker elements corresponds to the combination information. And a marker unit detecting means for detecting a marker unit constituted by the marker element by determining whether or not.
With such a configuration, it is possible to appropriately detect a marker element having a color approximate to the color of the object and a marker unit identified by the outer shape and arrangement of the marker element.

物体に対応した上記のマーカユニットを作成するための本発明のマーカユニット作成支援システムは、前記物体を撮影する撮影装置と、前記物体に使用するマーカユニットの決定処理を行う処理装置と、を備え、前記処理装置が、撮影された物体の画像を入力する画像入力手段と、入力された画像から、マーカユニットが配置される物体の領域を抽出する対象領域抽出手段と、抽出された物体の色及び形状に応じて当該物体に配置することが可能なマーカユニットを決定するマーカユニット決定手段と、を備えていることを特徴とする。   A marker unit creation support system of the present invention for creating the marker unit corresponding to an object includes an imaging device that photographs the object, and a processing device that performs a determination process of a marker unit used for the object. The processing device includes an image input unit that inputs an image of a photographed object, a target region extraction unit that extracts a region of the object in which the marker unit is arranged from the input image, and a color of the extracted object And marker unit determining means for determining a marker unit that can be arranged on the object according to the shape.

また、物体に対応した上記のマーカユニットを作成するための本発明のマーカユニット作成支援プログラムは、物体の撮影画像を入力する画像入力手段、入力された画像から、マーカユニットが配置される物体の領域を抽出する対象領域抽出手段、及び、抽出された物体の色及び形状に応じて当該物体に配置することが可能なマーカユニットを決定するマーカユニット決定手段、としてコンピュータを機能させることを特徴とする。   In addition, the marker unit creation support program of the present invention for creating the marker unit corresponding to an object includes an image input means for inputting a captured image of the object, and an object on which the marker unit is arranged from the input image. The computer functions as target area extraction means for extracting an area, and marker unit determination means for determining a marker unit that can be placed on the object according to the color and shape of the extracted object. To do.

このようなマーカユニット作成支援システム及びマーカユニット作成支援プログラムによれば、現実環境の物体に応じてマーカユニットを適切に決定することができ、ユーザ(マーカユニットの作成者)自身が物体に応じてマーカユニットの色や形状等を決定する必要が無くなるので、ユーザの負担を軽減し、現実環境に対する複合現実感システムの導入を容易に行うことができる。   According to such a marker unit creation support system and marker unit creation support program, the marker unit can be appropriately determined according to the object in the real environment, and the user (creator of the marker unit) himself can respond to the object. Since it is not necessary to determine the color, shape, etc. of the marker unit, the burden on the user can be reduced and the mixed reality system can be easily introduced into the real environment.

前記マーカユニット決定手段は、物体に配置することが可能な複数のマーカユニットの候補を提示する提示手段と、複数のマーカユニットの候補のなかからユーザの選択を受け付ける選択受付手段とを含むことが好ましい。
この構成によって、複数のマーカユニットの候補の中から、より美観を損なうことがないマーカユニットをユーザの目で判断して決定することができる。
The marker unit determining unit includes a presenting unit that presents a plurality of marker unit candidates that can be arranged on the object, and a selection receiving unit that receives a user's selection from the plurality of marker unit candidates. preferable.
With this configuration, a marker unit that does not impair the aesthetics can be determined and determined by the user's eyes from among a plurality of marker unit candidates.

本発明のマーカユニット及び複合現実感システムによれば、現実環境の美観を損ねることが無く、しかも、マーカユニットの識別性を十分に確保することができる。また、本発明のマーカユニット作成支援システム及び作成支援プログラムによれば、現実環境に応じたマーカユニットを適切に決定し、ユーザに対するマーカユニットの作成負担を軽減することができる。   According to the marker unit and the mixed reality system of the present invention, the aesthetic appearance of the real environment is not impaired, and the distinguishability of the marker unit can be sufficiently ensured. In addition, according to the marker unit creation support system and the creation support program of the present invention, it is possible to appropriately determine a marker unit according to the real environment and reduce the burden of creating the marker unit on the user.

図1は、本発明の実施形態にかかる複合現実感システム1の概要を示す図である。複合現実感システム1は、現実の環境に存在する物体R(R1,R2)、例えば、室内に配置された棚R1や扉R2に対してマーカユニットMUを配置し、室内の映像を、例えば人間の頭部に装着したヘッドマウントディスプレイ(HMD)10のカメラによって撮影し、撮影した映像からマーカユニットMUを検出して物体R1,R2の存在を認識し、この物体R1,R2に対応(位置合わせ)させてCG画像や文字等の仮想の情報をヘッドマウントディスプレイ10に表示することにより、現実の視野に入る情報を増幅・拡張するものである。   FIG. 1 is a diagram showing an overview of a mixed reality system 1 according to an embodiment of the present invention. The mixed reality system 1 arranges a marker unit MU on an object R (R1, R2) existing in an actual environment, for example, a shelf R1 or a door R2 arranged in a room, and displays an indoor image, for example, a human being The head mounted display (HMD) 10 mounted on the head of the camera is photographed by the camera, the marker unit MU is detected from the photographed image, the existence of the objects R1, R2 is recognized, and the objects R1, R2 are associated (alignment). ) And displaying virtual information such as CG images and characters on the head mounted display 10, thereby amplifying and expanding information that falls within the actual visual field.

なお、ヘッドマウントディスプレイ10は、例えばビデオシースルー方式を採用することができる。このヘッドマウントディスプレイ10のゴーグル部の内部には、両眼とほぼ対応する位置にCCD又はCMOSイメージセンサを有するビデオカメラ(撮影手段)12(図3)が設けられ、ゴーグル部の前面部分の裏側には、それぞれ両眼に対応するディスプレイ(表示手段)13(図3)が左右両側に振り分けて配置される。そして、この各ディスプレイ13に、ビデオカメラ12で撮影した情報とともに、処理装置11で生成された仮想空間の映像が表示される。なお、ヘッドマウントディスプレイ10は光学シースルー方式を採用することもできる。   The head mounted display 10 can adopt a video see-through method, for example. A video camera (photographing means) 12 (FIG. 3) having a CCD or CMOS image sensor is provided at a position substantially corresponding to both eyes inside the goggle portion of the head mounted display 10, and the back side of the front portion of the goggle portion. In FIG. 3, displays (display means) 13 (FIG. 3) corresponding to both eyes are arranged on both the left and right sides. Then, the video of the virtual space generated by the processing device 11 is displayed on each display 13 together with information captured by the video camera 12. The head mounted display 10 can adopt an optical see-through method.

処理装置11は、CPU、RAM,ROM及びHDD等の記憶装置、I/Oインターフェース等を備えたコンピュータにより構成され、ヘッドマウントディスプレイ10と有線又は無線により通信可能に接続されている。処理装置11は、ウェアラブルコンピュータとして人間の体に付帯することもできるし、人間から離れた場所に設置することもできる。
ビデオカメラ12及びディスプレイ13は、ヘッドマウントディスプレイ10として構成するに限らず、それぞれ個別に人体には装着しない形態で構成することも可能である。この場合、ディスプレイ13は、ノートパソコンのように処理装置11を構成するコンピュータの一部として構成することもできる。
The processing device 11 is configured by a computer including a storage device such as a CPU, RAM, ROM, and HDD, an I / O interface, and the like, and is connected to the head mounted display 10 so as to be communicable by wire or wirelessly. The processing device 11 can be attached to the human body as a wearable computer, or can be installed at a location away from the human.
The video camera 12 and the display 13 are not limited to being configured as the head mounted display 10, but may be configured in a form that is not individually worn on the human body. In this case, the display 13 can also be configured as a part of a computer constituting the processing device 11 such as a notebook computer.

〔マーカユニットの構成〕
マーカユニットMUは、物体R1,R2を認識するための1つの識別情報(ID)を構成する単位であり、複数のマーカエレメントMEの組合せによって構成されている。したがって、複数のマーカエレメントMEの一部の形状や配置が異なれば、マーカユニットMUは異なる識別情報を構成することになる。
マーカエレメントMEは、物体R1,R2の表面に貼り付けられる紙、プラスチック板、木板等により形成され、物体R1,R2に貼り付けたときの凹凸が小さく、物体R1,R2に対して違和感や異物感を感じさせない程度の薄い材料により形成されている。
[Configuration of marker unit]
The marker unit MU is a unit that forms one piece of identification information (ID) for recognizing the objects R1 and R2, and is configured by a combination of a plurality of marker elements ME. Therefore, if the shape and arrangement of some of the marker elements ME are different, the marker unit MU constitutes different identification information.
The marker element ME is formed of paper, plastic board, wood board, or the like that is attached to the surfaces of the objects R1 and R2. The marker element ME has small irregularities when attached to the objects R1 and R2, and the object R1 and R2 have a feeling of strangeness or foreign matter It is made of a thin material that does not give a feeling.

また、マーカエレメントMEは単色無地であり、貼り付けられる物体R1,R2の色(背景色)に近似した着色がなされている。近似した色とは、例えば、色系統(色相、色彩)が同じで濃度(明度)がやや異なる色や、濃度が同じで色系統がやや異なる色、又は、色系統及び濃度がやや異なる色等をいう。いずれにおいても、マーカエレメントMEの色と物体R1,R2の色とは大きく相違するものではなく、マーカエレメントMEの色は、後述する検出処理が可能な範囲で物体R1,R2の色に違和感なく調和し、美観を損ねない色に設定されている。   Further, the marker element ME is a single solid color, and is colored similar to the color (background color) of the objects R1 and R2 to be pasted. The approximate color is, for example, a color having the same color system (hue, color) and a slightly different density (lightness), a color having the same density and a slightly different color system, or a color having a slightly different color system and density, etc. Say. In any case, the color of the marker element ME and the colors of the objects R1 and R2 are not greatly different. It is set in a color that is in harmony and does not impair the beauty.

また、マーカエレメントMEは、配置される物体R1,R2の形状に応じて、L字形、I字形、T字形、二等辺三角形等に形成されている。図1に示す例では、棚R1には6個のマーカエレメントMEが配置されており、棚R1の上部両側にはL字形、上下中間部の両側にはT字形、下部両側にはI字形のマーカエレメントMEがそれぞれ配置されている。また、扉R2には上下2つのマーカユニットMUが配置され、上側のマーカユニットMUの上部両側には二等辺三角形、下部両側にはI字形のマーカエレメントMEがそれぞれ配置されている。扉R2の下側のマーカユニットMUの上部両側にはI字形、下部両側にはL字形のマーカエレメントMEがそれぞれ配置されている。   The marker element ME is formed in an L shape, an I shape, a T shape, an isosceles triangle, or the like according to the shapes of the objects R1 and R2 to be arranged. In the example shown in FIG. 1, six marker elements ME are arranged on the shelf R1, and are L-shaped on both sides of the upper portion of the shelf R1, T-shaped on both sides of the upper and lower middle portions, and I-shaped on both sides of the lower portion. Each marker element ME is arranged. In addition, two upper and lower marker units MU are arranged on the door R2, and isosceles triangles are arranged on both upper sides of the upper marker unit MU, and I-shaped marker elements ME are arranged on both lower sides. An I-shaped marker element ME is arranged on both upper sides of the marker unit MU below the door R2, and an L-shaped marker element ME is arranged on both lower sides.

各マーカエレメントMEは、物体R1,R2の角や辺の形状に沿うように外形が選択されている。すなわち、マーカエレメントMEは、少なくとも一部分の外形が物体R1,R2の外形に沿うように形成され、物体R1,R2に表面に配置しても視覚的に違和感を覚えさせないような単純な形状となっている。   The outer shape of each marker element ME is selected so as to follow the shapes of the corners and sides of the objects R1 and R2. That is, the marker element ME is formed so that at least a part of the outer shape thereof conforms to the outer shapes of the objects R1 and R2, and has a simple shape that does not make the object R1 and R2 visually feel uncomfortable even when arranged on the surface. ing.

1つのマーカユニットMUを構成する各マーカエレメントMEは、物体R1,R2の回転系を識別できるように外形の組合せが設定されている。例えば、図2に示すように、物体Rのある平面PLの4隅にマーカエレメントME1〜ME4を配置することによって、2点鎖線で示すような長方形状のマーカユニットMUを形成する場合、当該平面PLを中心O回りに回転させたときに、同じ形状のマーカエレメントME1〜ME4が同じ配置にならないようにマーカエレメントME1〜ME4の外形及び配置が設定される。すなわち、1つのマーカユニットMUにおいて、全てのマーカエレメントME1〜ME4を同じ形状で形成したり、各マーカエレメントME1〜ME4を点対称で配置することはできず、全てのマーカエレメントME1〜ME4を異なる形状としたり、同じ形状を含む場合であってもそれらを線対称で配置する必要がある。
なお、図1には物体Rに配置することが可能なマーカエレメントMEの集合をマーカセットMSとして示している。
Each marker element ME constituting one marker unit MU has a combination of external shapes so that the rotation systems of the objects R1 and R2 can be identified. For example, as shown in FIG. 2, when marker elements ME1 to ME4 are arranged at the four corners of a plane PL on which an object R is formed to form a rectangular marker unit MU as indicated by a two-dot chain line, the plane The outer shape and arrangement of the marker elements ME1 to ME4 are set so that the marker elements ME1 to ME4 having the same shape do not have the same arrangement when the PL is rotated around the center O. That is, in one marker unit MU, all the marker elements ME1 to ME4 cannot be formed in the same shape, or the marker elements ME1 to ME4 cannot be arranged point-symmetrically, and all the marker elements ME1 to ME4 are different. Even if it is a shape or includes the same shape, it is necessary to arrange them symmetrically.
In FIG. 1, a set of marker elements ME that can be arranged on the object R is shown as a marker set MS.

〔処理装置11の機能構成〕
図1に示すように、複合現実感システム1は、物体R1,R2に配置されたマーカエレメントME及びマーカユニットMUを検出することによって物体R1,R2の存在を認識し、マーカユニットMUの位置や配置からカメラ12の位置や姿勢(人間の視点の位置や向き)を検出する。そして、検出されたカメラ12の位置姿勢に応じて視野内の物体にディスプレイを介してCG画像等の仮想情報を重畳して表示する。
[Functional Configuration of Processing Device 11]
As shown in FIG. 1, the mixed reality system 1 recognizes the presence of the objects R1 and R2 by detecting the marker elements ME and the marker units MU arranged on the objects R1 and R2, and determines the position of the marker unit MU. The position and orientation of the camera 12 (the position and orientation of the human viewpoint) are detected from the arrangement. Then, in accordance with the detected position and orientation of the camera 12, virtual information such as a CG image is superimposed and displayed on an object in the field of view via a display.

図3は、このような複合現実感システム1の処理装置11の機能構成を示す図であり、処理装置11は、その機能部として、ヘッドマウントディスプレイ10のカメラ12及びディスプレイ13との間で情報の入出力を行う通信手段27、マーカエレメントME及び物体R1,R2の色に関する情報やマーカエレメントMEの外形や配置に関する情報を記憶する記憶手段21、カメラ12で撮影された画像を入力する画像入力手段22、入力された画像からマーカエレメントMEを検出するマーカエレメント検出手段23、検出されたマーカエレメントMEからマーカユニットMUを検出するマーカユニット検出手段24、検出されたマーカユニットMUからカメラ12の位置及び姿勢を求めるカメラ位置姿勢検出手段25、及び、検出されたカメラ12の位置姿勢に応じて、仮想情報をディスプレイ13に出力表示させる仮想情報出力手段26を備えている。   FIG. 3 is a diagram illustrating a functional configuration of the processing device 11 of the mixed reality system 1, and the processing device 11 has information between the camera 12 and the display 13 of the head mounted display 10 as a functional unit. Communication means 27 for inputting / outputting, information on the color of the marker element ME and the objects R1, R2, storage means 21 for storing information on the outer shape and arrangement of the marker element ME, and image input for inputting an image taken by the camera Means 22, marker element detection means 23 for detecting the marker element ME from the input image, marker unit detection means 24 for detecting the marker unit MU from the detected marker element ME, and position of the camera 12 from the detected marker unit MU And camera position / orientation detection means 25 for obtaining the position and the detected position Depending on the position and orientation of the camera 12, and a virtual information output means 26 for outputting display the virtual information on the display 13.

通信手段27は、カメラ12及びディスプレイ13に物理的に接続されたI/Oインターフェースの機能として構成され、記憶手段21は、ハードディスク等の記憶装置の機能として構成される。また、各検出手段23,24,25は、ハードディスク等の記憶装置にインストールされたアプリケーションプログラムによって機能する。
以上の複合現実感システム1の機能の詳細については、次の処理手順とともに説明する。
The communication unit 27 is configured as a function of an I / O interface physically connected to the camera 12 and the display 13, and the storage unit 21 is configured as a function of a storage device such as a hard disk. Each detection means 23, 24, 25 functions by an application program installed in a storage device such as a hard disk.
Details of the functions of the mixed reality system 1 will be described together with the following processing procedure.

〔複合現実感システムの処理手順〕
図4は、複合現実感システムの処理手順を示すフローチャートである。以下これらの処理を、図2に示すモデルを例に説明する。
なお、複合現実感システム1による処理を行うに当たって、処理装置11には、記憶手段21(図3)の機能により、マーカユニットMUを構成するマーカエレメントME(ME1〜ME4)と、このマーカエレメントMEが配置される物体Rとの色情報が予め登録されている。本実施形態では、マーカエレメントMEと物体Rとは同じ色系統(色相及び色彩)であるが、濃度(明度)がやや異なるものとされている。記憶手段21には、このようなマーカエレメントME及び物体Rの色系統の情報と、濃度差の情報とが登録されている。
また、処理装置11の記憶手段21には、識別情報(ID)を構成するマーカユニットMUの各マーカエレメントMEの外形及び配置の組合せ情報が登録されている。図2に示すモデルでは、長方形を形成するように配置された4つのマーカエレメントME1〜ME4の各外形と相互の配置関係との組合せ情報が記憶手段21に登録される。
[Processing procedure of mixed reality system]
FIG. 4 is a flowchart showing a processing procedure of the mixed reality system. Hereinafter, these processes will be described using the model shown in FIG. 2 as an example.
In the processing by the mixed reality system 1, the processing device 11 includes a marker element ME (ME1 to ME4) constituting the marker unit MU and the marker element ME by the function of the storage unit 21 (FIG. 3). The color information with the object R on which is placed is registered in advance. In the present embodiment, the marker element ME and the object R have the same color system (hue and color) but have slightly different densities (lightness). In the storage unit 21, information on the color systems of the marker element ME and the object R and information on the density difference are registered.
In addition, in the storage unit 21 of the processing device 11, combination information of the outer shape and arrangement of each marker element ME of the marker unit MU constituting the identification information (ID) is registered. In the model shown in FIG. 2, combination information of each outer shape of the four marker elements ME <b> 1 to ME <b> 4 arranged so as to form a rectangle and the mutual arrangement relationship is registered in the storage unit 21.

(1)マーカエレメントの検出処理
図3に示すように、カメラ12によって所定のフレームレートで撮影が行われると、処理装置11は、その撮影された画像を画像入力手段22によってその都度入力する。図4のステップS1はマーカエレメント検出手段23の処理であり、処理装置11は、まず、最初に入力されたフレームの画像全体に対してラスタ走査を行う。そして、記憶手段21に記憶されているマーカエレメントME1〜ME4及び物体Rの色情報と同系色の色で構成されたピクセルを画像から探索する。
(1) Marker Element Detection Processing As shown in FIG. 3, when shooting is performed at a predetermined frame rate by the camera 12, the processing device 11 inputs the captured image by the image input means 22 each time. Step S1 in FIG. 4 is a process of the marker element detection unit 23, and the processing device 11 first performs raster scanning on the entire image of the first input frame. And the pixel comprised by the color similar to the color information of the marker elements ME1-ME4 and the object R memorize | stored in the memory | storage means 21 is searched from an image.

図5は、画像のピクセル探索を説明する概略図である。枠Aで囲んで示すように、画像G内で該当するピクセルpが互いに隣接して存在しているとき、その濃度差が所定の閾値を超えているか否かを判別する。閾値を超えている場合には、マーカエレメントME1〜ME4と物体Rとの境界で隣接するピクセルpであると判断し、一方のピクセルを開始点として、同様の探索を繰り返し行い、矢印で示すようにマーカエレメントMEの輪郭線追跡処理を行う。   FIG. 5 is a schematic diagram illustrating pixel search of an image. As indicated by the frame A, when the corresponding pixels p exist in the image G adjacent to each other, it is determined whether or not the density difference exceeds a predetermined threshold value. When the threshold value is exceeded, it is determined that the pixel p is adjacent at the boundary between the marker elements ME1 to ME4 and the object R, and the same search is repeated using one pixel as a starting point, as indicated by an arrow. The contour line tracking process of the marker element ME is performed.

なお、隣接するピクセルpのうちどちらを輪郭線追跡の開始点とするかは、予め登録されたマーカエレメントMEと物体Rとの濃度の高低から、マーカエレメントMEに相当する方のピクセルを開始点に選択する。
輪郭線追跡中に、画像の境界や他の輪郭線に接した場合、又は、現在追跡中の輪郭線に接した場合は、輪郭線追跡を終了する。輪郭線追跡を行った結果、開始点に戻ってきたい輪郭のみをマーカエレメントMEの候補とする。
Note that which of the adjacent pixels p is to be used as the starting point for contour tracking is that the pixel corresponding to the marker element ME is the starting point based on the density of the marker element ME and the object R registered in advance. Select
During contact with the contour line, if the image border or other contour line is touched, or if it touches the contour line currently being tracked, the contour tracking is terminated. As a result of the contour tracking, only the contour that wants to return to the starting point is set as a candidate for the marker element ME.

処理装置11は、以上のように輪郭線追跡処理をすることによって画像に含まれるマーカエレメントMEの候補を決定すると、次にマーカエレメントMEの形状の識別を行う。
マーカエレメントMEの外形は、輪郭線の頂点の数と、各頂点における輪郭線の形(凹凸)から分類することができる。例えば、L字形のマーカエレメントは頂点が6個あり、そのうち凸状の頂点が5個、凹状の頂点が1個ある。I字形のマーカエレメントは凸状の頂点が4個、2等辺三角形のマーカエレメントは凸状の頂点が3個ある。したがって、この頂点の数と頂点における輪郭形状とを判断することでマーカエレメントの形状を識別することができる。
When the processing device 11 determines the candidate of the marker element ME included in the image by performing the contour tracking process as described above, the processing device 11 next identifies the shape of the marker element ME.
The outer shape of the marker element ME can be classified from the number of vertices of the contour line and the shape (unevenness) of the contour line at each vertex. For example, an L-shaped marker element has six vertices, of which five have convex vertices and one have concave vertices. The I-shaped marker element has four convex vertices, and the isosceles triangular marker element has three convex vertices. Therefore, the shape of the marker element can be identified by determining the number of vertices and the contour shape at the vertices.

輪郭線追跡処理によって取得した輪郭線の頂点は、区分的直線近似法を用いて求める。本来、この手法は、曲線を直線で近似する方法であるが、本実施形態のように、直線の組合せによって閉じた輪郭線を形成するマーカエレメントMEに対しては、その頂点を求めるために用いることができる。
具体的には、例えば図6(A)に示すように、輪郭線追跡によって得られた輪郭線L上の任意の点P0を決定し、その点P0から最も遠い点を第1頂点P1、第1頂点P1から最も遠い点を第2頂点P2にそれぞれ設定する。そして、図6(B)に示すように、第1頂点P1(P11,P12)と第2頂点P2(P21,P22)を端点とする2つの輪郭線L1,L2を想定し、各輪郭線L1,L2に対してそれぞれ区分的直線的近似法を適用する。これにより、図6(C)に示すように、各輪郭線L1,L2が直線化されるとともに、頂点P3〜P6が求められる。
以上の処理をフレーム画像全体に対して行い、画像中の全てのマーカエレメントMEを検出する。
The vertex of the contour line acquired by the contour line tracking process is obtained using a piecewise linear approximation method. Originally, this method is a method of approximating a curve with a straight line. However, as in the present embodiment, for a marker element ME that forms a closed contour line by a combination of straight lines, it is used to obtain the vertex. be able to.
Specifically, for example, as shown in FIG. 6A, an arbitrary point P0 on the contour line L obtained by contour tracking is determined, and the farthest point from the point P0 is defined as the first vertex P1 and the first point P1. The point farthest from one vertex P1 is set as the second vertex P2, respectively. Then, as shown in FIG. 6B, assuming two contour lines L1 and L2 having the first vertex P1 (P11, P12) and the second vertex P2 (P21, P22) as end points, each contour line L1 , L2 respectively apply piecewise linear approximation. As a result, as shown in FIG. 6C, the contour lines L1 and L2 are straightened and the vertices P3 to P6 are obtained.
The above processing is performed on the entire frame image, and all marker elements ME in the image are detected.

なお、本実施形態では、マーカエレメントMEの検出に用いる色情報として、一般にコンピュータで用いられるRGB色空間ではなく、マンセル表色系等の顕色系で使われるHSI(色相、彩度、明度)色空間を利用している。そのため、物体Rの撮影画像のRGB値は、双六角錐モデルや六角錐モデルを用いてHSI値に変換している。   In the present embodiment, the color information used for detecting the marker element ME is not an RGB color space generally used in a computer, but an HSI (hue, saturation, brightness) used in a developing system such as Munsell color system. A color space is used. Therefore, the RGB values of the captured image of the object R are converted into HSI values using a bihexagonal pyramid model or a hexagonal pyramid model.

(2)マーカユニットの検出処理
図4のステップS2において、処理装置11は、マーカユニット検出手段24の機能によりマーカユニットMUの検出処理を行う。処理装置11は、撮影画像から検出された全てのマーカエレメントMEのなかからマーカユニットMUを構成し得る複数のマーカエレメントMEを選択する。例えば、図2に示すモデルでは、マーカユニットMUが、2点鎖線の長方形を形成するように配置されたマーカエレメントME1〜ME4によって構成されているので、選択されたマーカエレメントMEが、このような長方形の配置則に則って同一平面上に配置されているかを判定する。そして、選択されたマーカエレメントMEが、当該長方形を形成するように配置されていた場合は、そのマーカエレメントMEの外形及び配置の組合せと、記憶手段21に予め記憶されたマーカエレメントMEの外形及び配置の組合せ情報との対応づけを行う。
(2) Marker Unit Detection Processing In step S <b> 2 of FIG. 4, the processing device 11 performs marker unit MU detection processing using the function of the marker unit detection means 24. The processing device 11 selects a plurality of marker elements ME that can constitute the marker unit MU from all the marker elements ME detected from the captured image. For example, in the model shown in FIG. 2, since the marker unit MU is configured by the marker elements ME1 to ME4 arranged so as to form a two-dot chain rectangle, the selected marker element ME is It is determined whether they are arranged on the same plane according to the rectangular arrangement rule. When the selected marker element ME is arranged so as to form the rectangle, the combination of the outer shape and arrangement of the marker element ME and the outer shape of the marker element ME stored in the storage means 21 in advance Corresponding with the combination information of arrangement.

選択されたマーカエレメントMEが長方形を形成するように配置されているか否かの判定は、次のように行う。図7(a)に示すように、まず、選択された4つのマーカエレメントME1〜ME4が長方形を形成していると仮定して、その頂点を求める。そして、各マーカエレメントMEの重心Ec〜Ecを求め、これらの中心を長方形の擬似重心Cとする。
各マーカエレメントME1〜ME4において、図7(b)に示すように、擬似重心Cから最も距離のある頂点を求め、それぞれをマーカユニットMUの頂点ν〜νと仮定する。この際、L字型のマーカエレメントME1,ME2に関しては、長方形の頂点となりうる点が一意に決定するため、その頂点をマーカユニットMUの頂点ν,νとする。
The determination as to whether or not the selected marker element ME is arranged to form a rectangle is performed as follows. As shown in FIG. 7A, first, assuming that the selected four marker elements ME1 to ME4 form a rectangle, the vertexes are obtained. Then, the center of gravity Ec 1 to Ec 4 of each marker element ME is obtained, and the center is set as a rectangular pseudo center of gravity C.
In each of the marker elements ME1 to ME4, as shown in FIG. 7 (b), the vertex having the longest distance from the pseudo center of gravity C is obtained, and each is assumed to be the vertex ν 1 to ν 4 of the marker unit MU. At this time, with respect to the L-shaped marker elements ME1 and ME2, since the points that can be rectangular vertices are uniquely determined, the vertices are set as vertices ν 1 and ν 2 of the marker unit MU.

そして、4角形ν〜νに各マーカエレメントME1〜ME4の2辺が内接するとき、これらの4つのマーカエレメントME1〜ME4の組合せがマーカユニットMUを形成するための配置則を満たしていると判断する。
具体的に、各マーカエレメントME1〜ME4が4角形ν〜νに内接しているかを調べるには、図7(c)に示すように、マーカユニットMUの頂点と仮定された点、例えば頂点νから,マーカユニットMU内で隣接する頂点νへの方向ベクトルをV12とし、マーカエレメントME1内で隣接する頂点ν12への方向ベクトルをU12とする。また、頂点νから,マーカユニットMU内で隣接する他の頂点νへの方向ベクトルをV14とし、マーカエレメントME1内で隣接する他の頂点ν14への方向ベクトルをU14とする。そして、V12とU12、及び、V14とU14の方向成分がほぼ一致している場合、マーカエレメントME1の2辺が4角形ν〜νに内接しているものとする。
When the two sides of each of the marker elements ME1 to ME4 are inscribed in the squares ν 1 to ν 4 , the combination of these four marker elements ME1 to ME4 satisfies the arrangement rule for forming the marker unit MU. Judge.
Specifically, To determine each marker element ME1~ME4 is inscribed in square ν 14, as shown in FIG. 7 (c), the point which is assumed to vertices of the marker unit MU, e.g. A direction vector from the vertex ν 1 to the adjacent vertex ν 2 in the marker unit MU is V 12, and a direction vector from the vertex ν 12 to the adjacent vertex ν 12 in the marker element ME 1 is U 12 . A direction vector from the vertex ν 1 to another vertex ν 4 adjacent in the marker unit MU is V 14, and a direction vector from the vertex ν 14 adjacent in the marker element ME 1 is U 14 . When the direction components of V 12 and U 12 , and V 14 and U 14 are substantially the same, it is assumed that the two sides of the marker element ME1 are inscribed in the squares ν 1 to ν 4 .

選択された4つのマーカエレメントME1〜ME4が長方形を形成するように配置されている場合、それぞれのマーカエレメントME1〜ME4の外形や配置の関係が、記憶手段21に予め登録されているマーカユニットMUのマーカエレメントME1〜ME4と一致するかを判定し、一致した場合にマーカユニットMUが検出される。
このように撮影画像からマーカユニットMUを検出すると、そのマーカユニットMUの4頂点ν〜νの3次元位置をとることができる。
When the four selected marker elements ME1 to ME4 are arranged so as to form a rectangle, the marker unit MU registered in advance in the storage means 21 has the external shape and arrangement relationship of the marker elements ME1 to ME4. It is determined whether or not the marker elements ME1 to ME4 match, and the marker unit MU is detected when they match.
When the marker unit MU is detected from the captured image in this way, the three-dimensional positions of the four vertices ν 1 to ν 4 of the marker unit MU can be taken.

処理装置11は、図4のステップS3において、マーカユニットMUの検出が成功したか否かを判別し、成功した場合はステップS4に進み、失敗した場合はステップS1に処理を戻す。   The processing device 11 determines in step S3 of FIG. 4 whether or not the marker unit MU has been successfully detected. If successful, the processing device 11 proceeds to step S4, and if unsuccessful, the processing returns to step S1.

(3)カメラの位置姿勢検出
処理装置11は、図4のステップS4において、カメラ位置姿勢検出手段25の機能によってカメラ12の位置姿勢検出を行う。
カメラ12の位置姿勢検出を行うため、本実施形態の複合現実感システム1で取り扱う座標系は、図8に示すように、世界座標系(X,Y,Z)、マーカ座標系(X,Y,Z)、カメラ座標系(X,Y,Z)、及び、スクリーン座標系(x、y)の4つである。
(3) Camera Position / Orientation Detection The processing device 11 detects the position / orientation of the camera 12 by the function of the camera position / orientation detection means 25 in step S4 of FIG.
In order to detect the position and orientation of the camera 12, the coordinate system handled by the mixed reality system 1 according to the present embodiment includes a world coordinate system ( Xw , Yw , Zw ), a marker coordinate system ( X m , Y m , Z m ), camera coordinate system (X c , Y c , Z c ), and screen coordinate system (x c , y c ).

世界座標系は、複合現実空間において基準となる座標系である。この世界座標系を決定することで、現実空間と仮想空間との整合性を図る。現実空間における世界座標系の位置姿勢及び世界座標系における仮想物体の位置は予め設定しておく。
マーカ座標系は、マーカユニットMU毎に存在する座標系であり、マーカユニットMUの法線方向をZ軸とする3次元座標である。世界座標系におけるマーカ座標系の位置関係は予め設定しておく。
The world coordinate system is a reference coordinate system in the mixed reality space. By determining the world coordinate system, consistency between the real space and the virtual space is achieved. The position and orientation of the world coordinate system in the real space and the position of the virtual object in the world coordinate system are set in advance.
The marker coordinate system is a coordinate system that exists for each marker unit MU, and is a three-dimensional coordinate having the normal direction of the marker unit MU as the Z axis. The positional relationship of the marker coordinate system in the world coordinate system is set in advance.

カメラ座標系は、カメラ12の焦点位置fを原点として画像平面に垂直な方向をZ軸とする3次元の座標系である。カメラ12の位置姿勢を求めるには、世界座標系とカメラ座標系との変換行列を求めることが必要である。
スクリーン座標系は、撮影画像中での位置関係を表す2次元の座標系である。
世界座標系とマーカ座標系との変換行列は予め処理装置11に登録される。また、カメラ座標系とスクリーン座標系との変換行列であるカメラの内部パラメータは、事前に求めておく。
The camera coordinate system is a three-dimensional coordinate system in which the focus position f of the camera 12 is the origin and the direction perpendicular to the image plane is the Z axis. In order to obtain the position and orientation of the camera 12, it is necessary to obtain a transformation matrix between the world coordinate system and the camera coordinate system.
The screen coordinate system is a two-dimensional coordinate system that represents a positional relationship in a captured image.
A transformation matrix between the world coordinate system and the marker coordinate system is registered in the processing device 11 in advance. In addition, camera internal parameters, which are transformation matrices between the camera coordinate system and the screen coordinate system, are obtained in advance.

上述したマーカユニット検出処理(ステップS2)によって、マーカ座標系とスクリーン座標系とにおけるマーカユニットMUを構成する4頂点の座標は既に求められている。そのため、これらの対応関係によって、マーカ座標系とカメラ座標系との変換行列を求めることができる。スクリーン座標系におけるマーカユニットMUの4頂点の座標から、向かい合う2辺の直線が2組得られるので、この2組の平行な直線によりカメラの姿勢推定を行う。カメラの姿勢が求まると、マーカ座標系とスクリーン座標系におけるマーカユニットMUの4頂点の対応関係によりカメラの位置が求まる。その後、マーカ座標系とカメラ座標系との変換行列の回転成分を適宜修正したのち、マーカ座標系とカメラ座標系との変換行列と、予め登録されている世界座標系とマーカ座標系との変換行列とを用い、世界座標系におけるカメラ12の位置姿勢を求める。   The coordinates of the four vertices constituting the marker unit MU in the marker coordinate system and the screen coordinate system have already been obtained by the marker unit detection process (step S2) described above. Therefore, a conversion matrix between the marker coordinate system and the camera coordinate system can be obtained from these correspondences. Since two sets of two straight lines facing each other are obtained from the coordinates of the four vertices of the marker unit MU in the screen coordinate system, the posture of the camera is estimated using these two sets of parallel straight lines. When the posture of the camera is obtained, the position of the camera is obtained from the correspondence between the four vertices of the marker unit MU in the marker coordinate system and the screen coordinate system. Then, after appropriately correcting the rotation component of the transformation matrix between the marker coordinate system and the camera coordinate system, the transformation matrix between the marker coordinate system and the camera coordinate system, and the conversion between the pre-registered world coordinate system and the marker coordinate system Using the matrix, the position and orientation of the camera 12 in the world coordinate system is obtained.

図4のステップS5において、処理装置11は、カメラ12の位置姿勢の検出に成功したかどうかを判別し、成功した場合は処理をステップS6に進め、失敗した場合は処理をステップS1に戻す。   In step S5 of FIG. 4, the processing device 11 determines whether or not the position and orientation of the camera 12 has been successfully detected. If successful, the processing proceeds to step S6, and if unsuccessful, the processing returns to step S1.

(4)次フレームにおけるマーカエレメントの検出処理
図4のステップS6では、カメラ12によって撮影した次のフレームの画像について上述と略同様の処理を行う。この際、上記ステップS1の処理では、フレームの画像全体に対してラスタ走査を行うことによってマーカエレメントMEの検出を行っていたが、ステップS6では、走査範囲を限定してマーカエレメントMEの検出を行う。
ステップS6の処理は、その前のフレームでカメラ12の位置姿勢検出が成功しているので、マーカエレメントME及びマーカユニットMUについても正確に検出されていると考えられる。そのため、既に検出されたマーカエレメントMEの位置情報をもとに走査範囲を限定することによって、処理速度の向上を図りつつ正確なマーカエレメントMEの検出を可能にしている。
したがって、本実施形態のマーカエレメント検出手段23は、撮影画像全体を走査してマーカエレメントMEの検出を行う第1の検出機能と、既に検出されたマーカエレメントMEの位置情報を元に走査範囲を限定してマーカエレメントMEの検出を行う第2の検出機能とを備えていることになる。
(4) Marker element detection process in the next frame In step S6 in FIG. 4, a process similar to the above is performed on the image of the next frame captured by the camera 12. At this time, in the process of step S1, the marker element ME is detected by performing raster scanning on the entire frame image. However, in step S6, the marker element ME is detected by limiting the scanning range. Do.
In the process of step S6, since the position and orientation detection of the camera 12 has succeeded in the previous frame, it is considered that the marker element ME and the marker unit MU are also accurately detected. Therefore, by limiting the scanning range based on the already detected position information of the marker element ME, it is possible to accurately detect the marker element ME while improving the processing speed.
Therefore, the marker element detection means 23 of this embodiment scans the entire captured image and detects the marker element ME, and the scanning range based on the position information of the marker element ME that has already been detected. A second detection function for detecting the marker element ME in a limited manner is provided.

ステップS6では、前のフレームで検出されたマーカエレメントMEに対しては、その外接長方形の領域のみに限定して走査する。この場合、マーカエレメントMEの形状や傾きから、前フレームで検出されたものと同じか否かを判定し、同じ位置のマーカエレメントが検出された場合には、以降の走査は行わない。   In step S6, the marker element ME detected in the previous frame is scanned only in the circumscribed rectangular region. In this case, it is determined from the shape and inclination of the marker element ME whether or not it is the same as that detected in the previous frame, and when the marker element at the same position is detected, the subsequent scanning is not performed.

また、物体Rに複数のマーカユニットMUを設置している場合、ステップS6では、前フレームで検出されなかったマーカユニットMUのマーカエレメント(前フレームで他の物体等によって隠れていたマーカエレメント)が新たに画像内に写り込むことがある。
例えば、図9に示すように、棚Rの2つの側面にそれぞれマーカユニットMU1,MU2を設定しているときに、前のフレームの画像には、一方のマーカユニットMU1の全てのマーカエレメントMEと、他方のマーカユニットMU2の一部のマーカエレメントMEが写っていた(円Bで囲まれたマーカエレメントMEのみが写っていた)ような場合、ステップS6では、既にあるカメラの位置姿勢の情報と、記憶手段21に記憶されているマーカユニットMU1,MU2の組合せ情報とによって透視投影変換を行い、前のフレームで写っていなかったマーカエレメントME(円Cで囲まれたマーカエレメントME)の位置を予測してその周辺領域を走査する。
これにより、フレームの画像全体を走査しなくとも、限定された範囲で確実にマーカエレメントMEの検出を行うことができる。
When a plurality of marker units MU are installed on the object R, in step S6, marker elements of the marker unit MU that have not been detected in the previous frame (marker elements hidden by other objects in the previous frame) are displayed. A new image may appear in the image.
For example, as shown in FIG. 9, when the marker units MU1 and MU2 are set on the two side surfaces of the shelf R, the image of the previous frame includes all the marker elements ME of one marker unit MU1. When a part of the marker element ME of the other marker unit MU2 is captured (only the marker element ME surrounded by the circle B is captured), in step S6, information on the position and orientation of the existing camera is displayed. The perspective projection conversion is performed based on the combination information of the marker units MU1 and MU2 stored in the storage unit 21, and the position of the marker element ME (marker element ME surrounded by the circle C) that has not been captured in the previous frame is determined. Predict and scan the surrounding area.
Accordingly, the marker element ME can be reliably detected within a limited range without scanning the entire frame image.

(5)仮想情報の出力
以上の手順を経てカメラの位置姿勢が検出されると、処理装置11は、仮想情報出力手段26(図3)の機能により物体Rに位置合わせした状態でCG画像や文字等の仮想情報をディスプレイ13に重畳表示する。
(5) Output of virtual information When the position and orientation of the camera are detected through the above-described procedure, the processing device 11 performs the CG image or the like in a state of being aligned with the object R by the function of the virtual information output means 26 (FIG. 3). Virtual information such as characters is superimposed on the display 13.

以上詳述したように、本実施形態の複合現実感システム1では、マーカユニットMUが、現実環境にある物体Rの色と近似した色とされているので、物体Rに配置しても目立たず、美観を損ねることもほとんど無い。また、マーカユニットMUを構成するマーカエレメントMEは、物体Rの外形(角や辺)に沿った形状(L字型、I字型、三角形等)に形成されているので、物体に配置しても目立たず、それを見た人に違和感を覚えさせることも少なくなる。さらに、マーカユニットMUは、複数のマーカエレメントMEの外形と相互の配置関係との組合せにより識別情報を構成することによって、マーカユニットの識別性は十分に確保することが可能である。   As described above in detail, in the mixed reality system 1 according to the present embodiment, the marker unit MU has a color that approximates the color of the object R in the real environment. There is almost no loss of aesthetics. The marker element ME constituting the marker unit MU is formed in a shape (L-shaped, I-shaped, triangular, etc.) along the outer shape (corner or side) of the object R. Is less conspicuous, and the person who sees it is less likely to feel uncomfortable. Furthermore, the marker unit MU can sufficiently ensure the identification of the marker unit by configuring the identification information by combining the outer shape of the plurality of marker elements ME and the mutual arrangement relationship.

上述のように本実施形態では、現実環境の美観を損ねないように、マーカユニットMUを構成するマーカエレメントMEの色を物体の色と近似した色に設定し、尚かつ、各マーカエレメントMEを物体の形状に適合する形状に形成している。そのため、本実施形態のマーカエレメントMEは、その色や形状が現実環境に応じて左右され、どのような色や形状にすれば必要な美観や識別性を得られるかの判断が困難となる。
そこで、本願の発明者は、現実環境中の物体に応じて、最適なマーカユニットを作成するためのマーカユニット作成支援システムを構築した。以下、このシステムについて詳細に説明する。
As described above, in the present embodiment, the color of the marker element ME constituting the marker unit MU is set to a color approximate to the color of the object so as not to impair the beauty of the real environment, and each marker element ME is It is formed in a shape that matches the shape of the object. Therefore, the color and shape of the marker element ME of the present embodiment depends on the actual environment, and it is difficult to determine what color and shape the necessary aesthetics and distinguishability can be obtained.
Therefore, the inventor of the present application has constructed a marker unit creation support system for creating an optimum marker unit according to an object in the real environment. Hereinafter, this system will be described in detail.

〔マーカユニット作成支援システムの構成〕
図10は、マーカユニット作成支援システムの概略構成を示す図である。マーカユニット作成支援システム30は、処理装置38と、カメラ(撮影装置)39と、プリンタ(出力装置)40とを備えている。処理装置38は、CPU、RAM,ROM及びHDD等からなる記憶装置、及び、I/Oインターフェース等を備えたコンピュータからなる。また、処理装置38はディスプレイ38aを一体に備えたノートパソコンとして例示されている。カメラ39は、デジタルカメラやデジタルビデオカメラが用いられ、少なくとも静止画を撮影できるものとされている。プリンタ40は、インクジェットプリンタやレーザプリンタ等のカラープリンタが用いられている。カメラ39及びプリンタ40は、処理装置38にI/Oインターフェースに有線又は無線で通信可能に接続されている。
[Configuration of marker unit creation support system]
FIG. 10 is a diagram showing a schematic configuration of the marker unit creation support system. The marker unit creation support system 30 includes a processing device 38, a camera (imaging device) 39, and a printer (output device) 40. The processing device 38 includes a storage device including a CPU, RAM, ROM, HDD, and the like, and a computer including an I / O interface. Further, the processing device 38 is exemplified as a notebook personal computer integrally provided with a display 38a. As the camera 39, a digital camera or a digital video camera is used, and at least a still image can be taken. As the printer 40, a color printer such as an ink jet printer or a laser printer is used. The camera 39 and the printer 40 are connected to the processing device 38 via an I / O interface so that they can communicate with each other in a wired or wireless manner.

図11は、処理装置38の機能構成を示す図である。処理装置38は、カメラ39及びプリンタ40との通信を行う通信手段41、カメラ39で撮影された画像を入力する画像入力手段42、入力された画像からマーカユニットMUを配置する物体Rの領域を抽出する対象領域抽出手段43、抽出された領域に適した複数のマーカユニットMUの候補をユーザに提示するマーカユニット提示手段44、提示されたマーカユニットMUの候補のなかからユーザの選択を受け付ける選択受付手段45、その選択に基づいてプリンタ40にマーカユニットMUの出力を指示する出力指示手段46、マーカユニットMUの決定を受け付ける決定受付手段47、及び、決定されたマーカユニットMUや物体Rについての情報を登録する情報登録手段48等をその機能として備えている。通信手段41は、カメラ39及びプリンタ40に物理的に接続されたI/Oインターフェースの機能として構成され、その他の手段は、処理装置38の記憶装置にインストールされたアプリケーションプログラム等によって機能する。
これらの機能の詳細については次の処理手順とともに説明する。
FIG. 11 is a diagram illustrating a functional configuration of the processing device 38. The processing device 38 includes a communication unit 41 that communicates with the camera 39 and the printer 40, an image input unit 42 that inputs an image photographed by the camera 39, and an area of the object R where the marker unit MU is arranged from the input image. Target area extracting means 43 to be extracted, marker unit presenting means 44 for presenting a plurality of marker unit MU candidates suitable for the extracted area to the user, selection for accepting the user's selection from the presented marker unit MU candidates A receiving unit 45, an output instruction unit 46 that instructs the printer 40 to output the marker unit MU based on the selection, a determination receiving unit 47 that receives the determination of the marker unit MU, and the determined marker unit MU and object R Information registration means 48 for registering information and the like are provided as its function. The communication unit 41 is configured as a function of an I / O interface physically connected to the camera 39 and the printer 40, and other units function by an application program or the like installed in the storage device of the processing device 38.
Details of these functions will be described together with the following processing procedure.

〔マーカユニット作成処理手順〕
図12は、マーカユニット作成支援システム30の処理装置38による処理手順を示すフローチャートである。
マーカユニット作成支援システム30では、まず、図10に示すように、マーカユニットを設置する現実環境REの画像をカメラ39によって撮影する。撮影された画像は、図12のステップS11において、画像入力手段42の機能により処理装置38に入力される。
[Marker unit creation processing procedure]
FIG. 12 is a flowchart illustrating a processing procedure performed by the processing device 38 of the marker unit creation support system 30.
In the marker unit creation support system 30, first, as shown in FIG. 10, an image of the real environment RE where the marker unit is installed is taken by the camera 39. The captured image is input to the processing device 38 by the function of the image input means 42 in step S11 of FIG.

処理装置38は、ステップS12において、対象領域抽出手段43の機能により、入力された撮影画像の中からマーカユニットを配置する物体(図10の例では扉)Rの領域を抽出する。図10のディスプレイ38aには、抽出された扉の映像が表示されている。
次に、処理装置38は、ステップS13において、マーカユニット提示手段44の機能により、抽出された物体Rの色や形状に応じてこの物体Rに適したマーカユニットの候補をディスプレイ38a上に表示(提示)する。物体Rに適したマーカユニットの候補が複数ある場合は、その複数をディスプレイ38aに表示する。
In step S <b> 12, the processing device 38 extracts the region of the object (door in the example of FIG. 10) R on which the marker unit is placed from the input captured image by the function of the target region extraction unit 43. An image of the extracted door is displayed on the display 38a of FIG.
Next, in step S13, the processing device 38 displays marker unit candidates suitable for the object R on the display 38a according to the color and shape of the extracted object R by the function of the marker unit presenting unit 44 ( Present). When there are a plurality of marker unit candidates suitable for the object R, the plurality are displayed on the display 38a.

ユーザは、提示された複数のマーカユニットの候補から、使用したいマーカユニットを選択する。処理装置38は、ステップS14において、選択受付手段45の機能によってユーザによるマーカユニットの候補の選択を受付け、さらに、出力指示手段46によって、選択されたマーカユニットの候補を印刷するようにプリンタ40に指示を送る。
プリンタ40は、実際に物体Rに貼り付けるためのマーカユニットMUを紙SEに印刷する。ユーザは、紙SEに印刷されたマーカユニットMUを切り取り、実際に物体Rに貼り付けることによって、マーカユニットMUが物体Rに調和しているか、美観を損なっていないか等を確認し、処理装置38に、そのマーカユニットMUを使用するか否か(そのマーカユニットに決定するか否か)を入力する。
The user selects a marker unit to be used from a plurality of presented marker unit candidates. In step S <b> 14, the processing device 38 accepts the selection of the marker unit candidate by the user by the function of the selection reception unit 45, and further causes the output instruction unit 46 to print the selected marker unit candidate to the printer 40. Send instructions.
The printer 40 prints on the paper SE a marker unit MU that is actually attached to the object R. The user cuts out the marker unit MU printed on the paper SE and actually pastes it on the object R, thereby confirming whether the marker unit MU is in harmony with the object R or not deteriorating the aesthetics, etc. 38, whether or not to use the marker unit MU (whether or not to determine the marker unit) is input.

ステップS15において、処理装置38は、決定受付手段47の機能によってマーカユニットMUの決定を受け付けたかどうかを判別し、決定する旨を受け付けた場合には、ステップS16に処理を進め、決定しない旨を受け付けた場合には、ステップS13に処理を戻して同様の作業を繰り返し行う。
ここで、マーカユニット提示手段44、選択受付手段45、出力指示手段46、決定受付手段47は、物体に応じたマーカユニットを決定するマーカユニット決定手段を構成している。
In step S15, the processing device 38 determines whether or not the determination of the marker unit MU has been received by the function of the determination receiving unit 47. If the determination is received, the process proceeds to step S16 and the determination is made that the determination is not made. If accepted, the process returns to step S13 and the same operation is repeated.
Here, the marker unit presentation unit 44, the selection receiving unit 45, the output instruction unit 46, and the determination receiving unit 47 constitute a marker unit determining unit that determines a marker unit corresponding to an object.

処理装置38は、ステップS16において、情報登録手段48の機能によって、決定されたマーカユニットMUを構成するマーカエレメントMEの色や形状、3次元空間の位置、物体Rの色(背景色)等の情報を処理装置38上のデータベースに登録する。この登録された情報は、複合現実感システム1における処理装置11の記憶手段21に登録される情報として用いることができる。   In step S16, the processing device 38 determines the color and shape of the marker element ME constituting the marker unit MU determined by the function of the information registration unit 48, the position of the three-dimensional space, the color of the object R (background color), and the like. Information is registered in a database on the processing device 38. This registered information can be used as information registered in the storage unit 21 of the processing device 11 in the mixed reality system 1.

このようなマーカユニット作成支援システム30を用いることによって、ユーザ自身がマーカユニットの色や形状を決定する必要が無くなるので、ユーザの負担を軽減することができるとともに、複合現実感システムを簡単に構築することが可能となる。
また、マーカユニット提示手段44によって複数のマーカユニットの候補を提示することによって、そのなかから、ユーザが実際に美観を損ねないことを目で確認したうえでより最適なマーカユニットを選択することができる。
By using such a marker unit creation support system 30, it is not necessary for the user himself to determine the color and shape of the marker unit, so the burden on the user can be reduced and a mixed reality system can be easily constructed. It becomes possible to do.
In addition, by presenting a plurality of marker unit candidates by the marker unit presenting means 44, it is possible to select a more optimal marker unit after confirming that the user does not actually impair the aesthetics. it can.

本発明は、上記実施形態に限定されるものではなく、適宜変更可能である。
例えば、マーカユニットMUを構成するマーカエレメントMEの形状や大きさは、上記実施形態の図示例に限定されるものではなく、マーカエレメントMEを貼り付ける物体の形状や大きさに応じて適宜変更することができる。
また、本発明の複合現実感システム1は、室内だけでなく屋外においても利用することができる。例えば、街中等の屋外で本発明の複合現実感システム1を実施する場合、ビルや家屋等の建物、道路等の物体にマーカユニットMUを設置すればよい。
The present invention is not limited to the above embodiment, and can be modified as appropriate.
For example, the shape and size of the marker element ME constituting the marker unit MU are not limited to the illustrated example of the above-described embodiment, and may be changed as appropriate according to the shape and size of the object to which the marker element ME is to be attached. be able to.
The mixed reality system 1 of the present invention can be used not only indoors but also outdoors. For example, when the mixed reality system 1 of the present invention is implemented outdoors in a city or the like, the marker unit MU may be installed on a building such as a building or a house or an object such as a road.

また、マーカエレメントMEの色は、照明条件等を考慮して検出可能な範囲で物体の色に近似した色を選択することが可能である。なお、本願の発明者が実施した実験では、室内の照明条件で、マーカエレメントMEと物体Rとの濃度差が256階調中24階調以上(約10%以上)あれば、安定した検出が行えることが分かった。このように、本発明を実施する環境(照明条件等)に応じてマーカエレメントMEの検出が可能な濃度差を求めることによって、この濃度差を近似の限界(閾値)としてマーカエレメントMEの色を設定することができる。   In addition, as the color of the marker element ME, it is possible to select a color that approximates the color of the object within a detectable range in consideration of illumination conditions and the like. In the experiment conducted by the inventor of the present application, stable detection is possible if the density difference between the marker element ME and the object R is 24 gradations or more (about 10% or more) of 256 gradations under indoor lighting conditions. I found that I can do it. In this way, by obtaining the density difference that can detect the marker element ME according to the environment (illumination conditions, etc.) in which the present invention is implemented, the color of the marker element ME is changed using this density difference as an approximation limit (threshold). Can be set.

上記実施形態では、物体Rとは別に作成されたマーカエレメントMEを物体Rに貼り付けることにより、物体RにマーカエレメントMEを配置しているが、物体R自体にマーカエレメントMEに相当する着色を施すことによってマーカエレメントMEを配置することもできる。また、物体Rの表面を構成する素材によってマーカエレメントMEを構成することもできる。例えば、煉瓦造りやタイル張りの外壁を有する建物RにマーカエレメントMEを配置する場合には、その煉瓦やタイルをマーカエレメントMEとして用いることができる。   In the above-described embodiment, the marker element ME is arranged on the object R by pasting the marker element ME created separately from the object R to the object R, but the object R itself is colored corresponding to the marker element ME. The marker element ME can be arranged by applying. In addition, the marker element ME can be constituted by a material constituting the surface of the object R. For example, when the marker element ME is arranged in a building R having a brick structure or a tiled outer wall, the brick or tile can be used as the marker element ME.

マーカユニット作成支援システム30において、上記実施形態では、実際に物体Rに貼り付けるマーカユニットMUをプリンタ40で印刷(作成)しているが、物体Rに適したマーカユニットMUの雛形や設計図をプリンタ40により出力することもできる。この場合、雛形や設計図に従ってユーザ自身がマーカユニットMUを簡単に作成することができる。   In the marker unit creation support system 30, in the above embodiment, the marker unit MU that is actually pasted on the object R is printed (created) by the printer 40. However, the marker unit MU suitable for the object R is designed and designed. It can also be output by the printer 40. In this case, the user himself / herself can easily create the marker unit MU according to the model or the design drawing.

本発明の複合現実感システムは、例えば、ゲーム等の娯楽システム、医療現場や工場ライン等の作業支援システム、観光地や展示場等における案内システムなど、様々な環境や用途に利用することが可能である。   The mixed reality system of the present invention can be used in various environments and applications such as entertainment systems such as games, work support systems such as medical sites and factory lines, and guidance systems in sightseeing spots and exhibition halls. It is.

本発明の実施形態にかかる複合現実感システム1の概要を示す図である。It is a figure which shows the outline | summary of the mixed reality system 1 concerning embodiment of this invention. マーカユニットの配置例を示す正面図である。It is a front view which shows the example of arrangement | positioning of a marker unit. 複合現実感システムの処理装置の機能構成を示す図である。It is a figure which shows the function structure of the processing apparatus of a mixed reality system. 複合現実感システムの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a mixed reality system. 画像のピクセルを例示する概略図である。FIG. 3 is a schematic diagram illustrating pixels of an image. マーカエレメント検出手段の処理を説明する図である。It is a figure explaining the process of a marker element detection means. マーカユニット検出手段の処理を説明する図である。It is a figure explaining the process of a marker unit detection means. カメラ位置姿勢検出に用いる座標系を説明する図である。It is a figure explaining the coordinate system used for a camera position and orientation detection. 物体に複数のマーカユニットを配置した例を示す斜視図である。It is a perspective view which shows the example which has arrange | positioned the several marker unit to the object. マーカユニット作成支援システムの概略構成を示す図である。It is a figure which shows schematic structure of a marker unit creation assistance system. マーカユニット作成支援システムのコンピュータの機能構成を示す図である。It is a figure which shows the function structure of the computer of a marker unit creation assistance system. マーカユニット作成支援システムのコンピュータによる処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the computer of a marker unit creation assistance system.

符号の説明Explanation of symbols

1 複合現実感システム
11 処理装置
12 カメラ
21 情報記憶手段
22 画像入力手段
23 マーカエレメント検出手段
24 マーカユニット検出手段
30 マーカユニット作成支援システム
38 コンピュータ(処理装置)
39 カメラ(撮影装置)
40 プリンタ(出力装置)
42 画像入力手段
43 対象領域抽出手段
44 マーカユニット提示手段
45 選択受付手段
47 決定受付手段
MU マーカユニット
ME マーカエレメント
R 物体
DESCRIPTION OF SYMBOLS 1 Mixed reality system 11 Processing apparatus 12 Camera 21 Information storage means 22 Image input means 23 Marker element detection means 24 Marker unit detection means 30 Marker unit creation support system 38 Computer (processing apparatus)
39 Camera (photographing device)
40 Printer (output device)
42 Image Input Means 43 Target Area Extraction Means 44 Marker Unit Presenting Means 45 Selection Acceptance Means 47 Decision Acceptance Means MU Marker Unit ME Marker Element R Object

Claims (8)

現実環境における物体の位置を認識して仮想情報を重畳表示する複合現実感システムに用いられ、前記物体に配置されることによって当該物体の位置認識の指標とされるマーカユニットであって、
前記物体の色に近似した着色がなされ、且つ、その外形及び配置の組合せによって識別情報を構成する複数のマーカエレメントからなることを特徴とする複合現実感システムに用いるマーカユニット。
A marker unit that is used in a mixed reality system that recognizes the position of an object in a real environment and displays virtual information in a superimposed manner, and is used as an index for recognizing the position of the object by being arranged on the object,
A marker unit for use in a mixed reality system, characterized in that it is colored similar to the color of the object and comprises a plurality of marker elements that constitute identification information by a combination of its outer shape and arrangement.
前記マーカエレメントの色が、前記物体の色と同一の色系統で濃度が近似している請求項1記載の複合現実感システムに用いるマーカユニット。   The marker unit used for the mixed reality system according to claim 1, wherein the color of the marker element is the same color system as the color of the object and the density is approximate. 前記マーカエレメントの色が、前記物体の色と同一の濃度で色系統が近似している請求項1記載の複合現実感システムに用いるマーカユニット。   The marker unit used for the mixed reality system according to claim 1, wherein the color of the marker element is similar to the color of the object and the color system is approximate. 前記マーカエレメントの外形の少なくとも一部が、前記物体の外形に沿う形状とされている請求項1記載の複合現実感システムに用いるマーカユニット。   The marker unit used for the mixed reality system according to claim 1, wherein at least a part of the outer shape of the marker element has a shape along the outer shape of the object. 請求項1〜4のいずれかに記載のマーカユニットを用いた複合現実感システムであって、
前記物体とこの物体に配置されている前記マーカエレメントとの色情報、及び、前記マーカユニットの外形及び配置の組合せ情報とを記憶する記憶手段と、
前記物体の撮影画像から、前記色情報に基づいて前記マーカエレメントを検出するマーカエレメント検出手段と、
検出された複数のマーカエレメントの外形及び配置の組合せが、前記組合せ情報に対応するかを判別することにより、そのマーカエレメントにより構成されるマーカユニットを検出するマーカユニット検出手段と、
を備えていることを特徴とする複合現実感システム。
A mixed reality system using the marker unit according to any one of claims 1 to 4,
Storage means for storing color information of the object and the marker element arranged on the object, and combination information of the outer shape and arrangement of the marker unit;
Marker element detection means for detecting the marker element based on the color information from a photographed image of the object;
Marker unit detection means for detecting a marker unit constituted by the marker element by determining whether a combination of the detected outer shape and arrangement of the marker elements corresponds to the combination information;
A mixed reality system characterized by
物体に対応した請求項1〜4のいずれかに記載のマーカユニットを作成するためのマーカユニット作成支援システムであって、
前記物体を撮影する撮影装置と、前記物体に使用するマーカユニットの決定処理を行う処理装置と、を備え、
前記処理装置が、
撮影された物体の画像を入力する画像入力手段と、
入力された画像から、マーカユニットが配置される物体の領域を抽出する対象領域抽出手段と、
抽出された物体の色及び形状に応じて当該物体に配置することが可能なマーカユニットを決定するマーカユニット決定手段と、
を備えていることを特徴とするマーカユニット作成支援システム。
A marker unit creation support system for creating a marker unit according to any one of claims 1 to 4 corresponding to an object,
A photographing device for photographing the object, and a processing device for performing a determination process of a marker unit used for the object,
The processing device is
An image input means for inputting an image of the photographed object;
Target area extraction means for extracting the area of the object in which the marker unit is arranged from the input image;
Marker unit determining means for determining a marker unit that can be arranged on the object according to the color and shape of the extracted object;
A marker unit creation support system comprising:
マーカユニット決定手段が、
前記物体に配置することが可能な複数のマーカユニットの候補を提示する提示手段と、
複数のマーカユニットの候補のなかからユーザの選択を受け付ける選択受付手段と、
を含む請求項6記載のマーカユニット作成支援システム。
Marker unit determination means
Presenting means for presenting a plurality of marker unit candidates that can be placed on the object;
Selection accepting means for accepting a user's selection from a plurality of marker unit candidates;
The marker unit creation support system according to claim 6.
物体に対応した請求項1〜4のいずれかに記載のマーカユニットを作成するためのマーカユニット作成支援プログラムであって、
物体の撮影画像を入力する画像入力手段、
入力された画像から、マーカユニットが配置される物体の領域を抽出する対象領域抽出手段、及び
抽出された物体の色及び形状に応じて当該物体に配置することが可能なマーカユニットを決定するマーカユニット決定手段、
としてコンピュータを機能させることを特徴とするマーカユニット作成支援プログラム。
A marker unit creation support program for creating a marker unit according to any one of claims 1 to 4 corresponding to an object,
Image input means for inputting a captured image of an object;
Target area extraction means for extracting the area of the object where the marker unit is placed from the input image, and a marker for determining the marker unit that can be placed on the object according to the color and shape of the extracted object Unit determination means,
Marker unit creation support program characterized by causing a computer to function as
JP2007181395A 2007-07-10 2007-07-10 Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program Pending JP2009020614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007181395A JP2009020614A (en) 2007-07-10 2007-07-10 Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007181395A JP2009020614A (en) 2007-07-10 2007-07-10 Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program

Publications (1)

Publication Number Publication Date
JP2009020614A true JP2009020614A (en) 2009-01-29

Family

ID=40360222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007181395A Pending JP2009020614A (en) 2007-07-10 2007-07-10 Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program

Country Status (1)

Country Link
JP (1) JP2009020614A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134343A (en) * 2011-02-24 2011-07-07 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2011145856A (en) * 2010-01-14 2011-07-28 Ritsumeikan Image generation method and image generation system by mixed reality technology
JP2012003669A (en) * 2010-06-21 2012-01-05 Nintendo Co Ltd Image recognition program, image recognition apparatus, image recognition system, and image recognition method
JP2012212460A (en) * 2012-06-22 2012-11-01 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2013003970A (en) * 2011-06-20 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> Object coordinate system conversion device, object coordinate system conversion method and object coordinate system conversion program
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8625898B2 (en) 2011-02-24 2014-01-07 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8882591B2 (en) 2010-05-14 2014-11-11 Nintendo Co., Ltd. Storage medium having image display program stored therein, image display apparatus, image display system, and image display method
US9256797B2 (en) 2010-06-11 2016-02-09 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
JP2016038338A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 3d scanner, 3d scan method, computer program, and recording medium
JP2016145733A (en) * 2015-02-06 2016-08-12 キヤノン株式会社 Information processing device and method thereof
WO2017057467A1 (en) * 2015-09-29 2017-04-06 株式会社会津ラボ Related information display device
JP2017168085A (en) * 2016-03-10 2017-09-21 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2020030748A (en) * 2018-08-24 2020-02-27 株式会社Cygames Mixed reality system, program, mobile terminal device, and method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145856A (en) * 2010-01-14 2011-07-28 Ritsumeikan Image generation method and image generation system by mixed reality technology
US8882591B2 (en) 2010-05-14 2014-11-11 Nintendo Co., Ltd. Storage medium having image display program stored therein, image display apparatus, image display system, and image display method
US9256797B2 (en) 2010-06-11 2016-02-09 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
JP2012003669A (en) * 2010-06-21 2012-01-05 Nintendo Co Ltd Image recognition program, image recognition apparatus, image recognition system, and image recognition method
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8625898B2 (en) 2011-02-24 2014-01-07 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8699749B2 (en) 2011-02-24 2014-04-15 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
JP2011134343A (en) * 2011-02-24 2011-07-07 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2013003970A (en) * 2011-06-20 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> Object coordinate system conversion device, object coordinate system conversion method and object coordinate system conversion program
JP2012212460A (en) * 2012-06-22 2012-11-01 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2016038338A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 3d scanner, 3d scan method, computer program, and recording medium
JP2016145733A (en) * 2015-02-06 2016-08-12 キヤノン株式会社 Information processing device and method thereof
WO2017057467A1 (en) * 2015-09-29 2017-04-06 株式会社会津ラボ Related information display device
JP2017168085A (en) * 2016-03-10 2017-09-21 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2020030748A (en) * 2018-08-24 2020-02-27 株式会社Cygames Mixed reality system, program, mobile terminal device, and method
WO2020040277A1 (en) * 2018-08-24 2020-02-27 株式会社Cygames Mixed reality system, program, mobile terminal device, and method
CN112912936A (en) * 2018-08-24 2021-06-04 Cy游戏公司 Mixed reality system, program, mobile terminal device, and method

Similar Documents

Publication Publication Date Title
JP2009020614A (en) Marker unit to be used for augmented reality system, augmented reality system, marker unit creation support system, and marker unit creation support program
US11423556B2 (en) Methods and systems to modify two dimensional facial images in a video to generate, in real-time, facial images that appear three dimensional
CN107004279A (en) Natural user interface camera calibrated
CN104615234B (en) Message processing device and information processing method
US20120219177A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
CN105279795A (en) Augmented reality system based on 3D marker
JP5756322B2 (en) Information processing program, information processing method, information processing apparatus, and information processing system
JP2018078448A (en) Program and head-mounted type display device
US10984610B2 (en) Method for influencing virtual objects of augmented reality
JP7405735B2 (en) Display system, display device, and program
JP5812550B1 (en) Image display device, image display method, and program
WO2021130860A1 (en) Information processing device, control method, and storage medium
JP2007233971A (en) Image compositing method and device
CN111199583B (en) Virtual content display method and device, terminal equipment and storage medium
US20120219178A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US11195341B1 (en) Augmented reality eyewear with 3D costumes
JP2012216073A (en) Image processor, image processor control method, and program
WO2020040277A1 (en) Mixed reality system, program, mobile terminal device, and method
CN113470190A (en) Scene display method and device, equipment, vehicle and computer readable storage medium
RU2735066C1 (en) Method for displaying augmented reality wide-format object
CN111563966B (en) Virtual content display method, device, terminal equipment and storage medium
JP2004030408A (en) Three-dimensional image display apparatus and display method
CN212012916U (en) Augmented reality&#39;s display device
CN111651031B (en) Virtual content display method and device, terminal equipment and storage medium
JP2005339363A (en) Device and method for automatically dividing human body part