JP2010231459A - Image synthesizing apparatus - Google Patents

Image synthesizing apparatus Download PDF

Info

Publication number
JP2010231459A
JP2010231459A JP2009077802A JP2009077802A JP2010231459A JP 2010231459 A JP2010231459 A JP 2010231459A JP 2009077802 A JP2009077802 A JP 2009077802A JP 2009077802 A JP2009077802 A JP 2009077802A JP 2010231459 A JP2010231459 A JP 2010231459A
Authority
JP
Japan
Prior art keywords
virtual object
marker
reference pattern
image
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009077802A
Other languages
Japanese (ja)
Other versions
JP5236546B2 (en
Inventor
Kenta Kinoshita
健太 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2009077802A priority Critical patent/JP5236546B2/en
Publication of JP2010231459A publication Critical patent/JP2010231459A/en
Application granted granted Critical
Publication of JP5236546B2 publication Critical patent/JP5236546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image synthesizing apparatus for continuously displaying virtual objects even when the degree of matching of a marker and a reference pattern is deteriorated after the virtual object is displayed. <P>SOLUTION: The image synthesizing apparatus is configured to composite a real image with a virtual object, and to make a display device display the synthetic image, and provided with: a virtual object generation unit for generating a virtual object by using a computer graphics technology; a memory for storing a reference pattern corresponding to the virtual object; a real image generation unit for photographing an object, and for generating a real image; and a control unit for comparing a marker detected from the real image with the reference pattern, and for generating the virtual object corresponding to the reference pattern whose degree of matching is equal to or more than a first threshold by the virtual object generation unit, and for compositing it with the real image, and for, after composition, preventing the virtual object from being deleted until the degree of matching of the marker and the reference pattern becomes not larger than a second threshold which is lower than the first threshold. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、画像合成装置に関し、特に、実画像と仮想物体とを合成し、該合成画像を表示装置に表示させるための画像合成装置に関する。   The present invention relates to an image synthesizing apparatus, and more particularly to an image synthesizing apparatus for synthesizing a real image and a virtual object and displaying the synthesized image on a display device.

近年、現実の環境から得られる実画像情報に、コンピュータが作り出した情報(例えばコンピュータグラフィックス技術による仮想物体)を重ね合わせて補足的な情報を与える、AR(Augmented Reality)、MR(Mixed Reality)、拡張現実感又は複合現実感と呼ばれる技術が注目されている(以降、AR/MR/拡張現実感/複合現実感に関する技術をまとめて「AR技術」と言うものとする。)。AR技術は、VR(Virtual Reality)と比べ、現実世界とリンクした形で情報を付加するため、ユーザにとって仮想物体と現実世界との関連性が視覚的に分かり易いといった特徴がある。AR技術の方式の一つとして、決まった目印(マーカー)と対応させる仮想物体を設定し、実画像から抽出したマーカーと参照パターンとの一致度が高い場合に、仮想物体を映像中に合成するといった方式がある(例えば特許文献1参照)。   In recent years, AR (Augmented Reality), MR (Mixed Reality) that gives supplemental information by superimposing computer-generated information (for example, virtual objects by computer graphics technology) on real image information obtained from the real environment A technique called augmented reality or mixed reality has attracted attention (hereinafter, AR / MR / augmented reality / mixed reality technologies are collectively referred to as “AR technology”). Compared to VR (Virtual Reality), the AR technology adds information in a form linked to the real world, and thus has a feature that it is easy for the user to visually understand the relationship between the virtual object and the real world. As a method of AR technology, a virtual object to be associated with a predetermined mark (marker) is set, and the virtual object is synthesized in the video when the degree of coincidence between the marker extracted from the real image and the reference pattern is high (For example, refer to Patent Document 1).

特開2003−256876号公報JP 2003-256876 A

図15は、マーカー上に仮想物体を表示するAR技術の一例を示す図である。この場合、AR処理前の画像(図15(a))からマーカーが抽出され、抽出されたマーカーと予め保持してある参照パターンとの一致度が算出される。一致度の高い参照パターンがある場合、抽出されたマーカー上に、参照パターンに対応する仮想物体が合成して表示される(図15(b))。図16は、マーカーと参照パターンとの一致度と、仮想物体表示との関係を示す図である。図16に示すように、マーカーと参照パターンとの一致度がある閾値を上回る場合には仮想物体が表示され、当該閾値を下回る場合には仮想物体は表示されない。   FIG. 15 is a diagram illustrating an example of an AR technique for displaying a virtual object on a marker. In this case, a marker is extracted from the image before AR processing (FIG. 15A), and the degree of coincidence between the extracted marker and a reference pattern held in advance is calculated. When there is a reference pattern with a high degree of coincidence, a virtual object corresponding to the reference pattern is synthesized and displayed on the extracted marker (FIG. 15B). FIG. 16 is a diagram illustrating the relationship between the degree of coincidence between the marker and the reference pattern and the virtual object display. As shown in FIG. 16, when the degree of coincidence between the marker and the reference pattern exceeds a certain threshold value, the virtual object is displayed, and when it falls below the threshold value, the virtual object is not displayed.

しかし、従来のAR技術では、マーカーの一部に障害物が入ると、マーカーと参照パターンとの一致度が低下するため、仮想物体が表示されなくなる。図17(a)に示すように、マーカー上に仮想物体としてユーザからの入力を受け付けるようなUI(User Interface)が表示されている場合、ユーザが当該仮想物体に対して入力操作を行おうとすると、ユーザからの入力(例えば手や入力デバイスなど)がカメラ画像に写りこんでしまう。そのため、ユーザからの入力がマーカーに対する障害物となり、マーカーと参照パターンとの一致度が低下するため、図17(b)に示すように、仮想物体が表示されなくなってしまう。図18は、マーカーと参照パターンとの一致度と、仮想物体表示との関係を示す図である。この場合、ユーザからの入力によって、一致度が時刻t1において、仮想物体を表示するかどうかを判定する閾値を下回ることになり、UIとして表示されていた仮想物体が消滅してしまうことになる。   However, in the conventional AR technique, when an obstacle enters a part of the marker, the degree of coincidence between the marker and the reference pattern is reduced, and thus the virtual object is not displayed. As shown in FIG. 17A, when a UI (User Interface) that accepts an input from the user as a virtual object is displayed on the marker, the user tries to perform an input operation on the virtual object. The input from the user (for example, a hand or an input device) is reflected in the camera image. For this reason, the input from the user becomes an obstacle to the marker, and the degree of coincidence between the marker and the reference pattern decreases, so that the virtual object is not displayed as shown in FIG. FIG. 18 is a diagram illustrating the relationship between the degree of coincidence between the marker and the reference pattern and the virtual object display. In this case, due to an input from the user, the degree of coincidence falls below a threshold value for determining whether or not to display a virtual object at time t1, and the virtual object displayed as the UI disappears.

かかる問題への対応として、仮想物体を表示するかどうかを判定する閾値を低くして、障害物による仮想物体の消滅を回避するといった方法もあるが、閾値を低く設定した場合には、マーカーを誤認識する確率が高くなり、様々なマーカーに対して誤って仮想物体が表示されるといった問題が発生する。そのため、仮想物体の表示を正確に行うためには、マーカーに対する一致度の閾値を高く設定する必要があった。   As a countermeasure to this problem, there is a method of lowering the threshold for determining whether or not to display a virtual object and avoiding the disappearance of the virtual object due to an obstacle. The probability of misrecognition increases, and there is a problem that virtual objects are displayed erroneously for various markers. For this reason, in order to display the virtual object accurately, it is necessary to set a high threshold value for the degree of coincidence with the marker.

したがって、かかる点に鑑みてなされた本発明の目的は、仮想物体が表示された後にマーカーと参照パターンとの一致度が低下した場合でも、継続して仮想物体を表示可能な画像合成装置を提供することにある。   Therefore, an object of the present invention made in view of such a point is to provide an image composition device capable of continuously displaying a virtual object even when the degree of coincidence between the marker and the reference pattern decreases after the virtual object is displayed. There is to do.

上述した諸課題を解決すべく、第1の発明による画像合成装置は、
実画像と仮想物体とを合成し、該合成画像を表示装置に表示させるための画像合成装置であって、
コンピュータグラフィックス技術を用いて仮想物体を生成する仮想物体生成部と、
前記仮想物体に対応する参照パターンを記憶する記憶部と、
被写体を撮影し、実画像を生成する実画像生成部と、
前記実画像から検出されるマーカーと前記参照パターンとを比較し、一致度が第1の閾値以上の参照パターンに対応する仮想物体を前記仮想物体生成部により生成して前記実画像と合成し、
該合成後、前記マーカーと前記参照パターンとの一致度が第1の閾値よりも低い第2の閾値以下になるまで前記仮想物体を消去しないように制御する制御部と、を備える。
In order to solve the above-described problems, the image composition device according to the first invention provides:
An image synthesizing device for synthesizing a real image and a virtual object and displaying the synthesized image on a display device,
A virtual object generation unit that generates a virtual object using computer graphics technology;
A storage unit for storing a reference pattern corresponding to the virtual object;
A real image generation unit that shoots a subject and generates a real image;
The marker detected from the real image is compared with the reference pattern, a virtual object corresponding to a reference pattern having a matching degree equal to or higher than a first threshold is generated by the virtual object generation unit, and combined with the real image,
And a controller that controls the virtual object not to be erased until the degree of coincidence between the marker and the reference pattern is equal to or lower than a second threshold value lower than the first threshold value after the synthesis.

また、本発明に係る画像合成装置では、前記仮想物体生成部は、ユーザが操作可能な前記仮想物体を作成することができる。   In the image composition device according to the present invention, the virtual object generation unit can create the virtual object that can be operated by a user.

本発明によれば、実画像と仮想物体とを合成して表示した後、マーカーと参照パターンとの一致度が第1の閾値よりも低い第2の閾値以下になるまで仮想物体を消去しないように制御するため、仮想物体が表示された後にマーカーと参照パターンとの一致度が低下した場合でも、継続して仮想物体を表示することができる。   According to the present invention, after a real image and a virtual object are combined and displayed, the virtual object is not erased until the degree of coincidence between the marker and the reference pattern is equal to or lower than a second threshold value lower than the first threshold value. Therefore, even when the degree of coincidence between the marker and the reference pattern decreases after the virtual object is displayed, the virtual object can be continuously displayed.

本発明の一実施形態に係る画像合成装置の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image composition device according to an embodiment of the present invention. 図1に示す画像合成装置の処理フローチャートである。It is a process flowchart of the image composition apparatus shown in FIG. 図1に示す画像合成装置の処理フローチャートである。It is a process flowchart of the image composition apparatus shown in FIG. 図1に示す画像合成装置の処理フローチャートである。It is a process flowchart of the image composition apparatus shown in FIG. 図1に示す画像合成装置の処理フローチャートである。It is a process flowchart of the image composition apparatus shown in FIG. 本発明の一実施形態に係る画像合成環境を示す図である。It is a figure which shows the image composition environment which concerns on one Embodiment of this invention. 図6に示す画像合成装置からみたマーカーを示す図である。It is a figure which shows the marker seen from the image composition apparatus shown in FIG. 図7に示すマーカーの修正例を示す図である。It is a figure which shows the example of correction of the marker shown in FIG. 本発明の一実施形態に係るマーカーと参照パターンとの一致度算出例を示す図である。It is a figure which shows the coincidence degree calculation example of the marker and reference pattern which concern on one Embodiment of this invention. 本発明の一実施形態に係る仮想物体へのユーザ入力例を示す図である。It is a figure which shows the user input example to the virtual object which concerns on one Embodiment of this invention. 図10のユーザ入力に対するマーカーと参照パターンとの一致度算出例を示す図である。It is a figure which shows the example of a coincidence calculation with the marker and reference pattern with respect to the user input of FIG. 図10にユーザ入力に対する一致度の推移と仮想物体の表示状態との関係を示す図である。FIG. 10 is a diagram illustrating the relationship between the transition of the degree of coincidence with the user input and the display state of the virtual object. 本発明の一実施形態に係る仮想物体の表示例を示す図である。It is a figure which shows the example of a display of the virtual object which concerns on one Embodiment of this invention. 図13の場合における一致度の推移を示す図である。It is a figure which shows transition of a coincidence degree in the case of FIG. マーカー上への仮想物体の表示例を示す図である。It is a figure which shows the example of a display of the virtual object on a marker. 図15の場合における一致度の推移と仮想物体の表示状態との関係を示す図である。It is a figure which shows the relationship between transition of a coincidence in the case of FIG. 15, and the display state of a virtual object. ユーザ入力に対する仮想物体の表示例を示す図である。It is a figure which shows the example of a display of the virtual object with respect to a user input. 図17の場合における一致度の推移と仮想物体の表示状態との関係を示す図である。It is a figure which shows the relationship between the transition of a coincidence in the case of FIG. 17, and the display state of a virtual object.

以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る画像合成装置の概略構成を示す図である。画像合成装置1は、被写体を撮影して実画像データを生成する撮像部2と、記憶部3と、表示部4と、制御部6とを備える。記憶部3は、ARに関するアプリケーションプログラム31と、マーカーと比較する参照パターン情報32と、マーカーと参照パターンとの一致度が高いときに表示する仮想物体情報33とを含んでいる。表示部4は、アプリケーションプログラムに関する表示やAR処理による合成画像を表示する。制御部6は、AR制御部61を含み、AR制御部61は、入力画像解析部611、仮想物体判定部612、仮想物体生成部613、及び仮想物体操作部614を含んでいる。入力画像解析部611は、撮像部2が生成した実画像データを解析し、マーカーの抽出やマーカーの3次元位置及び姿勢の計算を行う。仮想物体判定部612は、入力画像解析部611が抽出したマーカーと参照パターンとの一致度を算出し、一致度が閾値(生成閾値)を越えている場合に、マーカー上に表示すべき仮想物体を選択する。仮想物体生成部613は、一致度が生成閾値を越えているマーカー上に、仮想物体判定部612によって選択された仮想物体をコンピュータグラフィック技術を用いて生成する。仮想物体操作部614は、仮想物体に対してユーザからの入力があった場合、当該ユーザ入力及び仮想物体に対応する制御を行う。   FIG. 1 is a diagram showing a schematic configuration of an image composition device according to an embodiment of the present invention. The image composition device 1 includes an imaging unit 2 that captures a subject and generates real image data, a storage unit 3, a display unit 4, and a control unit 6. The storage unit 3 includes an application program 31 related to AR, reference pattern information 32 to be compared with the marker, and virtual object information 33 to be displayed when the degree of coincidence between the marker and the reference pattern is high. The display unit 4 displays a display related to the application program and a composite image by AR processing. The control unit 6 includes an AR control unit 61, and the AR control unit 61 includes an input image analysis unit 611, a virtual object determination unit 612, a virtual object generation unit 613, and a virtual object operation unit 614. The input image analysis unit 611 analyzes the actual image data generated by the imaging unit 2, and performs marker extraction and calculation of the three-dimensional position and orientation of the marker. The virtual object determination unit 612 calculates the degree of coincidence between the marker extracted by the input image analysis unit 611 and the reference pattern, and if the degree of coincidence exceeds a threshold (generation threshold), the virtual object to be displayed on the marker Select. The virtual object generation unit 613 generates a virtual object selected by the virtual object determination unit 612 on the marker whose matching degree exceeds the generation threshold using a computer graphic technique. When there is an input from the user to the virtual object, the virtual object operation unit 614 performs control corresponding to the user input and the virtual object.

ここで、撮像部2は、カメラ等の任意の好適な撮像装置によって構成することができる。制御部6は、CPU(中央処理装置)等の任意の好適なプロセッサにより構成されるものであって、制御部6の各機能部(AR制御部61、入力画像解析部611、仮想物体判定部612、仮想物体生成部613、仮想物体操作部614)は、当該CPU上で実行されるソフトウェアとして構成したり、又は、各機能部の処理に特化した専用のプロセッサ(例えばDSP(デジタルシグナルプロセッサ))などによって構成することができる。記憶部3は、揮発性メモリ(SRAM等)、不揮発性メモリ(EEPROM等)、又は他の好適な記憶媒体によって構成することができる。表示部4は、液晶ディスプレイなどの任意の好適な表示装置によって構成することができる。   Here, the imaging unit 2 can be configured by any suitable imaging device such as a camera. The control unit 6 is configured by any suitable processor such as a CPU (Central Processing Unit), and each function unit (AR control unit 61, input image analysis unit 611, virtual object determination unit) of the control unit 6 is configured. 612, the virtual object generation unit 613, and the virtual object operation unit 614) are configured as software executed on the CPU, or a dedicated processor specialized in the processing of each functional unit (for example, a DSP (digital signal processor) )) And the like. The memory | storage part 3 can be comprised by volatile memory (SRAM etc.), non-volatile memory (EEPROM etc.), or another suitable storage medium. The display unit 4 can be configured by any suitable display device such as a liquid crystal display.

なお、上記の通り制御部6は、AR制御部61、入力画像解析部611、仮想物体判定部612、仮想物体生成部613、仮想物体操作部614という機能部を含む構成であり、本実施形態の場合、少なくとも入力画像解析部611及び仮想物体判定部612を含む制御部6が、請求項に記載の「制御部」を構成するものである。また、本実施形態の場合、撮像部2が、本発明の請求項に記載の「実画像生成部」を構成するものである。   As described above, the control unit 6 includes functional units such as the AR control unit 61, the input image analysis unit 611, the virtual object determination unit 612, the virtual object generation unit 613, and the virtual object operation unit 614. In this case, the control unit 6 including at least the input image analysis unit 611 and the virtual object determination unit 612 constitutes a “control unit” described in the claims. In the case of this embodiment, the imaging unit 2 constitutes a “real image generation unit” described in the claims of the present invention.

また、図1に示す画像合成装置1においては、表示部4を画像合成装置1の内部に含む構成としているが、表示部4を画像合成装置1の外部に備え、例えば、画像合成装置1から独立した表示装置として構成とすることも可能である点に留意されたい。   In the image composition device 1 shown in FIG. 1, the display unit 4 is included in the image composition device 1. However, the display unit 4 is provided outside the image composition device 1, for example, from the image composition device 1. It should be noted that the display device can be configured as an independent display device.

また、本実施例においては、記憶部3は、実画像から抽出されたマーカーの情報を構造体Mrkとして記憶している。マーカー情報である構造体Mrkは、メンバ変数としてinfo、position、AR、及びPDを含んでいる。infoは、実画像データから抽出したマーカーの座標及び大きさ、色情報等のデータ集合である。positionは、抽出したマーカーに対して表示する仮想物体の位置及び姿勢を示している。ARは、抽出したマーカーに対する仮想物体の表示状態を示すフラグである。PDは、抽出されたマーカーに対応する参照パターンを示すものである。   In the present embodiment, the storage unit 3 stores marker information extracted from the actual image as the structure Mrk. The structure Mrk, which is marker information, includes info, position, AR, and PD as member variables. info is a data set of marker coordinates and size extracted from real image data, color information, and the like. The position indicates the position and orientation of the virtual object to be displayed with respect to the extracted marker. AR is a flag indicating the display state of the virtual object with respect to the extracted marker. PD indicates a reference pattern corresponding to the extracted marker.

これ以降、Mrk(t)[i]という表記は、時刻tの実画像データに含まれるi番目のマーカーの構造体を示すものとする。また、Mrk(t)[i].info、Mrk(t)[i].position、Mrk(t)[i].AR、Mrk(t)[i].PDという表記は、それぞれ、構造体Mrk(t)[i]に含まれるメンバ変数への参照を示すものである。   Hereinafter, the notation Mrk (t) [i] indicates the structure of the i-th marker included in the real image data at time t. In addition, the notation Mrk (t) [i] .info, Mrk (t) [i] .position, Mrk (t) [i] .AR, Mrk (t) [i] .PD (t) Indicates a reference to a member variable included in [i].

図2は、画像合成装置1の動作フローチャートである。画像合成装置1において処理が開始されると、制御部6は、経過時間を表すパラメータtを初期化し(ステップS001)、撮像部2を起動する(ステップS002)。画像合成装置1の操作が継続している間、撮像部2は、定期的に被写体を撮影し、実画像データP(t)を生成する(ステップS003、S004)。入力画像解析部611は、撮像部2から取得した画像データP(t)に対して、実画像データP(t)に含まれるマーカーの抽出といった入力画像解析処理を行う(ステップS005)。仮想物体判定部612は、入力画像解析処理によって抽出されたマーカーと、記憶部3に記憶された参照パターンとの一致度を算出し、抽出されたマーカー上に表示する仮想物体を選択するという仮想物体判定処理を行う(ステップS006)。仮想物体生成部613は、仮想物体判定処理の結果に従い、抽出されたマーカー上に仮想物体を表示するという仮想物体生成処理を行う(ステップS007)。   FIG. 2 is an operation flowchart of the image composition device 1. When processing is started in the image composition device 1, the control unit 6 initializes a parameter t representing elapsed time (step S001) and activates the imaging unit 2 (step S002). While the operation of the image synthesizing apparatus 1 continues, the imaging unit 2 periodically shoots a subject and generates real image data P (t) (steps S003 and S004). The input image analysis unit 611 performs input image analysis processing such as extraction of markers included in the actual image data P (t) on the image data P (t) acquired from the imaging unit 2 (step S005). The virtual object determination unit 612 calculates the degree of coincidence between the marker extracted by the input image analysis process and the reference pattern stored in the storage unit 3, and selects a virtual object to be displayed on the extracted marker. Object determination processing is performed (step S006). The virtual object generation unit 613 performs a virtual object generation process of displaying a virtual object on the extracted marker according to the result of the virtual object determination process (step S007).

図3は、図2のステップS005における入力画像解析処理のフローチャートである。入力画像解析部611は、まず、実画像データP(t)に含まれるマーカーを識別するためのカウンタiを初期化する(ステップS101)。次に、入力画像解析部611は、画像データP(t)に対して適切な画像処理を行い、実画像データP(t)に含まれるマーカーを抽出し(ステップS102)、抽出したマーカーの情報を記憶部3のMrk(t)[i].infoに保存する(ステップS103)。なお、上述の通り、このMrk(t)[i].infoは実画像データP(t)から抽出したマーカーの座標や大きさ、色情報等のデータ集合である。また、入力画像解析部611によるマーカーの抽出は、画像処理に関する様々な公知技術によって実現できるものであり、ここでの詳細な説明は行わない。   FIG. 3 is a flowchart of the input image analysis process in step S005 of FIG. First, the input image analysis unit 611 initializes a counter i for identifying a marker included in the actual image data P (t) (step S101). Next, the input image analysis unit 611 performs appropriate image processing on the image data P (t), extracts markers included in the actual image data P (t) (step S102), and extracts marker information. Is stored in Mrk (t) [i] .info of the storage unit 3 (step S103). As described above, this Mrk (t) [i] .info is a data set of marker coordinates and sizes extracted from the real image data P (t), color information, and the like. The marker extraction by the input image analysis unit 611 can be realized by various known techniques related to image processing, and will not be described in detail here.

次に、入力画像解析部611は、初期起動時以外(t>0、ステップS104のYes)、抽出したマーカーと同じマーカーの情報が、すでに記憶部3に記憶されているかどうかを検索する。つまり、入力画像解析部611は、以前の時刻t−1における実画像データから抽出されたマーカー情報の中に、現時刻tにおいて抽出したマーカーと重複したマーカー(以下、このマーカーを「重複マーカー」と言い、重複マーカーの情報をMrk(t-1)により示すものとする。)が存在するかどうかを検索する(ステップS105)。入力画像解析部611は、重複マーカーの情報が記憶部3に記憶されている場合、Mrk(t-1).ARを参照し、重複マーカーに対して仮想物体が表示されているかどうかの判定を行う(ステップS106)。入力画像解析部611は、重複マーカーに対してすでに仮想物体が表示されていれば(Mrk(t-1).AR=ON)、仮想物体の表示を維持するため、現時刻tにおいて抽出したマーカーに対しても、仮想物体を表示させるためのフラグを設定する(Mrk(t)[i].AR=ON)(ステップS107)。なお、初期起動時(t=0、ステップS104のNO)や、重複マーカーが存在しない場合(ステップS105のNO)や、重複マーカーに対して仮想物体が表示されていない場合(ステップS106のNO)には、ステップS107の処理はスキップされる。   Next, the input image analysis unit 611 searches whether the information of the same marker as the extracted marker is already stored in the storage unit 3 except at the time of initial activation (t> 0, Yes in step S104). That is, the input image analysis unit 611 includes a marker that is duplicated with the marker extracted at the current time t in the marker information extracted from the actual image data at the previous time t−1 (hereinafter, this marker is referred to as “duplicate marker”). The duplication marker information is indicated by Mrk (t-1).) (Step S105). When the information of the overlapping marker is stored in the storage unit 3, the input image analysis unit 611 refers to Mrk (t-1) .AR and determines whether a virtual object is displayed for the overlapping marker. This is performed (step S106). If a virtual object is already displayed for the overlapping marker (Mrk (t-1) .AR = ON), the input image analysis unit 611 extracts the marker extracted at the current time t in order to maintain the display of the virtual object. Also, a flag for displaying a virtual object is set (Mrk (t) [i] .AR = ON) (step S107). Note that at the time of initial activation (t = 0, NO in step S104), when there is no overlapping marker (NO in step S105), or when a virtual object is not displayed for the overlapping marker (NO in step S106). In step S107, the process in step S107 is skipped.

次に、入力画像解析部611は、抽出したマーカーのMrk(t)[i].infoを参照し、マーカーの位置及び姿勢を、撮像部2の視点における位置及び姿勢に座標変換し(ステップS108)、座標変換の結果をMrk(t)[i].positionに保存する(ステップS109)。なお、上述の通り、Mrk(t)[i].positionは、仮想物体を表示する位置及び姿勢を示すものである。   Next, the input image analysis unit 611 refers to the extracted marker Mrk (t) [i] .info, and coordinates-converts the position and orientation of the marker to the position and orientation at the viewpoint of the imaging unit 2 (step S108). ), The result of the coordinate transformation is stored in Mrk (t) [i] .position (step S109). As described above, Mrk (t) [i] .position indicates the position and orientation at which the virtual object is displayed.

入力画像解析部611は、ループ1の処理(ステップS102〜S109)を、実画像データP(t)から抽出したマーカーの数だけ繰り返す。そのため、実画像データP(t)に複数のマーカーが含まれている場合でも、各マーカーに対してループ1の処理が行われることになる。なお、ループ1の処理を繰り返すごとに、実画像データP(t)に含まれるマーカーを識別するためのカウンタiをインクリメント(i++)するため、複数のマーカーの情報が同一の構造体Mrk(t)[i]に保存されることはない。   The input image analysis unit 611 repeats the loop 1 process (steps S102 to S109) as many times as the number of markers extracted from the actual image data P (t). For this reason, even when the actual image data P (t) includes a plurality of markers, the processing of loop 1 is performed for each marker. Note that each time the processing of loop 1 is repeated, the counter i for identifying the marker included in the actual image data P (t) is incremented (i ++), and therefore the structure Mrk (t ) [i] is not saved.

図4は、図2のステップS006における仮想物体判定処理のフローチャートである。仮想物体判定処理では、仮想物体判定部612は、まず、参照パターンPdを記憶部3の参照パターン情報32から読み出し(ステップS201)、実画像データP(t)に含まれるマーカーを識別するためのカウンタiを初期化する(ステップS202)。次に、仮想物体判定部612は、記憶部3に、有効な参照パターンPd及びマーカー情報Mrkが存在するかを判定し(ステップS203、S204)、存在する場合(参照パターンPd及びマーカー情報MrkがともにNULLではない場合)は以下の処理を行う。   FIG. 4 is a flowchart of the virtual object determination process in step S006 of FIG. In the virtual object determination process, the virtual object determination unit 612 first reads the reference pattern Pd from the reference pattern information 32 of the storage unit 3 (step S201), and identifies a marker included in the actual image data P (t). The counter i is initialized (step S202). Next, the virtual object determination unit 612 determines whether there is a valid reference pattern Pd and marker information Mrk in the storage unit 3 (steps S203 and S204), and if they exist (the reference pattern Pd and marker information Mrk are present). If neither is NULL), the following processing is performed.

まず、ループ1において、仮想物体判定部612は、マーカー情報であるMrk(t)[i].infoを記憶部3から読み出し(ステップS205)、参照パターンPdを識別するためのカウンタkを初期化し、ループ2に入る(ステップS206)。ループ2では、仮想物体判定部612は、現在の(k番目の)参照パターンであるPd(k)が有効であるかを判定し(ステップS207)、Pd(k)が有効である場合、現在の(i番目の)マーカー情報Mrk(t)[i]と、現在の参照パターンであるPd(k)との一致度RAを算出する(ステップS208)。   First, in loop 1, the virtual object determination unit 612 reads Mrk (t) [i] .info that is marker information from the storage unit 3 (step S205), and initializes a counter k for identifying the reference pattern Pd. Loop 2 is entered (step S206). In loop 2, the virtual object determination unit 612 determines whether the current (kth) reference pattern Pd (k) is valid (step S207), and if Pd (k) is valid, The degree of coincidence RA between the (i-th) marker information Mrk (t) [i] and the current reference pattern Pd (k) is calculated (step S208).

このとき、仮想物体判定部612は、Mrk(t)[i].ARを参照し、現在のマーカーに対して仮想物体が生成中であるかどうか判定する(ステップS209)。現在のマーカーに対してまだ仮想物体が生成されていない場合(Mrk(t)[i].AR=OFF)には、仮想物体判定部612は、一致度RAを判定するための閾値Sに、仮想物体を生成するかどうかを判定するための生成閾値Gを代入する(ステップS210)。また、マーカーに対してすでに仮想物体が生成されている場合(Mrk(t)[i].AR=ON)には、仮想物体判定部612は、一致度RAを判定するための閾値Sに、当該仮想物体の表示を維持するかどうかを判定するための維持閾値Mを設定する(ステップS211)。   At this time, the virtual object determination unit 612 refers to Mrk (t) [i] .AR and determines whether a virtual object is being generated for the current marker (step S209). When a virtual object has not yet been generated for the current marker (Mrk (t) [i] .AR = OFF), the virtual object determination unit 612 sets the threshold value S for determining the matching degree RA to A generation threshold G for determining whether to generate a virtual object is substituted (step S210). When a virtual object has already been generated for the marker (Mrk (t) [i] .AR = ON), the virtual object determination unit 612 sets the threshold value S for determining the matching degree RA to A maintenance threshold M for determining whether to maintain the display of the virtual object is set (step S211).

ここで、生成閾値Gは、マーカーに対して誤った仮想物体が表示されることを避けるため、比較的高い値が設定されるのに対し、維持閾値Mは、例えばユーザの手などがカメラに写りこんで一致度RAが低下した場合にも、仮想物体の表示を維持するためのものであるため、生成閾値Gに比べて相対的に低い値が設定されるものである。   Here, the generation threshold G is set to a relatively high value in order to avoid displaying an erroneous virtual object with respect to the marker, whereas the maintenance threshold M is set such that the user's hand or the like is applied to the camera. Even when the degree of coincidence RA decreases due to reflection, the value is set to be relatively lower than the generation threshold G because it is for maintaining the display of the virtual object.

次に、仮想物体判定部612は、ステップS208において算出した一致度RAと、一致度RAを判定するための閾値Sとの比較を行う(ステップS212)。一致度RAが閾値Sよりも高い場合は、仮想物体判定部612は、現在の(i番目の)マーカー情報Mrk(t)[i]と、現在の(k番目の)参照パターンであるPd(k)とが対応していると判断し、Mrk(t)[i].PDにPd(k)を設定する(ステップS213)。一致度RAが閾値Sよりも低い場合は、仮想物体判定部612は、現在の(i番目の)マーカー情報Mrk(t)[i]と、現在の(k番目の)参照パターンであるPb(k)とが対応していないと判断し、Mrk(t)[i].PDの設定は行わない(ステップS214)。   Next, the virtual object determination unit 612 compares the matching degree RA calculated in step S208 with a threshold S for determining the matching degree RA (step S212). When the degree of coincidence RA is higher than the threshold S, the virtual object determination unit 612 displays the current (i-th) marker information Mrk (t) [i] and the current (k-th) reference pattern Pd ( k) and Pd (k) are set in Mrk (t) [i] .PD (step S213). When the degree of coincidence RA is lower than the threshold value S, the virtual object determination unit 612 displays the current (i-th) marker information Mrk (t) [i] and the current (k-th) reference pattern Pb ( k) does not correspond, and Mrk (t) [i] .PD is not set (step S214).

仮想物体判定部612は、ループ1の処理(ステップS205〜S206)を、実画像データP(t)から抽出したマーカーの数だけ繰り返す。また、仮想物体判定部612は、ループ2の処理(ステップS207〜S214)を、記憶部3に記憶されている参照パターンの数だけ、又は、一致度RAが閾値Sよりも高いと判断するまで繰り返す。そのため、仮想物体判定部612は、実画像データP(t)に複数のマーカーが含まれ、記憶部3に複数の参照パターンが記憶されている場合でも、それぞれのマーカーに対して、対応する参照パターンを求めることができる。   The virtual object determination unit 612 repeats the processing of loop 1 (steps S205 to S206) as many times as the number of markers extracted from the real image data P (t). Further, the virtual object determination unit 612 performs the processing of loop 2 (steps S207 to S214) by the number of reference patterns stored in the storage unit 3 or until the matching degree RA is higher than the threshold value S. repeat. Therefore, even when the virtual image determination unit 612 includes a plurality of markers in the real image data P (t) and a plurality of reference patterns are stored in the storage unit 3, the virtual object determination unit 612 corresponds to each marker. A pattern can be obtained.

図5は、図2のステップS007における仮想物体生成処理のフローチャートである。仮想物体生成処理では、まず、仮想物体生成部613は、実画像データP(t)に含まれるマーカーを識別するためのカウンタiを初期化する(ステップS301)。次に、仮想物体生成部613はループ1に入り、現在の(i番目の)マーカーに対応する参照パターンが設定されているかを確認するため、記憶部3のMrk(t)[i].PDを参照する(ステップS302)。Mrk(t)[i].PDに参照パターンが設定されている場合、仮想物体生成部613は、Mrk(t)[i].PDに対応する仮想物体VROを、記憶部3の仮想物体情報33から読み出し(ステップS303)、Mrk(t)[i].positionの位置及び姿勢に基づき、現在のマーカー上に当該仮想物体VROを生成して合成する処理を行う(ステップS304)。合成処理の後、仮想物体生成部613は、現在のマーカー上に仮想物体を表示していることを示すため、Mrk(t)[i].ARをONにする(ステップS305)。なお、ステップS302において、Mrk(t)[i].PDに参照パターンが設定されてない場合、仮想物体生成部613は、現在のマーカー上に仮想物体を表示していないことを示すため、Mrk(t)[i].ARをOFFに設定する(ステップS306)。   FIG. 5 is a flowchart of the virtual object generation process in step S007 of FIG. In the virtual object generation process, first, the virtual object generation unit 613 initializes a counter i for identifying a marker included in the actual image data P (t) (step S301). Next, the virtual object generation unit 613 enters loop 1 and checks whether a reference pattern corresponding to the current (i-th) marker is set, so that Mrk (t) [i] .PD in the storage unit 3 is set. Is referred to (step S302). When the reference pattern is set in Mrk (t) [i] .PD, the virtual object generation unit 613 displays the virtual object VRO corresponding to Mrk (t) [i] .PD as virtual object information in the storage unit 3. 33 (step S303), based on the position and orientation of Mrk (t) [i] .position, a process of generating and synthesizing the virtual object VRO on the current marker is performed (step S304). After the synthesis process, the virtual object generation unit 613 turns on Mrk (t) [i] .AR to indicate that the virtual object is displayed on the current marker (step S305). In step S302, if no reference pattern is set in Mrk (t) [i] .PD, the virtual object generation unit 613 indicates that no virtual object is displayed on the current marker. (t) [i] .AR is set to OFF (step S306).

仮想物体生成部613は、ループ1の処理(ステップS302〜S306)を、実画像データP(t)から抽出したマーカーの数だけ繰り返す。そのため、実画像データP(t)に複数のマーカーが含まれている場合でも、各マーカーに対して、仮想物体の生成および合成処理が行われることになる。   The virtual object generation unit 613 repeats the loop 1 process (steps S302 to S306) by the number of markers extracted from the real image data P (t). Therefore, even when the actual image data P (t) includes a plurality of markers, a virtual object is generated and synthesized for each marker.

図6は、本発明の一実施形態に係る仮想物体表示環境を示す図である。本実施形態では、画像合成装置1はカメラ付きHMD(ヘッドマウントディスプレイ)として構成され、ユーザは画像合成装置1を頭部に装着して机の上に置かれたマーカーMKを撮影している。なお、図6の場合、画像合成装置1は、表示部4をHMDとして含んだ構成となっているが、例えば、表示部4に相当するHMDと、画像合成装置1に相当するカメラ付きパソコン等の情報処理端末とを別々の装置として構成することも可能である。表示部4と画像合成装置1とを別々の装置として構成する場合、表示部4をより軽量な表示装置により構成し、画像合成装置1をより高性能な情報処理装置により構成することが可能である。もちろん、カメラも情報処理端末と別々の構成としても良い。   FIG. 6 is a diagram showing a virtual object display environment according to an embodiment of the present invention. In the present embodiment, the image composition device 1 is configured as a camera-equipped HMD (head mounted display), and the user photographs the marker MK placed on the desk with the image composition device 1 mounted on the head. In the case of FIG. 6, the image composition device 1 includes the display unit 4 as an HMD. For example, the HMD corresponding to the display unit 4, a personal computer with a camera corresponding to the image composition device 1, and the like. It is also possible to configure the information processing terminal as a separate device. When the display unit 4 and the image composition device 1 are configured as separate devices, the display unit 4 can be configured with a lighter display device, and the image composition device 1 can be configured with a higher performance information processing device. is there. Of course, the camera may be configured separately from the information processing terminal.

図7は、画像合成装置1の撮像部2が生成した、マーカーMKを含む実画像データを示す図である。図7に示すとおり、本実施形態においては、マーカーMKは四角い二重枠と、文字情報(KCC)とから構成されている。入力画像解析部611は、実画像データから当該マーカーを抽出して座標変換を行い、図8に示すように、記憶部3に記憶された参照パターンとの一致度RAを算出できるように、マーカー画像の修正を行う。   FIG. 7 is a diagram illustrating real image data including the marker MK generated by the imaging unit 2 of the image composition device 1. As shown in FIG. 7, in this embodiment, the marker MK is composed of a square double frame and character information (KCC). The input image analysis unit 611 extracts the marker from the actual image data, performs coordinate conversion, and calculates the matching RA with the reference pattern stored in the storage unit 3 as shown in FIG. Correct the image.

図9は、実画像データから抽出したマーカーと参照パターンとの一致度RAの計算例を示す図である。図9の場合、仮想物体判定部612は、実画像データから抽出したマーカーの線をいくつかの特徴点で分割した上で、参照パターンの各特長点とのマッチングを行い、マーカーと参照パターンとの一致度RAを算出する。例えば、参照パターンの特徴点64点のうち、マーカーの特徴点56点が一致した場合、一致度RAは87.5%となる。   FIG. 9 is a diagram illustrating a calculation example of the degree of coincidence RA between the marker extracted from the actual image data and the reference pattern. In the case of FIG. 9, the virtual object determination unit 612 divides the marker line extracted from the real image data by several feature points, performs matching with each feature point of the reference pattern, The degree of matching RA is calculated. For example, when the 56 feature points of the marker among 64 feature points of the reference pattern match, the matching degree RA is 87.5%.

図10は、マーカー上に表示されたユーザが操作可能な仮想物体と当該仮想物体へのユーザ入力例を示す図である。図10(b)のようにユーザの入力が仮想物体に行われると、仮想物体判定部612は、図11に示すように、ユーザ入力が障害物として含まれるマーカーと、記憶部3に記憶されている参照パターンとを比較して、一致度RAを算出することになる。   FIG. 10 is a diagram illustrating a virtual object that can be operated by the user displayed on the marker and an example of user input to the virtual object. When the user input is performed on the virtual object as illustrated in FIG. 10B, the virtual object determination unit 612 is stored in the storage unit 3 with the marker including the user input as an obstacle as illustrated in FIG. The degree of coincidence RA is calculated by comparing with the reference pattern.

図12は、画像合成装置1が維持閾値Mを設定した場合の、マーカーと参照パターンとの一致度RAと仮想物体表示との関係を示す図である。図12に示すように、時刻t0までは仮想物体へのユーザ入力が行われないため、一致度RAが生成閾値Gを上回り、仮想物体の表示が継続して行われる。時刻t0において、図10(b)に示すようにユーザ入力が行われると、一致度RAは低下することになる。しかし、本発明に係る画像合成装置1は、図4のステップ211において、仮想物体判定部が仮想物体の表示を維持するかどうかを判定するための維持閾値Mを設定している。そのため、ユーザ入力によって一致度RAが低下したとしても、当該一致度RAが維持閾値Mより高い限りは、仮想物体の表示が維持されることになる。   FIG. 12 is a diagram illustrating a relationship between the matching degree RA between the marker and the reference pattern and the virtual object display when the image composition device 1 sets the maintenance threshold value M. As shown in FIG. 12, since no user input is performed on the virtual object until time t0, the matching degree RA exceeds the generation threshold G, and the virtual object is continuously displayed. When a user input is performed at time t0 as shown in FIG. 10B, the matching degree RA decreases. However, the image composition device 1 according to the present invention sets a maintenance threshold M for the virtual object determination unit to determine whether or not to maintain the display of the virtual object in Step 211 of FIG. For this reason, even if the matching level RA is reduced by the user input, as long as the matching level RA is higher than the maintenance threshold M, the display of the virtual object is maintained.

このように、本実施形態によれば、仮想物体判定部612は、マーカー上に仮想物体が表示された後、一致度RAを判定する閾値Sに、仮想物体を生成するかどうかを判定するための生成閾値Gよりも低い、当該仮想物体の表示を維持するかどうかを判定するための維持閾値Mを設定するため、仮想物体が表示された後にマーカーと参照パターンとの一致度RAが低下した場合でも、継続して仮想物体を表示することができる。換言すると、制御部6は、実画像と仮想物体とを合成した後、マーカーと参照パターンとの一致度RAが第1の閾値(生成閾値G)よりも低い第2の閾値(維持閾値M)以下になるまで仮想物体を消去しないように制御するため、仮想物体が表示された後にマーカーと参照パターンとの一致度RAが低下した場合でも、継続して仮想物体を表示することができる。   As described above, according to the present embodiment, the virtual object determination unit 612 determines whether or not to generate a virtual object at the threshold S for determining the matching degree RA after the virtual object is displayed on the marker. In order to set a maintenance threshold M that is lower than the generation threshold G for determining whether to maintain the display of the virtual object, the matching degree RA between the marker and the reference pattern has decreased after the virtual object is displayed. Even in this case, the virtual object can be continuously displayed. In other words, the control unit 6 synthesizes the real image and the virtual object, and then the second threshold (maintenance threshold M) in which the degree of coincidence RA between the marker and the reference pattern is lower than the first threshold (generation threshold G). Since control is performed so that the virtual object is not erased until the following is reached, the virtual object can be continuously displayed even when the degree of coincidence RA between the marker and the reference pattern decreases after the virtual object is displayed.

また、本実施形態によれば、仮想物体生成部613は、仮想物体をユーザが操作可能な仮想物体として生成するため、ユーザに対して、実画像と関連付けられた多様なUIを表示することが可能となる。特に、仮想物体を3次元的に構成することによって、よりリアリティがあり、実画像との親和性の高いUIをユーザに対して提供することが可能となる。   In addition, according to the present embodiment, the virtual object generation unit 613 generates a virtual object as a virtual object that can be operated by the user, so that various UIs associated with the real image can be displayed to the user. It becomes possible. In particular, by configuring a virtual object three-dimensionally, it is possible to provide a user with a UI that is more realistic and has a high affinity with a real image.

また、本実施形態によれば、生成閾値Gを高く設定することが可能であり、生成閾値Gを高く設定した場合、一致度RAが高いときのみ仮想物体を生成するため、マーカーを誤認識する確率を大きく低減させることができる。また、維持閾値Mを低く設定することが可能であり、維持閾値Mを低く設定した場合、マーカー上にユーザの指などの障害物が入っても仮想物体の表示が維持されるため、ユーザは仮想上のUI(仮想物体)を気兼ねなく操作することが可能となる。   Further, according to the present embodiment, the generation threshold G can be set high. When the generation threshold G is set high, a virtual object is generated only when the matching degree RA is high. Probability can be greatly reduced. In addition, the maintenance threshold M can be set low, and when the maintenance threshold M is set low, the display of the virtual object is maintained even if an obstacle such as the user's finger enters the marker. A virtual UI (virtual object) can be operated without hesitation.

図13は、仮想物体に対するユーザ入力がなくなった後に、一致度RAを判定する閾値Sを、維持閾値Mから生成閾値Gに戻す場合の仮想物体表示例を示す図である。なお、本発明に係る画像合成装置1が、複数のマーカーに対して仮想物体を表示できることは上述の通りである。図14は、仮想物体に対するユーザ入力(マーカーに対する障害物)がなくなった場合の、一致度RAの推移を示す図である。時刻t0においてユーザ入力がなくなると、マーカーに対する障害物が除去されることになるので、一致度RAは上昇する。時刻t1において、一致度RAが生成閾値Gと同等になると、仮想物体判定部612は、維持閾値Mを消去して、一致度RAを判定する閾値Sを、維持閾値Mから生成閾値Gに戻す。   FIG. 13 is a diagram illustrating a virtual object display example when the threshold value S for determining the matching degree RA is returned from the maintenance threshold value M to the generation threshold value G after the user input to the virtual object is lost. As described above, the image composition device 1 according to the present invention can display virtual objects for a plurality of markers. FIG. 14 is a diagram illustrating the transition of the matching degree RA when there is no user input to the virtual object (an obstacle to the marker). When there is no user input at time t0, the obstacle to the marker is removed, so the matching degree RA increases. When the coincidence RA becomes equal to the generation threshold G at time t1, the virtual object determination unit 612 deletes the maintenance threshold M and returns the threshold S for determining the coincidence RA from the maintenance threshold M to the generation threshold G. .

このように、本実施形態によれば、仮想物体判定部612が、仮想物体に対するユーザ入力(マーカーに対する障害物)がなくなった後に、維持閾値Mを消去して閾値Sを維持閾値Mから生成閾値Gに戻すと、閾値Sが上昇することになるため、マーカーに対して誤った仮想物体が表示されることを防ぐことが可能となる。そのため、閾値Sを下げることにより誤認識率が高くなるという問題を回避し、ユーザにとってのユーザビリティを高める事ができる。   As described above, according to the present embodiment, the virtual object determination unit 612 deletes the maintenance threshold M and the threshold S is generated from the maintenance threshold M after the user input to the virtual object (an obstacle to the marker) disappears. When the value is returned to G, the threshold value S increases, so that it is possible to prevent an erroneous virtual object from being displayed with respect to the marker. Therefore, it is possible to avoid the problem that the false recognition rate is increased by lowering the threshold value S, and to improve the usability for the user.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各機能部などは論理的に矛盾しないように再配置可能であり、複数の機能部を1つに組み合わせたり、或いは分割したりすることが可能である。   Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, each functional unit can be rearranged so as not to be logically contradictory, and a plurality of functional units can be combined into one or divided.

1 画像合成装置
2 撮像部
3 記憶部
31 アプリケーション
32 参照パターン情報
33 仮想物体情報
6 制御部
61 AR制御部
611 入力画像解析部
612 仮想物体判定部
613 仮想物体生成部
614 仮想物体操作部
DESCRIPTION OF SYMBOLS 1 Image composition apparatus 2 Imaging part 3 Storage part 31 Application 32 Reference pattern information 33 Virtual object information 6 Control part 61 AR control part 611 Input image analysis part 612 Virtual object determination part 613 Virtual object generation part 614 Virtual object operation part

Claims (2)

実画像と仮想物体とを合成し、該合成画像を表示装置に表示させるための画像合成装置であって、
コンピュータグラフィックス技術を用いて仮想物体を生成する仮想物体生成部と、
前記仮想物体に対応する参照パターンを記憶する記憶部と、
被写体を撮影し、実画像を生成する実画像生成部と、
前記実画像から検出されるマーカーと前記参照パターンとを比較し、一致度が第1の閾値以上の参照パターンに対応する仮想物体を前記仮想物体生成部により生成して前記実画像と合成し、
該合成後、前記マーカーと前記参照パターンとの一致度が第1の閾値よりも低い第2の閾値以下になるまで前記仮想物体を消去しないように制御する制御部と、
を備える画像合成装置。
An image synthesizing device for synthesizing a real image and a virtual object and displaying the synthesized image on a display device,
A virtual object generation unit that generates a virtual object using computer graphics technology;
A storage unit for storing a reference pattern corresponding to the virtual object;
A real image generation unit that shoots a subject and generates a real image;
The marker detected from the real image is compared with the reference pattern, a virtual object corresponding to a reference pattern having a matching degree equal to or higher than a first threshold is generated by the virtual object generation unit, and combined with the real image,
A controller that controls the virtual object not to be erased until the degree of coincidence between the marker and the reference pattern is equal to or lower than a second threshold lower than the first threshold after the synthesis;
An image synthesizing apparatus.
前記仮想物体生成部は、ユーザが操作可能な前記仮想物体を作成することを特徴とする請求項1に記載の画像合成装置。   The image synthesis apparatus according to claim 1, wherein the virtual object generation unit creates the virtual object that can be operated by a user.
JP2009077802A 2009-03-26 2009-03-26 Image synthesizer Active JP5236546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009077802A JP5236546B2 (en) 2009-03-26 2009-03-26 Image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009077802A JP5236546B2 (en) 2009-03-26 2009-03-26 Image synthesizer

Publications (2)

Publication Number Publication Date
JP2010231459A true JP2010231459A (en) 2010-10-14
JP5236546B2 JP5236546B2 (en) 2013-07-17

Family

ID=43047215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009077802A Active JP5236546B2 (en) 2009-03-26 2009-03-26 Image synthesizer

Country Status (1)

Country Link
JP (1) JP5236546B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012059292A (en) * 2011-12-09 2012-03-22 Nintendo Co Ltd Image display program, image display device, image display system, and image display method
WO2012063593A1 (en) * 2010-11-08 2012-05-18 株式会社エヌ・ティ・ティ・ドコモ Object display device and object display method
JP2012174243A (en) * 2011-02-24 2012-09-10 Kyocera Corp Mobile information device and virtual information display program
WO2012137463A1 (en) * 2011-04-08 2012-10-11 Sony Corporation Image processing apparatus, display control method and program
WO2013035758A1 (en) * 2011-09-06 2013-03-14 Necビッグローブ株式会社 Information display system, information display method, and storage medium
JP2013206322A (en) * 2012-03-29 2013-10-07 Sony Corp Information processor, information processing system and information processing method
JP2015069512A (en) * 2013-09-30 2015-04-13 株式会社Nttドコモ Information processing apparatus and information processing method
US9710967B2 (en) 2011-08-31 2017-07-18 Nintendo Co., Ltd. Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250950A (en) * 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> Marker presentation portable terminal, expanded sense of reality system, and its operation method
JP2006313549A (en) * 2005-05-03 2006-11-16 Seac02 Srl Augmented reality system for identifying real marker object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250950A (en) * 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> Marker presentation portable terminal, expanded sense of reality system, and its operation method
JP2006313549A (en) * 2005-05-03 2006-11-16 Seac02 Srl Augmented reality system for identifying real marker object

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9171388B2 (en) 2010-11-08 2015-10-27 Ntt Docomo, Inc. Object display device and object display method
WO2012063593A1 (en) * 2010-11-08 2012-05-18 株式会社エヌ・ティ・ティ・ドコモ Object display device and object display method
JP2012103789A (en) * 2010-11-08 2012-05-31 Ntt Docomo Inc Object display device and object display method
JP2012174243A (en) * 2011-02-24 2012-09-10 Kyocera Corp Mobile information device and virtual information display program
WO2012137463A1 (en) * 2011-04-08 2012-10-11 Sony Corporation Image processing apparatus, display control method and program
JP2012221250A (en) * 2011-04-08 2012-11-12 Sony Corp Image processing system, display control method and program
US10930083B2 (en) 2011-04-08 2021-02-23 Sony Corporation Image processing apparatus and display control method
US10395429B2 (en) 2011-04-08 2019-08-27 Sony Corporation Image processing apparatus and display control method
US9269002B2 (en) 2011-04-08 2016-02-23 Sony Corporation Image processing apparatus, display control method and program
US9710967B2 (en) 2011-08-31 2017-07-18 Nintendo Co., Ltd. Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique
US9459706B2 (en) 2011-09-06 2016-10-04 Biglobe, Inc. Information display system, information display method, and recording medium
JP2013054661A (en) * 2011-09-06 2013-03-21 Nec Biglobe Ltd Information display system, information display method and program for information display
WO2013035758A1 (en) * 2011-09-06 2013-03-14 Necビッグローブ株式会社 Information display system, information display method, and storage medium
JP2012059292A (en) * 2011-12-09 2012-03-22 Nintendo Co Ltd Image display program, image display device, image display system, and image display method
JP2013206322A (en) * 2012-03-29 2013-10-07 Sony Corp Information processor, information processing system and information processing method
US9824497B2 (en) 2012-03-29 2017-11-21 Sony Corporation Information processing apparatus, information processing system, and information processing method
US10198870B2 (en) 2012-03-29 2019-02-05 Sony Corporation Information processing apparatus, information processing system, and information processing method
JP2015069512A (en) * 2013-09-30 2015-04-13 株式会社Nttドコモ Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP5236546B2 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
JP5236546B2 (en) Image synthesizer
JP6119889B2 (en) Information processing system, processing method thereof, and program
KR101250619B1 (en) Augmented reality system and method using virtual user interface
US9911231B2 (en) Method and computing device for providing augmented reality
KR101227255B1 (en) Marker size based interaction method and augmented reality system for realizing the same
US20060050070A1 (en) Information processing apparatus and method for presenting image combined with virtual image
JP6192483B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
KR20170095834A (en) System and method for immersive and interactive multimedia generation
JP2009031948A (en) Image generation device, method, program, and recording medium
JP2009031947A (en) Image generation device, method, program, and recording medium
WO2002031773A1 (en) Image processing apparatus, image processing method, record medium, computer program, and semiconductor device
JP2010026818A (en) Image processing program, image processor, and image processing method
JP2008250813A (en) Image creating device, image processing method, and program
JP7496403B2 (en) Display terminal
JP3983624B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded
US20130157762A1 (en) Game device, method of controlling a game device, and information storage medium
JP2007004318A (en) Image processing method, program for executing image processing and storage medium with its program stored
JP2022183213A (en) Head-mounted display
JP2008146608A5 (en)
US11562564B2 (en) Recording medium, information processing system, and display method
JP2005149209A (en) Method and device for compound reality presentation
JP3639286B2 (en) GAME PROGRAM AND GAME DEVICE
US20230215121A1 (en) Method and apparatus for providing user-interactive customized interaction for xr real object transformation
JP2005107967A (en) Image composition apparatus and method
CN110827411B (en) Method, device, equipment and storage medium for displaying augmented reality model of self-adaptive environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5236546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3