JP2010231459A - Image synthesizing apparatus - Google Patents
Image synthesizing apparatus Download PDFInfo
- Publication number
- JP2010231459A JP2010231459A JP2009077802A JP2009077802A JP2010231459A JP 2010231459 A JP2010231459 A JP 2010231459A JP 2009077802 A JP2009077802 A JP 2009077802A JP 2009077802 A JP2009077802 A JP 2009077802A JP 2010231459 A JP2010231459 A JP 2010231459A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- marker
- reference pattern
- image
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
この発明は、画像合成装置に関し、特に、実画像と仮想物体とを合成し、該合成画像を表示装置に表示させるための画像合成装置に関する。 The present invention relates to an image synthesizing apparatus, and more particularly to an image synthesizing apparatus for synthesizing a real image and a virtual object and displaying the synthesized image on a display device.
近年、現実の環境から得られる実画像情報に、コンピュータが作り出した情報(例えばコンピュータグラフィックス技術による仮想物体)を重ね合わせて補足的な情報を与える、AR(Augmented Reality)、MR(Mixed Reality)、拡張現実感又は複合現実感と呼ばれる技術が注目されている(以降、AR/MR/拡張現実感/複合現実感に関する技術をまとめて「AR技術」と言うものとする。)。AR技術は、VR(Virtual Reality)と比べ、現実世界とリンクした形で情報を付加するため、ユーザにとって仮想物体と現実世界との関連性が視覚的に分かり易いといった特徴がある。AR技術の方式の一つとして、決まった目印(マーカー)と対応させる仮想物体を設定し、実画像から抽出したマーカーと参照パターンとの一致度が高い場合に、仮想物体を映像中に合成するといった方式がある(例えば特許文献1参照)。 In recent years, AR (Augmented Reality), MR (Mixed Reality) that gives supplemental information by superimposing computer-generated information (for example, virtual objects by computer graphics technology) on real image information obtained from the real environment A technique called augmented reality or mixed reality has attracted attention (hereinafter, AR / MR / augmented reality / mixed reality technologies are collectively referred to as “AR technology”). Compared to VR (Virtual Reality), the AR technology adds information in a form linked to the real world, and thus has a feature that it is easy for the user to visually understand the relationship between the virtual object and the real world. As a method of AR technology, a virtual object to be associated with a predetermined mark (marker) is set, and the virtual object is synthesized in the video when the degree of coincidence between the marker extracted from the real image and the reference pattern is high (For example, refer to Patent Document 1).
図15は、マーカー上に仮想物体を表示するAR技術の一例を示す図である。この場合、AR処理前の画像(図15(a))からマーカーが抽出され、抽出されたマーカーと予め保持してある参照パターンとの一致度が算出される。一致度の高い参照パターンがある場合、抽出されたマーカー上に、参照パターンに対応する仮想物体が合成して表示される(図15(b))。図16は、マーカーと参照パターンとの一致度と、仮想物体表示との関係を示す図である。図16に示すように、マーカーと参照パターンとの一致度がある閾値を上回る場合には仮想物体が表示され、当該閾値を下回る場合には仮想物体は表示されない。 FIG. 15 is a diagram illustrating an example of an AR technique for displaying a virtual object on a marker. In this case, a marker is extracted from the image before AR processing (FIG. 15A), and the degree of coincidence between the extracted marker and a reference pattern held in advance is calculated. When there is a reference pattern with a high degree of coincidence, a virtual object corresponding to the reference pattern is synthesized and displayed on the extracted marker (FIG. 15B). FIG. 16 is a diagram illustrating the relationship between the degree of coincidence between the marker and the reference pattern and the virtual object display. As shown in FIG. 16, when the degree of coincidence between the marker and the reference pattern exceeds a certain threshold value, the virtual object is displayed, and when it falls below the threshold value, the virtual object is not displayed.
しかし、従来のAR技術では、マーカーの一部に障害物が入ると、マーカーと参照パターンとの一致度が低下するため、仮想物体が表示されなくなる。図17(a)に示すように、マーカー上に仮想物体としてユーザからの入力を受け付けるようなUI(User Interface)が表示されている場合、ユーザが当該仮想物体に対して入力操作を行おうとすると、ユーザからの入力(例えば手や入力デバイスなど)がカメラ画像に写りこんでしまう。そのため、ユーザからの入力がマーカーに対する障害物となり、マーカーと参照パターンとの一致度が低下するため、図17(b)に示すように、仮想物体が表示されなくなってしまう。図18は、マーカーと参照パターンとの一致度と、仮想物体表示との関係を示す図である。この場合、ユーザからの入力によって、一致度が時刻t1において、仮想物体を表示するかどうかを判定する閾値を下回ることになり、UIとして表示されていた仮想物体が消滅してしまうことになる。 However, in the conventional AR technique, when an obstacle enters a part of the marker, the degree of coincidence between the marker and the reference pattern is reduced, and thus the virtual object is not displayed. As shown in FIG. 17A, when a UI (User Interface) that accepts an input from the user as a virtual object is displayed on the marker, the user tries to perform an input operation on the virtual object. The input from the user (for example, a hand or an input device) is reflected in the camera image. For this reason, the input from the user becomes an obstacle to the marker, and the degree of coincidence between the marker and the reference pattern decreases, so that the virtual object is not displayed as shown in FIG. FIG. 18 is a diagram illustrating the relationship between the degree of coincidence between the marker and the reference pattern and the virtual object display. In this case, due to an input from the user, the degree of coincidence falls below a threshold value for determining whether or not to display a virtual object at time t1, and the virtual object displayed as the UI disappears.
かかる問題への対応として、仮想物体を表示するかどうかを判定する閾値を低くして、障害物による仮想物体の消滅を回避するといった方法もあるが、閾値を低く設定した場合には、マーカーを誤認識する確率が高くなり、様々なマーカーに対して誤って仮想物体が表示されるといった問題が発生する。そのため、仮想物体の表示を正確に行うためには、マーカーに対する一致度の閾値を高く設定する必要があった。 As a countermeasure to this problem, there is a method of lowering the threshold for determining whether or not to display a virtual object and avoiding the disappearance of the virtual object due to an obstacle. The probability of misrecognition increases, and there is a problem that virtual objects are displayed erroneously for various markers. For this reason, in order to display the virtual object accurately, it is necessary to set a high threshold value for the degree of coincidence with the marker.
したがって、かかる点に鑑みてなされた本発明の目的は、仮想物体が表示された後にマーカーと参照パターンとの一致度が低下した場合でも、継続して仮想物体を表示可能な画像合成装置を提供することにある。 Therefore, an object of the present invention made in view of such a point is to provide an image composition device capable of continuously displaying a virtual object even when the degree of coincidence between the marker and the reference pattern decreases after the virtual object is displayed. There is to do.
上述した諸課題を解決すべく、第1の発明による画像合成装置は、
実画像と仮想物体とを合成し、該合成画像を表示装置に表示させるための画像合成装置であって、
コンピュータグラフィックス技術を用いて仮想物体を生成する仮想物体生成部と、
前記仮想物体に対応する参照パターンを記憶する記憶部と、
被写体を撮影し、実画像を生成する実画像生成部と、
前記実画像から検出されるマーカーと前記参照パターンとを比較し、一致度が第1の閾値以上の参照パターンに対応する仮想物体を前記仮想物体生成部により生成して前記実画像と合成し、
該合成後、前記マーカーと前記参照パターンとの一致度が第1の閾値よりも低い第2の閾値以下になるまで前記仮想物体を消去しないように制御する制御部と、を備える。
In order to solve the above-described problems, the image composition device according to the first invention provides:
An image synthesizing device for synthesizing a real image and a virtual object and displaying the synthesized image on a display device,
A virtual object generation unit that generates a virtual object using computer graphics technology;
A storage unit for storing a reference pattern corresponding to the virtual object;
A real image generation unit that shoots a subject and generates a real image;
The marker detected from the real image is compared with the reference pattern, a virtual object corresponding to a reference pattern having a matching degree equal to or higher than a first threshold is generated by the virtual object generation unit, and combined with the real image,
And a controller that controls the virtual object not to be erased until the degree of coincidence between the marker and the reference pattern is equal to or lower than a second threshold value lower than the first threshold value after the synthesis.
また、本発明に係る画像合成装置では、前記仮想物体生成部は、ユーザが操作可能な前記仮想物体を作成することができる。 In the image composition device according to the present invention, the virtual object generation unit can create the virtual object that can be operated by a user.
本発明によれば、実画像と仮想物体とを合成して表示した後、マーカーと参照パターンとの一致度が第1の閾値よりも低い第2の閾値以下になるまで仮想物体を消去しないように制御するため、仮想物体が表示された後にマーカーと参照パターンとの一致度が低下した場合でも、継続して仮想物体を表示することができる。 According to the present invention, after a real image and a virtual object are combined and displayed, the virtual object is not erased until the degree of coincidence between the marker and the reference pattern is equal to or lower than a second threshold value lower than the first threshold value. Therefore, even when the degree of coincidence between the marker and the reference pattern decreases after the virtual object is displayed, the virtual object can be continuously displayed.
以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態に係る画像合成装置の概略構成を示す図である。画像合成装置1は、被写体を撮影して実画像データを生成する撮像部2と、記憶部3と、表示部4と、制御部6とを備える。記憶部3は、ARに関するアプリケーションプログラム31と、マーカーと比較する参照パターン情報32と、マーカーと参照パターンとの一致度が高いときに表示する仮想物体情報33とを含んでいる。表示部4は、アプリケーションプログラムに関する表示やAR処理による合成画像を表示する。制御部6は、AR制御部61を含み、AR制御部61は、入力画像解析部611、仮想物体判定部612、仮想物体生成部613、及び仮想物体操作部614を含んでいる。入力画像解析部611は、撮像部2が生成した実画像データを解析し、マーカーの抽出やマーカーの3次元位置及び姿勢の計算を行う。仮想物体判定部612は、入力画像解析部611が抽出したマーカーと参照パターンとの一致度を算出し、一致度が閾値(生成閾値)を越えている場合に、マーカー上に表示すべき仮想物体を選択する。仮想物体生成部613は、一致度が生成閾値を越えているマーカー上に、仮想物体判定部612によって選択された仮想物体をコンピュータグラフィック技術を用いて生成する。仮想物体操作部614は、仮想物体に対してユーザからの入力があった場合、当該ユーザ入力及び仮想物体に対応する制御を行う。
FIG. 1 is a diagram showing a schematic configuration of an image composition device according to an embodiment of the present invention. The
ここで、撮像部2は、カメラ等の任意の好適な撮像装置によって構成することができる。制御部6は、CPU(中央処理装置)等の任意の好適なプロセッサにより構成されるものであって、制御部6の各機能部(AR制御部61、入力画像解析部611、仮想物体判定部612、仮想物体生成部613、仮想物体操作部614)は、当該CPU上で実行されるソフトウェアとして構成したり、又は、各機能部の処理に特化した専用のプロセッサ(例えばDSP(デジタルシグナルプロセッサ))などによって構成することができる。記憶部3は、揮発性メモリ(SRAM等)、不揮発性メモリ(EEPROM等)、又は他の好適な記憶媒体によって構成することができる。表示部4は、液晶ディスプレイなどの任意の好適な表示装置によって構成することができる。
Here, the
なお、上記の通り制御部6は、AR制御部61、入力画像解析部611、仮想物体判定部612、仮想物体生成部613、仮想物体操作部614という機能部を含む構成であり、本実施形態の場合、少なくとも入力画像解析部611及び仮想物体判定部612を含む制御部6が、請求項に記載の「制御部」を構成するものである。また、本実施形態の場合、撮像部2が、本発明の請求項に記載の「実画像生成部」を構成するものである。
As described above, the
また、図1に示す画像合成装置1においては、表示部4を画像合成装置1の内部に含む構成としているが、表示部4を画像合成装置1の外部に備え、例えば、画像合成装置1から独立した表示装置として構成とすることも可能である点に留意されたい。
In the
また、本実施例においては、記憶部3は、実画像から抽出されたマーカーの情報を構造体Mrkとして記憶している。マーカー情報である構造体Mrkは、メンバ変数としてinfo、position、AR、及びPDを含んでいる。infoは、実画像データから抽出したマーカーの座標及び大きさ、色情報等のデータ集合である。positionは、抽出したマーカーに対して表示する仮想物体の位置及び姿勢を示している。ARは、抽出したマーカーに対する仮想物体の表示状態を示すフラグである。PDは、抽出されたマーカーに対応する参照パターンを示すものである。
In the present embodiment, the
これ以降、Mrk(t)[i]という表記は、時刻tの実画像データに含まれるi番目のマーカーの構造体を示すものとする。また、Mrk(t)[i].info、Mrk(t)[i].position、Mrk(t)[i].AR、Mrk(t)[i].PDという表記は、それぞれ、構造体Mrk(t)[i]に含まれるメンバ変数への参照を示すものである。 Hereinafter, the notation Mrk (t) [i] indicates the structure of the i-th marker included in the real image data at time t. In addition, the notation Mrk (t) [i] .info, Mrk (t) [i] .position, Mrk (t) [i] .AR, Mrk (t) [i] .PD (t) Indicates a reference to a member variable included in [i].
図2は、画像合成装置1の動作フローチャートである。画像合成装置1において処理が開始されると、制御部6は、経過時間を表すパラメータtを初期化し(ステップS001)、撮像部2を起動する(ステップS002)。画像合成装置1の操作が継続している間、撮像部2は、定期的に被写体を撮影し、実画像データP(t)を生成する(ステップS003、S004)。入力画像解析部611は、撮像部2から取得した画像データP(t)に対して、実画像データP(t)に含まれるマーカーの抽出といった入力画像解析処理を行う(ステップS005)。仮想物体判定部612は、入力画像解析処理によって抽出されたマーカーと、記憶部3に記憶された参照パターンとの一致度を算出し、抽出されたマーカー上に表示する仮想物体を選択するという仮想物体判定処理を行う(ステップS006)。仮想物体生成部613は、仮想物体判定処理の結果に従い、抽出されたマーカー上に仮想物体を表示するという仮想物体生成処理を行う(ステップS007)。
FIG. 2 is an operation flowchart of the
図3は、図2のステップS005における入力画像解析処理のフローチャートである。入力画像解析部611は、まず、実画像データP(t)に含まれるマーカーを識別するためのカウンタiを初期化する(ステップS101)。次に、入力画像解析部611は、画像データP(t)に対して適切な画像処理を行い、実画像データP(t)に含まれるマーカーを抽出し(ステップS102)、抽出したマーカーの情報を記憶部3のMrk(t)[i].infoに保存する(ステップS103)。なお、上述の通り、このMrk(t)[i].infoは実画像データP(t)から抽出したマーカーの座標や大きさ、色情報等のデータ集合である。また、入力画像解析部611によるマーカーの抽出は、画像処理に関する様々な公知技術によって実現できるものであり、ここでの詳細な説明は行わない。
FIG. 3 is a flowchart of the input image analysis process in step S005 of FIG. First, the input
次に、入力画像解析部611は、初期起動時以外(t>0、ステップS104のYes)、抽出したマーカーと同じマーカーの情報が、すでに記憶部3に記憶されているかどうかを検索する。つまり、入力画像解析部611は、以前の時刻t−1における実画像データから抽出されたマーカー情報の中に、現時刻tにおいて抽出したマーカーと重複したマーカー(以下、このマーカーを「重複マーカー」と言い、重複マーカーの情報をMrk(t-1)により示すものとする。)が存在するかどうかを検索する(ステップS105)。入力画像解析部611は、重複マーカーの情報が記憶部3に記憶されている場合、Mrk(t-1).ARを参照し、重複マーカーに対して仮想物体が表示されているかどうかの判定を行う(ステップS106)。入力画像解析部611は、重複マーカーに対してすでに仮想物体が表示されていれば(Mrk(t-1).AR=ON)、仮想物体の表示を維持するため、現時刻tにおいて抽出したマーカーに対しても、仮想物体を表示させるためのフラグを設定する(Mrk(t)[i].AR=ON)(ステップS107)。なお、初期起動時(t=0、ステップS104のNO)や、重複マーカーが存在しない場合(ステップS105のNO)や、重複マーカーに対して仮想物体が表示されていない場合(ステップS106のNO)には、ステップS107の処理はスキップされる。
Next, the input
次に、入力画像解析部611は、抽出したマーカーのMrk(t)[i].infoを参照し、マーカーの位置及び姿勢を、撮像部2の視点における位置及び姿勢に座標変換し(ステップS108)、座標変換の結果をMrk(t)[i].positionに保存する(ステップS109)。なお、上述の通り、Mrk(t)[i].positionは、仮想物体を表示する位置及び姿勢を示すものである。
Next, the input
入力画像解析部611は、ループ1の処理(ステップS102〜S109)を、実画像データP(t)から抽出したマーカーの数だけ繰り返す。そのため、実画像データP(t)に複数のマーカーが含まれている場合でも、各マーカーに対してループ1の処理が行われることになる。なお、ループ1の処理を繰り返すごとに、実画像データP(t)に含まれるマーカーを識別するためのカウンタiをインクリメント(i++)するため、複数のマーカーの情報が同一の構造体Mrk(t)[i]に保存されることはない。
The input
図4は、図2のステップS006における仮想物体判定処理のフローチャートである。仮想物体判定処理では、仮想物体判定部612は、まず、参照パターンPdを記憶部3の参照パターン情報32から読み出し(ステップS201)、実画像データP(t)に含まれるマーカーを識別するためのカウンタiを初期化する(ステップS202)。次に、仮想物体判定部612は、記憶部3に、有効な参照パターンPd及びマーカー情報Mrkが存在するかを判定し(ステップS203、S204)、存在する場合(参照パターンPd及びマーカー情報MrkがともにNULLではない場合)は以下の処理を行う。
FIG. 4 is a flowchart of the virtual object determination process in step S006 of FIG. In the virtual object determination process, the virtual
まず、ループ1において、仮想物体判定部612は、マーカー情報であるMrk(t)[i].infoを記憶部3から読み出し(ステップS205)、参照パターンPdを識別するためのカウンタkを初期化し、ループ2に入る(ステップS206)。ループ2では、仮想物体判定部612は、現在の(k番目の)参照パターンであるPd(k)が有効であるかを判定し(ステップS207)、Pd(k)が有効である場合、現在の(i番目の)マーカー情報Mrk(t)[i]と、現在の参照パターンであるPd(k)との一致度RAを算出する(ステップS208)。
First, in
このとき、仮想物体判定部612は、Mrk(t)[i].ARを参照し、現在のマーカーに対して仮想物体が生成中であるかどうか判定する(ステップS209)。現在のマーカーに対してまだ仮想物体が生成されていない場合(Mrk(t)[i].AR=OFF)には、仮想物体判定部612は、一致度RAを判定するための閾値Sに、仮想物体を生成するかどうかを判定するための生成閾値Gを代入する(ステップS210)。また、マーカーに対してすでに仮想物体が生成されている場合(Mrk(t)[i].AR=ON)には、仮想物体判定部612は、一致度RAを判定するための閾値Sに、当該仮想物体の表示を維持するかどうかを判定するための維持閾値Mを設定する(ステップS211)。
At this time, the virtual
ここで、生成閾値Gは、マーカーに対して誤った仮想物体が表示されることを避けるため、比較的高い値が設定されるのに対し、維持閾値Mは、例えばユーザの手などがカメラに写りこんで一致度RAが低下した場合にも、仮想物体の表示を維持するためのものであるため、生成閾値Gに比べて相対的に低い値が設定されるものである。 Here, the generation threshold G is set to a relatively high value in order to avoid displaying an erroneous virtual object with respect to the marker, whereas the maintenance threshold M is set such that the user's hand or the like is applied to the camera. Even when the degree of coincidence RA decreases due to reflection, the value is set to be relatively lower than the generation threshold G because it is for maintaining the display of the virtual object.
次に、仮想物体判定部612は、ステップS208において算出した一致度RAと、一致度RAを判定するための閾値Sとの比較を行う(ステップS212)。一致度RAが閾値Sよりも高い場合は、仮想物体判定部612は、現在の(i番目の)マーカー情報Mrk(t)[i]と、現在の(k番目の)参照パターンであるPd(k)とが対応していると判断し、Mrk(t)[i].PDにPd(k)を設定する(ステップS213)。一致度RAが閾値Sよりも低い場合は、仮想物体判定部612は、現在の(i番目の)マーカー情報Mrk(t)[i]と、現在の(k番目の)参照パターンであるPb(k)とが対応していないと判断し、Mrk(t)[i].PDの設定は行わない(ステップS214)。
Next, the virtual
仮想物体判定部612は、ループ1の処理(ステップS205〜S206)を、実画像データP(t)から抽出したマーカーの数だけ繰り返す。また、仮想物体判定部612は、ループ2の処理(ステップS207〜S214)を、記憶部3に記憶されている参照パターンの数だけ、又は、一致度RAが閾値Sよりも高いと判断するまで繰り返す。そのため、仮想物体判定部612は、実画像データP(t)に複数のマーカーが含まれ、記憶部3に複数の参照パターンが記憶されている場合でも、それぞれのマーカーに対して、対応する参照パターンを求めることができる。
The virtual
図5は、図2のステップS007における仮想物体生成処理のフローチャートである。仮想物体生成処理では、まず、仮想物体生成部613は、実画像データP(t)に含まれるマーカーを識別するためのカウンタiを初期化する(ステップS301)。次に、仮想物体生成部613はループ1に入り、現在の(i番目の)マーカーに対応する参照パターンが設定されているかを確認するため、記憶部3のMrk(t)[i].PDを参照する(ステップS302)。Mrk(t)[i].PDに参照パターンが設定されている場合、仮想物体生成部613は、Mrk(t)[i].PDに対応する仮想物体VROを、記憶部3の仮想物体情報33から読み出し(ステップS303)、Mrk(t)[i].positionの位置及び姿勢に基づき、現在のマーカー上に当該仮想物体VROを生成して合成する処理を行う(ステップS304)。合成処理の後、仮想物体生成部613は、現在のマーカー上に仮想物体を表示していることを示すため、Mrk(t)[i].ARをONにする(ステップS305)。なお、ステップS302において、Mrk(t)[i].PDに参照パターンが設定されてない場合、仮想物体生成部613は、現在のマーカー上に仮想物体を表示していないことを示すため、Mrk(t)[i].ARをOFFに設定する(ステップS306)。
FIG. 5 is a flowchart of the virtual object generation process in step S007 of FIG. In the virtual object generation process, first, the virtual
仮想物体生成部613は、ループ1の処理(ステップS302〜S306)を、実画像データP(t)から抽出したマーカーの数だけ繰り返す。そのため、実画像データP(t)に複数のマーカーが含まれている場合でも、各マーカーに対して、仮想物体の生成および合成処理が行われることになる。
The virtual
図6は、本発明の一実施形態に係る仮想物体表示環境を示す図である。本実施形態では、画像合成装置1はカメラ付きHMD(ヘッドマウントディスプレイ)として構成され、ユーザは画像合成装置1を頭部に装着して机の上に置かれたマーカーMKを撮影している。なお、図6の場合、画像合成装置1は、表示部4をHMDとして含んだ構成となっているが、例えば、表示部4に相当するHMDと、画像合成装置1に相当するカメラ付きパソコン等の情報処理端末とを別々の装置として構成することも可能である。表示部4と画像合成装置1とを別々の装置として構成する場合、表示部4をより軽量な表示装置により構成し、画像合成装置1をより高性能な情報処理装置により構成することが可能である。もちろん、カメラも情報処理端末と別々の構成としても良い。
FIG. 6 is a diagram showing a virtual object display environment according to an embodiment of the present invention. In the present embodiment, the
図7は、画像合成装置1の撮像部2が生成した、マーカーMKを含む実画像データを示す図である。図7に示すとおり、本実施形態においては、マーカーMKは四角い二重枠と、文字情報(KCC)とから構成されている。入力画像解析部611は、実画像データから当該マーカーを抽出して座標変換を行い、図8に示すように、記憶部3に記憶された参照パターンとの一致度RAを算出できるように、マーカー画像の修正を行う。
FIG. 7 is a diagram illustrating real image data including the marker MK generated by the
図9は、実画像データから抽出したマーカーと参照パターンとの一致度RAの計算例を示す図である。図9の場合、仮想物体判定部612は、実画像データから抽出したマーカーの線をいくつかの特徴点で分割した上で、参照パターンの各特長点とのマッチングを行い、マーカーと参照パターンとの一致度RAを算出する。例えば、参照パターンの特徴点64点のうち、マーカーの特徴点56点が一致した場合、一致度RAは87.5%となる。
FIG. 9 is a diagram illustrating a calculation example of the degree of coincidence RA between the marker extracted from the actual image data and the reference pattern. In the case of FIG. 9, the virtual
図10は、マーカー上に表示されたユーザが操作可能な仮想物体と当該仮想物体へのユーザ入力例を示す図である。図10(b)のようにユーザの入力が仮想物体に行われると、仮想物体判定部612は、図11に示すように、ユーザ入力が障害物として含まれるマーカーと、記憶部3に記憶されている参照パターンとを比較して、一致度RAを算出することになる。
FIG. 10 is a diagram illustrating a virtual object that can be operated by the user displayed on the marker and an example of user input to the virtual object. When the user input is performed on the virtual object as illustrated in FIG. 10B, the virtual
図12は、画像合成装置1が維持閾値Mを設定した場合の、マーカーと参照パターンとの一致度RAと仮想物体表示との関係を示す図である。図12に示すように、時刻t0までは仮想物体へのユーザ入力が行われないため、一致度RAが生成閾値Gを上回り、仮想物体の表示が継続して行われる。時刻t0において、図10(b)に示すようにユーザ入力が行われると、一致度RAは低下することになる。しかし、本発明に係る画像合成装置1は、図4のステップ211において、仮想物体判定部が仮想物体の表示を維持するかどうかを判定するための維持閾値Mを設定している。そのため、ユーザ入力によって一致度RAが低下したとしても、当該一致度RAが維持閾値Mより高い限りは、仮想物体の表示が維持されることになる。
FIG. 12 is a diagram illustrating a relationship between the matching degree RA between the marker and the reference pattern and the virtual object display when the
このように、本実施形態によれば、仮想物体判定部612は、マーカー上に仮想物体が表示された後、一致度RAを判定する閾値Sに、仮想物体を生成するかどうかを判定するための生成閾値Gよりも低い、当該仮想物体の表示を維持するかどうかを判定するための維持閾値Mを設定するため、仮想物体が表示された後にマーカーと参照パターンとの一致度RAが低下した場合でも、継続して仮想物体を表示することができる。換言すると、制御部6は、実画像と仮想物体とを合成した後、マーカーと参照パターンとの一致度RAが第1の閾値(生成閾値G)よりも低い第2の閾値(維持閾値M)以下になるまで仮想物体を消去しないように制御するため、仮想物体が表示された後にマーカーと参照パターンとの一致度RAが低下した場合でも、継続して仮想物体を表示することができる。
As described above, according to the present embodiment, the virtual
また、本実施形態によれば、仮想物体生成部613は、仮想物体をユーザが操作可能な仮想物体として生成するため、ユーザに対して、実画像と関連付けられた多様なUIを表示することが可能となる。特に、仮想物体を3次元的に構成することによって、よりリアリティがあり、実画像との親和性の高いUIをユーザに対して提供することが可能となる。
In addition, according to the present embodiment, the virtual
また、本実施形態によれば、生成閾値Gを高く設定することが可能であり、生成閾値Gを高く設定した場合、一致度RAが高いときのみ仮想物体を生成するため、マーカーを誤認識する確率を大きく低減させることができる。また、維持閾値Mを低く設定することが可能であり、維持閾値Mを低く設定した場合、マーカー上にユーザの指などの障害物が入っても仮想物体の表示が維持されるため、ユーザは仮想上のUI(仮想物体)を気兼ねなく操作することが可能となる。 Further, according to the present embodiment, the generation threshold G can be set high. When the generation threshold G is set high, a virtual object is generated only when the matching degree RA is high. Probability can be greatly reduced. In addition, the maintenance threshold M can be set low, and when the maintenance threshold M is set low, the display of the virtual object is maintained even if an obstacle such as the user's finger enters the marker. A virtual UI (virtual object) can be operated without hesitation.
図13は、仮想物体に対するユーザ入力がなくなった後に、一致度RAを判定する閾値Sを、維持閾値Mから生成閾値Gに戻す場合の仮想物体表示例を示す図である。なお、本発明に係る画像合成装置1が、複数のマーカーに対して仮想物体を表示できることは上述の通りである。図14は、仮想物体に対するユーザ入力(マーカーに対する障害物)がなくなった場合の、一致度RAの推移を示す図である。時刻t0においてユーザ入力がなくなると、マーカーに対する障害物が除去されることになるので、一致度RAは上昇する。時刻t1において、一致度RAが生成閾値Gと同等になると、仮想物体判定部612は、維持閾値Mを消去して、一致度RAを判定する閾値Sを、維持閾値Mから生成閾値Gに戻す。
FIG. 13 is a diagram illustrating a virtual object display example when the threshold value S for determining the matching degree RA is returned from the maintenance threshold value M to the generation threshold value G after the user input to the virtual object is lost. As described above, the
このように、本実施形態によれば、仮想物体判定部612が、仮想物体に対するユーザ入力(マーカーに対する障害物)がなくなった後に、維持閾値Mを消去して閾値Sを維持閾値Mから生成閾値Gに戻すと、閾値Sが上昇することになるため、マーカーに対して誤った仮想物体が表示されることを防ぐことが可能となる。そのため、閾値Sを下げることにより誤認識率が高くなるという問題を回避し、ユーザにとってのユーザビリティを高める事ができる。
As described above, according to the present embodiment, the virtual
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各機能部などは論理的に矛盾しないように再配置可能であり、複数の機能部を1つに組み合わせたり、或いは分割したりすることが可能である。 Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, each functional unit can be rearranged so as not to be logically contradictory, and a plurality of functional units can be combined into one or divided.
1 画像合成装置
2 撮像部
3 記憶部
31 アプリケーション
32 参照パターン情報
33 仮想物体情報
6 制御部
61 AR制御部
611 入力画像解析部
612 仮想物体判定部
613 仮想物体生成部
614 仮想物体操作部
DESCRIPTION OF
Claims (2)
コンピュータグラフィックス技術を用いて仮想物体を生成する仮想物体生成部と、
前記仮想物体に対応する参照パターンを記憶する記憶部と、
被写体を撮影し、実画像を生成する実画像生成部と、
前記実画像から検出されるマーカーと前記参照パターンとを比較し、一致度が第1の閾値以上の参照パターンに対応する仮想物体を前記仮想物体生成部により生成して前記実画像と合成し、
該合成後、前記マーカーと前記参照パターンとの一致度が第1の閾値よりも低い第2の閾値以下になるまで前記仮想物体を消去しないように制御する制御部と、
を備える画像合成装置。 An image synthesizing device for synthesizing a real image and a virtual object and displaying the synthesized image on a display device,
A virtual object generation unit that generates a virtual object using computer graphics technology;
A storage unit for storing a reference pattern corresponding to the virtual object;
A real image generation unit that shoots a subject and generates a real image;
The marker detected from the real image is compared with the reference pattern, a virtual object corresponding to a reference pattern having a matching degree equal to or higher than a first threshold is generated by the virtual object generation unit, and combined with the real image,
A controller that controls the virtual object not to be erased until the degree of coincidence between the marker and the reference pattern is equal to or lower than a second threshold lower than the first threshold after the synthesis;
An image synthesizing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009077802A JP5236546B2 (en) | 2009-03-26 | 2009-03-26 | Image synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009077802A JP5236546B2 (en) | 2009-03-26 | 2009-03-26 | Image synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010231459A true JP2010231459A (en) | 2010-10-14 |
JP5236546B2 JP5236546B2 (en) | 2013-07-17 |
Family
ID=43047215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009077802A Active JP5236546B2 (en) | 2009-03-26 | 2009-03-26 | Image synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5236546B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012059292A (en) * | 2011-12-09 | 2012-03-22 | Nintendo Co Ltd | Image display program, image display device, image display system, and image display method |
WO2012063593A1 (en) * | 2010-11-08 | 2012-05-18 | 株式会社エヌ・ティ・ティ・ドコモ | Object display device and object display method |
JP2012174243A (en) * | 2011-02-24 | 2012-09-10 | Kyocera Corp | Mobile information device and virtual information display program |
WO2012137463A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Corporation | Image processing apparatus, display control method and program |
WO2013035758A1 (en) * | 2011-09-06 | 2013-03-14 | Necビッグローブ株式会社 | Information display system, information display method, and storage medium |
JP2013206322A (en) * | 2012-03-29 | 2013-10-07 | Sony Corp | Information processor, information processing system and information processing method |
JP2015069512A (en) * | 2013-09-30 | 2015-04-13 | 株式会社Nttドコモ | Information processing apparatus and information processing method |
US9710967B2 (en) | 2011-08-31 | 2017-07-18 | Nintendo Co., Ltd. | Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250950A (en) * | 2004-03-05 | 2005-09-15 | Nippon Telegr & Teleph Corp <Ntt> | Marker presentation portable terminal, expanded sense of reality system, and its operation method |
JP2006313549A (en) * | 2005-05-03 | 2006-11-16 | Seac02 Srl | Augmented reality system for identifying real marker object |
-
2009
- 2009-03-26 JP JP2009077802A patent/JP5236546B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250950A (en) * | 2004-03-05 | 2005-09-15 | Nippon Telegr & Teleph Corp <Ntt> | Marker presentation portable terminal, expanded sense of reality system, and its operation method |
JP2006313549A (en) * | 2005-05-03 | 2006-11-16 | Seac02 Srl | Augmented reality system for identifying real marker object |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9171388B2 (en) | 2010-11-08 | 2015-10-27 | Ntt Docomo, Inc. | Object display device and object display method |
WO2012063593A1 (en) * | 2010-11-08 | 2012-05-18 | 株式会社エヌ・ティ・ティ・ドコモ | Object display device and object display method |
JP2012103789A (en) * | 2010-11-08 | 2012-05-31 | Ntt Docomo Inc | Object display device and object display method |
JP2012174243A (en) * | 2011-02-24 | 2012-09-10 | Kyocera Corp | Mobile information device and virtual information display program |
WO2012137463A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Corporation | Image processing apparatus, display control method and program |
JP2012221250A (en) * | 2011-04-08 | 2012-11-12 | Sony Corp | Image processing system, display control method and program |
US10930083B2 (en) | 2011-04-08 | 2021-02-23 | Sony Corporation | Image processing apparatus and display control method |
US10395429B2 (en) | 2011-04-08 | 2019-08-27 | Sony Corporation | Image processing apparatus and display control method |
US9269002B2 (en) | 2011-04-08 | 2016-02-23 | Sony Corporation | Image processing apparatus, display control method and program |
US9710967B2 (en) | 2011-08-31 | 2017-07-18 | Nintendo Co., Ltd. | Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique |
US9459706B2 (en) | 2011-09-06 | 2016-10-04 | Biglobe, Inc. | Information display system, information display method, and recording medium |
JP2013054661A (en) * | 2011-09-06 | 2013-03-21 | Nec Biglobe Ltd | Information display system, information display method and program for information display |
WO2013035758A1 (en) * | 2011-09-06 | 2013-03-14 | Necビッグローブ株式会社 | Information display system, information display method, and storage medium |
JP2012059292A (en) * | 2011-12-09 | 2012-03-22 | Nintendo Co Ltd | Image display program, image display device, image display system, and image display method |
JP2013206322A (en) * | 2012-03-29 | 2013-10-07 | Sony Corp | Information processor, information processing system and information processing method |
US9824497B2 (en) | 2012-03-29 | 2017-11-21 | Sony Corporation | Information processing apparatus, information processing system, and information processing method |
US10198870B2 (en) | 2012-03-29 | 2019-02-05 | Sony Corporation | Information processing apparatus, information processing system, and information processing method |
JP2015069512A (en) * | 2013-09-30 | 2015-04-13 | 株式会社Nttドコモ | Information processing apparatus and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5236546B2 (en) | 2013-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5236546B2 (en) | Image synthesizer | |
JP6119889B2 (en) | Information processing system, processing method thereof, and program | |
KR101250619B1 (en) | Augmented reality system and method using virtual user interface | |
US9911231B2 (en) | Method and computing device for providing augmented reality | |
KR101227255B1 (en) | Marker size based interaction method and augmented reality system for realizing the same | |
US20060050070A1 (en) | Information processing apparatus and method for presenting image combined with virtual image | |
JP6192483B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
KR20170095834A (en) | System and method for immersive and interactive multimedia generation | |
JP2009031948A (en) | Image generation device, method, program, and recording medium | |
JP2009031947A (en) | Image generation device, method, program, and recording medium | |
WO2002031773A1 (en) | Image processing apparatus, image processing method, record medium, computer program, and semiconductor device | |
JP2010026818A (en) | Image processing program, image processor, and image processing method | |
JP2008250813A (en) | Image creating device, image processing method, and program | |
JP7496403B2 (en) | Display terminal | |
JP3983624B2 (en) | Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded | |
US20130157762A1 (en) | Game device, method of controlling a game device, and information storage medium | |
JP2007004318A (en) | Image processing method, program for executing image processing and storage medium with its program stored | |
JP2022183213A (en) | Head-mounted display | |
JP2008146608A5 (en) | ||
US11562564B2 (en) | Recording medium, information processing system, and display method | |
JP2005149209A (en) | Method and device for compound reality presentation | |
JP3639286B2 (en) | GAME PROGRAM AND GAME DEVICE | |
US20230215121A1 (en) | Method and apparatus for providing user-interactive customized interaction for xr real object transformation | |
JP2005107967A (en) | Image composition apparatus and method | |
CN110827411B (en) | Method, device, equipment and storage medium for displaying augmented reality model of self-adaptive environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130327 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5236546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |