JP3913076B2 - Image composition processing device - Google Patents
Image composition processing device Download PDFInfo
- Publication number
- JP3913076B2 JP3913076B2 JP2002043123A JP2002043123A JP3913076B2 JP 3913076 B2 JP3913076 B2 JP 3913076B2 JP 2002043123 A JP2002043123 A JP 2002043123A JP 2002043123 A JP2002043123 A JP 2002043123A JP 3913076 B2 JP3913076 B2 JP 3913076B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- image
- virtual space
- space image
- composition processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、2系統以上の実写映像と仮想画像を実時間で合成する画像合成処理装置に関する。
【0002】
【従来の技術】
2系統の実写映像の入力の同期をとる方法としては、2系統のNTSCのビデオ信号のそれぞれを、1つのビデオ信号のODDフィールドとEVENフィールドに割り当て、1つのNTSC信号にしてから、それを単一の入力装置で1フレーム分同時に取り込むという方法があった。
【0003】
また、非同期に2系統の実写映像を取り込み表示する場合でも、30fps程度の処理速度が保たれていれば、複数の入力映像の同期ずれは、実用上大きな問題にならない程度に抑える事がきる。
【0004】
図3、図4は従来例の非同期に2系統の実写映像を取り込む場合の内部的な処理に関する部分のフローと概念図である。図3では、図1および図2に示されるシステムに適用した場合の処理手順について説明する。
【0005】
処理装置おいて複合現実空間映像を生成する手順を、図3のフローチャートに基づいて説明する。
【0006】
まず、位置センサ本体から送信されてきた視点位置および視線方向、手の位置および方向を取り込む(ステップS301)。なお、ステップS301では、位置センサ本体から送信されてきた視点位置および視線方向、手の位置および方向を定期的に取り込むスレッドS311を利用する。
【0007】
次に、仮想空間の時間を更新し、仮想空間の状態(仮想空間物体の種類、位置、状態)を更新する(ステップS302)。このとき、現実空間物体の位置方向に同期して位置方向が変化する仮想空間物体がある場合は、それらも合わせて状態を更新する。例えば、手の上に常に仮想物体のキャラクタが乗っているように見せる場合は、このステップS302でグローブの位置方向が更新される。
【0008】
次に、現実空間物体の位置方向(手の位置、視点位置)と仮想空間物体の位置方向の関係を調べ、予め定義されているイベントが発生したと判断される場合には、そのイベントに応じて仮想空間の状態を更新する(ステップS303)。例えば、手で仮想空間物体に触れた場合に仮想空間物体を爆発させること等が考えられる。
【0009】
次に、ビデオカメラ111から得られた観察者の視点位置および視線方向での現実空間映像を取り込む(ステップS304)。このステップS304では、ビデオカメラ111から得られた現実空間映像をビデオキャプチャーカードから定期的に取得するスレッドS314を利用する。
【0010】
そして、ステップS301で取得した観察者の視点位置および視線方向からの仮想空間映像を、ステップS302,S303で更新された仮想空間の状態に応じて生成する(ステップS305)。例えばここで、170、171に示すような仮想キャラクタが、あたかも現実空間に存在するかのように描画される。
【0011】
最後に、ステップS305で生成された仮想空間映像と、ステップS304で取り込まれた現実空間映像を合成し、HMD110のLCD112に出力する(ステップS306)。
【0012】
以上の処理を、何らかの終了操作が行われるまで(ステップS307)、繰り返し実行する。
【0013】
つぎに図3のS304、S314について図4の現実空間画像取得の概念図を使って詳しく説明する。
【0014】
S314では図3のフローの繰り返しのレートと同じレートでS314の映像キャプチャスレッドが動作する。つまり、画像の表示レートとキャプチャレートが同一である。
【0015】
例として表示内容が非常に多く10fps程度の表示しかできない場合のS314の処理内容について説明する。
【0016】
450右目用キャプチャーボード、451左目用キャプチャーボードは左右非同期に動作しており、表示のレートに合わせて、それぞれ10fpsでそれぞれ、492右目用画像バッファ、左目用画像バッファに現実空間画像を記録する。左右非同期で10fpsである事から、ここで記録される画像は最大で1/6秒、平均でも1/12秒程度ずれを生じてしまう。この時間のずれは、人にとって十分認識できるずれであり、現実空間画像の変化が大きい場面においては立体視が不可能になってしまう。
【0017】
【発明が解決しようとする課題】
2系統のNTSCのビデオ信号のそれぞれを、1つのビデオ信号のODDフィールドとEVENフィールドに割り当て、1つのNTSC信号にしてから、それを単一の入力装置で1フレーム分同時に取り込むという方法では、以下のような問題点がある。
・2つのビデオ信号を一つに合成する特殊な装置が必要で高価である。
・合成する時に画質が劣化する。EVEN、ODDのフィールドを使うため縦方向の解像度が1/2に低下する。
・合成装置の内部で遅れが生じる。
・入力に一般的なフィールドシーケンスシャルのカメラを用いた場合、2系統の画像に1/60秒の定常的なずれを生じてしまう。
【0018】
一方、非同期に2系統の実写映像を取り込む場合には30fpsの処理速度が必須なり、高性能な装置が高価となる。もしくは表示内容を充実させようとした場合に、処理能力不足のため実現できなくなるか、処理速度が低下し、左右の実写映像の同期がずれてしまい、立体視できなくなってしまうといった現象が生じる。
【0019】
本発明は、安価な装置で、2系統以上の実写映像の各々に仮想空間画像を合成した合成画像を同期ずれなく実時間で表示可能にすることを目的とする。
【0020】
【課題を解決するための手段】
上述の目的を達成するために本発明は以下の構成を有することを特徴とする。
【0021】
本願請求項1の発明は、2系統以上の実写映像に仮想空間画像を合成して出力する画像合成処理装置において、複数のカメラそれぞれから送られてくるビデオ信号のフレームレートとほぼ同じ高フレームレートにて、各カメラからのビデオ信号を非同期にてバッファーに記憶する手段と、前記フレームレートとは非同期に、前記各カメラから前記バッファーに最後に記録された画像を同時に取得する手段と、仮想空間画像と前記取得した各画像とを合成する合成手段と、前記合成画像のそれぞれを表示する手段とを有する事を特徴とする。
【0022】
本願請求項3の発明は、撮影された右目用および左目用の実写画像の夫々に仮想空間画像を合成し、リアルタイムにステレオ画像を表示する画像合成処理装置において、各カメラからのビデオ信号を取得し、右目用および左目用の実写画像としてメモリに格納する右目用および左目用のキャブチャボード、前記メモリから読み出された前記右目用および左目用の実写画像に、生成した仮想空間画像を合成し、右目用および左目用の表示画像を生成するグラフィックボードとを有し、前記右目用および左目用のキャブチャボードは夫々が非同期かつ前記グラフィックボードの動作と非同期に高いフレームレートでビデオ信号を取得することを特徴とする。
【0023】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
【0024】
[第1の実施形態]
図1は、本発明の第1の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【0025】
第一の観察者100は、HMD(HeadMountDisplay)110を頭部に、グローブ120を手に装着している。
【0026】
HMD110は、図2に示したように、ビデオカメラ111、LCD112、位置方向測定装置受信機(目用位置センサ)113、光学プリズム114,115で構成されている。ビデオカメラ111は、光学プリズム115によって導かれた観察者の視点位置および視線方向の現実空間映像を撮影する。目用位置センサ113は、観察者の視点位置および視線方向を測定するために利用される。LCD113は、複合現実空間映像を表示し、その映像は光学プリズム114によって観察者の瞳に導かれる。
【0027】
グローブ120には、手用位置センサ121、スピーカ122(図示省略)が内蔵されている。手用位置センサ121は、観察者の手の位置および方向を測定するためのセンサとして利用される。スピーカ122からは手の位置において発生したイベントに応じた音が発生される。この音としては、例えば、手で仮想空間物体に触ったり叩いたりした時の音や、手の位置に同期して表示される仮想空間物体の状態が変わったときに発生する音などが考えられる。
【0028】
130は位置方向測定装置発信機(位置センサ発信機)、131は位置方向測定装置本体(位置センサ本体)である。目用位置センサ113、手用位置センサ121、及び位置センサ発信機130は、位置センサ本体131に接続されている。位置センサ発信機130からは磁気が発信されており、この磁気は、目用位置センサ113、手用位置センサ121で受信される。位置センサ本体131は、目用位置センサ113、手用位置センサ121からの受信強度信号に基づいて、夫々目、手の位置および方向を算出する。ここで、位置方向測定装置としては、米国Polhemus社製FASTRAKなどが利用可能である。
【0029】
140は観察者1人分の複合現実空間映像を生成して、HMD110に表示する処理装置である。この処理装置140は、例えば、パーソナルコンピュータとビデオキャプチャーカード、CG描画機能を有するビデオカード、サウンドカード等で構成される。処理装置140には、HMD110、スピーカ122、位置センサ本体131が接続されている。
【0030】
170は第一の観察者100の手の上に乗っているかの様に複合される仮想キャラクタである。180は第一の観察者の視線を示す。視線は目用位置センサ113、位置センサ発信機130、位置センサ本体131によって計測可能である。
【0031】
第二の観察者101も第一の観察者と同様の構成である。
【0032】
次に、処理装置140において複合現実空間映像を生成する手順を、図8のフローチャートに基づいて説明する。
【0033】
処理装置140は、まず、位置センサ本体131から送信されてきた視点位置および視線方向、手の位置および方向を取り込む(ステップS2001)。なお、ステップS2001では、位置センサ本体131から送信されてきた視点位置および視線方向、手の位置および方向を定期的に取り込むスレッドS2011を利用する。
【0034】
次に、仮想空間の時間を更新し、仮想空間の状態(仮想空間物体の種類、位置、状態)を更新する(ステップS2002)。このとき、現実空間物体の位置方向に同期して位置方向が変化する仮想空間物体がある場合は、それらも合わせて状態を更新する。例えば、手の上に常に仮想物体のキャラクタが乗っているように見せる場合は、このステップS2002でグローブの位置方向が更新される。
【0035】
次に、現実空間物体の位置方向(手の位置、視点位置)と仮想空間物体の位置方向の関係を調べ、予め定義されているイベントが発生したと判断される場合には、そのイベントに応じて仮想空間の状態を更新する(ステップS2003)。例えば、手で仮想空間物体に触れた場合に仮想空間物体を爆発させること等が考えられる。
【0036】
次に、左右両方の現実空間画像バッファをロックして変更不能にする(ステップS2004)。
【0037】
次にバッファに取り込まれている内容で、現実空間描画用の映像を更新する(ステップS2005)。現実空間画像バッファには別処理で、カメラ111からの画像が取り込まれているが、その部分は本実施形態に特有の方式であり詳細は後述する。本実施形態では現実空間画像バッファにカメラからの画像を書き込む処理を、現時空間画像バッファに書き込まれた画像に基づく表示画像の生成を独立、非同期に行っている。
【0038】
ステップS2005で更新した後にはステップS2004でロックしたバッファを開放する。(ステップS2006)
次にステップS2005で更新された現実空間画像を描画する。(ステップS2007)
そして、ステップS2001で取得した観察者の視点位置および視線方向からの仮想空間映像を、ステップS2002,S2003で更新された仮想空間の状態に応じて生成する(ステップS2008)。
【0039】
最後に、ステップS2008で生成された仮想空間映像と、ステップS2007で取り込まれた現実空間映像を合成し、HMD110のLCD112に出力する(ステップS2009)。
【0040】
以上の処理を、何らかの終了操作が行われるまで(ステップS2010)、繰り返し実行する。
【0041】
これらの一連の処理はステップS2008で描画される仮想空間映像の内容等によって処理時間が大きく変わり、1/30秒で処理できない場合が多々生じてしまう。
【0042】
しかしながら、本実施形態では、左右の現実空間画像の時間ずれを問題がないレベルまでに抑制することができる。S2005で更新される実写画像は1/30fpsで更新されている最後に更新された映像であるため、最大でも1/30秒の遅れ、平均では1/60秒の遅れに抑えることができる。つまり、左右の映像の更新に遅れの偏りがでるといった現象を防ぐことができる。
【0043】
図5、図6は、HMD110の外観図であり、図5は撮影部の方向から見た外観図、図6は表示部の方向から見た外観図である。
【0044】
201はHMD表示部である。このHMD表示部201としては、右目用表示201Rと左目用表示部201Lの2つが有り、共にカラー液晶とプリズムを有し、観察者の視点位置および視線方向に対応する複合現実空間映像が表示される。
【0045】
204〜208は、頭部装着用の構成部材である。HMD110を頭部に装着するには、まず、アジャスタ205で長さ調整部206を緩めた状態で頭にかぶる。そして、額装着部208を額に密着させてから側頭装着部204と後頭装着部207を各々側頭部、後頭部に密着させるように、アジャスタ205で長さ調整部206を絞めればよい。
【0046】
203は観察者の視点位置および視線方向の現実空間映像を撮影するためのHMD撮影部であり、このHMD撮影部203としては、右目用撮影部203Rと左目撮影用203Lの2つがあり、共にNTSC方式の小型ビデオカメラにより構成されている。撮影された現実空間映像は、仮想空間映像と重畳されて複合現実空間映像となる。
【0047】
受信機302は、観察者の視点位置および視線方向を測定するための情報として発信機304から発せられた磁気を受信するために利用される。この受信機302のHMD301への取付部としては、受信機接合部200R,200L,200Cの3つが形成されており、これら受信機接合部200R,200L,200Cの任意の接合部に受信機302を着脱自在に取付けることが可能となっている。すなわち、図5,図6では、受信機302は、観察者の視線の進行方向の右側の受信機接合部200Rに取付けられているが、観察者の視線の進行方向の左側の受信機接合部200L、或いは観察者の正中線上の受信機接合部200Cに取付けることも可能である。
【0048】
受信機接合部200R,200L,200Cは、本実施形態では、受信機302を嵌めこんで固定するための差込口を有する構成となつているが、他の着脱自在な接合(取付)方式を採用してもよい。
【0049】
210は受信機信号線であり、受信機接合部200Cの近傍からHMD301の外部に露出している。この受信機信号線210は、受信機接合部200R,200L,200Cの何れにも受信機302を取付けられるように、十分な長さが確保されている。
【0050】
209はHMD表示部201、HMD撮影部203等への信号線や電源供給線、上記受信機信号線210等の各種の線を纏めた結束線材であり、後頭装着部207に取り付けられている。そして、結束線材209中の左右のHMD表示部201R,201L、HMD撮影部203R,203L等への信号線や電源供給線は、各々、左右の側頭装着部204を通っている。
【0051】
図7は、図1のシステムにおける観察者1人分のハードウェア構成を示すブロック図である。処理装置(コンピュータ)307には、右目用ビデオキャプチャーボード350、左目用ビデオキャプチャーボード351、右目用グラフィックボード352、左目用グラフィックボード353、I/Oインターフェース354、ネットワークインターフェース359が搭載されており、これら構成要素は、CPU356、HDD355、メモリ357と接続されている。
【0052】
左右の目用のビデオキャプチャーボード351,350は、夫々、左右の目用のビデオカメラ203L,203Rに接続され、これらビデオカメラ203L,203Rにて撮影された実写映像を本処理装置307で仮想空間映像と合成可能な形式に変換する。また、左右の目用のグラフィックボード353,352は、夫々、左右の目用の表示部(装置)201L,201Rに接続され、これら左右の目用の表示部201L,201Rに対する表示制御を行う。
【0053】
また、I/Oインターフェース354は、位置方向測定装置本体306と接続され、ネットワークインターフェース359は、ネットワーク330と接続されている。
【0054】
次に本実施形態に固有の現実空間画像バッファの処理に関して、コンピュータ140の内部の関連する部分の概念を示した図11と図9を用いて説明する。図10は左目に関する処理で、図9の右目に関する処理と同等である。
【0055】
まず1フレーム分の映像信号の取り込みが右目用キャプチャーカード350で完了するのを待つ(ステップS2101)。次に右目用キャプチャーカード350から1フレーム分の画像を取得する。(ステップS2102)
次にメモリ357中の右目用現実空間画像バッファ2302をロックする(ステップS2103)。このロックによって、更新中の右目用現実空間画像バッファ2302を描画に使ってしまい更新中の乱れた映像を描画してしまうという事を防ぐことができる。
【0056】
次に右目用現実空間画像バッファ2302に現実空間画像をコピーする(ステップS2104)。このときに、バッファが上書きされる事が重要である。画像がキューに積まれて、順番に処理されてしまうと、表示のレートが、キャプチャーのレートよりも遅い場合に、古いデータから順に画像が処理される事になってしまい、以下の分だけ遅れが生じてしまう。
【0057】
遅れ=キューに溜まっている画像の数×1/30秒(キャプチャレートによる)
他の部分の実装方法によってはリングバッファー、ダブルバッファー、などいくつかバッファーを設けて、読み出しと書き込みを同時に行う、コピーの処理を除いて高速化するなどの事も可能であるが、いずれの場合にも、最後に書き込んだバッファーを保持し、描画においては最後に書き込んだ最新の画像を参照する事が本実施形態において重要である。
【0058】
最後に右目用現実空間画像バッファ2302のロックを開放し(S2106)次のフレームの処理を行う。
【0059】
本実施形態の現実空間画像バッファ処理によれば、高いフレームレートでカメラからの画像をキャプチャするので、現実空間映像の遅れを実用上問題ないレベルまで抑え、左右の現実空間映像の時間的差を実用上問題ないレベルにする事が可能である。
【0060】
従来すぐに次のフレームの処理を行わず、最新の画像による描画を待つような処理手順が一般的であったが、そのような方式ではCPU負荷は軽減できるものの、現実空間映像の遅れが目立ってしまう。
【0061】
以上のように、本実施形態によれば、現実空間映像と仮想空間映像を合成して、複合現実感空間映像を生成・表示する装置において、比較的安価な装置においても、現実空間映像の遅れを実用上問題ないレベルまで抑え、左右の現実空間映像の、時間的差も最小にする事が可能である。
【0062】
【発明の効果】
本発明によれば、現実空間映像と仮想空間映像を合成して、複合現実感空間映像を生成・表示する装置において、比較的安価な装置においても、現実空間映像の遅れを実用上問題ないレベルまで抑え、左右の現実空間映像の時間的差も最小にする事が可能である。
【図面の簡単な説明】
【図1】本発明の第3の実施形態を適用した複合現実感システムの概略構成を示すシステム構成図である。
【図2】HMDの構成を示す構成図である。
【図3】従来の複合現実空間映像の生成処理を示すフローチャートである。
【図4】従来のハードウェアの概念図である。
【図5】HMDを撮影部の方向から見た場合の外観図である。
【図6】HMDを表示部の方向から見た場合の外観図である。
【図7】図1のシステムにおける観察者1人分のハードウェア構成を示すブロック図である。
【図8】本発明の複合現実空間映像の生成処理を示すフローチャートである。
【図9】本発明の右目の現実空間映像の処理を示すフローチャートである。
【図10】本発明の右目の現実空間映像の処理を示すフローチャートである。
【図11】図7のハードウエアの中で実施形態分の概念を示す図である。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image composition processing device that synthesizes two or more systems of live-action images and virtual images in real time.
[0002]
[Prior art]
In order to synchronize the input of the two systems of live-action video, each of the two systems of NTSC video signals is assigned to one ODD field and EVEN field of one video signal, and then converted into one NTSC signal. There was a method of simultaneously capturing one frame with one input device.
[0003]
Further, even when two systems of real-captured video are captured and displayed asynchronously, if a processing speed of about 30 fps is maintained, a synchronization shift between a plurality of input videos can be suppressed to a level that does not cause a large problem in practice.
[0004]
FIG. 3 and FIG. 4 are a flow diagram and a conceptual diagram of a part related to internal processing when capturing two systems of live-action images asynchronously in the conventional example. In FIG. 3, a processing procedure when applied to the system shown in FIGS. 1 and 2 will be described.
[0005]
A procedure for generating the mixed reality space video in the processing device will be described based on the flowchart of FIG.
[0006]
First, the viewpoint position and line-of-sight direction, and the position and direction of the hand transmitted from the position sensor main body are captured (step S301). In step S301, a thread S311 that periodically captures the viewpoint position and line-of-sight direction and the position and direction of the hand transmitted from the position sensor main body is used.
[0007]
Next, the time of the virtual space is updated, and the state of the virtual space (the type, position, and state of the virtual space object) is updated (step S302). At this time, if there is a virtual space object whose position and direction change in synchronization with the position and direction of the real space object, the state is updated together with them. For example, when the virtual object character is always displayed on the hand, the glove position direction is updated in step S302.
[0008]
Next, the relationship between the position direction of the real space object (hand position, viewpoint position) and the position direction of the virtual space object is examined, and if it is determined that a predefined event has occurred, The state of the virtual space is updated (step S303). For example, it is conceivable to explode a virtual space object when touching the virtual space object with a hand.
[0009]
Next, the real space image in the observer's viewpoint position and line-of-sight direction obtained from the video camera 111 is captured (step S304). In step S304, a thread S314 that periodically acquires the real space video obtained from the video camera 111 from the video capture card is used.
[0010]
Then, a virtual space image from the viewpoint position and line-of-sight direction of the observer acquired in step S301 is generated according to the state of the virtual space updated in steps S302 and S303 (step S305). For example, here, virtual characters such as 170 and 171 are drawn as if they exist in the real space.
[0011]
Finally, the virtual space image generated in step S305 and the real space image captured in step S304 are combined and output to the
[0012]
The above processing is repeatedly executed until any termination operation is performed (step S307).
[0013]
Next, S304 and S314 in FIG. 3 will be described in detail using the conceptual diagram of real space image acquisition in FIG.
[0014]
In S314, the video capture thread in S314 operates at the same rate as the repetition rate of the flow of FIG. That is, the image display rate and the capture rate are the same.
[0015]
As an example, the processing content of S314 when the display content is very large and can only be displayed at about 10 fps will be described.
[0016]
The 450 right-eye capture board and the 451 left-eye capture board operate asynchronously to the left and right, and record real space images in the 492 right-eye image buffer and the left-eye image buffer at 10 fps, respectively, in accordance with the display rate. Since it is 10 fps in the left and right asynchronization, the image recorded here is shifted by a maximum of 1/6 second and on average about 1/12 second. This time shift is a shift that can be sufficiently recognized by humans, and stereoscopic viewing becomes impossible in a scene where the change in the real space image is large.
[0017]
[Problems to be solved by the invention]
In the method of assigning each of the two NTSC video signals to the ODD field and EVEN field of one video signal and converting it to one NTSC signal, the single input device simultaneously captures it for one frame. There are problems like this.
A special device that synthesizes two video signals into one is necessary and expensive.
・ Image quality deteriorates when compositing. Since the EVEN and ODD fields are used, the vertical resolution is reduced to ½.
・ There is a delay inside the synthesizer.
When a general field sequential camera is used for input, a steady shift of 1/60 seconds occurs between the two images.
[0018]
On the other hand, when asynchronously capturing two systems of live-action video, a processing speed of 30 fps is essential, and a high-performance device becomes expensive. Alternatively, when the display contents are to be enhanced, a phenomenon may occur in which the processing cannot be realized due to insufficient processing capacity, or the processing speed decreases, the left and right live-action images are out of synchronization, and stereoscopic viewing becomes impossible.
[0019]
An object of the present invention is to make it possible to display a synthesized image obtained by synthesizing a virtual space image on each of two or more types of real video images in real time without being out of synchronization.
[0020]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is characterized by having the following configuration.
[0021]
According to the first aspect of the present invention, in an image composition processing apparatus that synthesizes and outputs a virtual space image with two or more systems of live-action images, a high frame rate substantially the same as a frame rate of a video signal sent from each of a plurality of cameras. Means for asynchronously storing video signals from each camera in a buffer, means for simultaneously obtaining the last recorded image from each camera in the buffer asynchronously with the frame rate, and virtual space The image processing apparatus includes combining means for combining the image and each acquired image, and means for displaying each of the combined images.
[0022]
The invention of claim 3 of the present application acquires a video signal from each camera in an image composition processing apparatus that synthesizes a virtual space image with each of the photographed real images for the right eye and the left eye and displays a stereo image in real time. The right-eye and left-eye carburetor boards that are stored in the memory as right-eye and left-eye actual images, and the generated virtual space images are synthesized with the right-eye and left-eye actual images read from the memory. And a graphic board that generates display images for the right eye and the left eye, and the right eye and left eye cab boards are each asynchronous and asynchronous with the operation of the graphic board at a high frame rate. It is characterized by acquiring.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0024]
[First Embodiment]
FIG. 1 is a system configuration diagram showing a schematic configuration of a mixed reality system to which the first embodiment of the present invention is applied.
[0025]
The
[0026]
As shown in FIG. 2, the
[0027]
The globe 120 includes a
[0028]
[0029]
[0030]
A
[0031]
The
[0032]
Next, the procedure for generating the mixed reality space image in the
[0033]
First, the
[0034]
Next, the time of the virtual space is updated, and the state of the virtual space (the type, position, and state of the virtual space object) is updated (step S2002). At this time, if there is a virtual space object whose position and direction change in synchronization with the position and direction of the real space object, the state is updated together with them. For example, in the case where the virtual object character is always displayed on the hand, the glove position direction is updated in step S2002.
[0035]
Next, the relationship between the position direction of the real space object (hand position, viewpoint position) and the position direction of the virtual space object is examined, and if it is determined that a predefined event has occurred, The state of the virtual space is updated (step S2003). For example, it is conceivable to explode a virtual space object when touching the virtual space object with a hand.
[0036]
Next, both the left and right real space image buffers are locked so that they cannot be changed (step S2004).
[0037]
Next, the video for real space drawing is updated with the contents captured in the buffer (step S2005). An image from the camera 111 is captured in a separate process in the real space image buffer, but this portion is a method specific to this embodiment, and will be described in detail later. In the present embodiment, the process of writing the image from the camera in the real space image buffer is performed independently and asynchronously on the basis of the image written in the current space image buffer.
[0038]
After updating in step S2005, the buffer locked in step S2004 is released. (Step S2006)
Next, the real space image updated in step S2005 is drawn. (Step S2007)
Then, a virtual space image from the observer's viewpoint position and line-of-sight direction acquired in step S2001 is generated according to the state of the virtual space updated in steps S2002 and S2003 (step S2008).
[0039]
Finally, the virtual space image generated in step S2008 and the real space image captured in step S2007 are combined and output to the
[0040]
The above processing is repeatedly executed until any termination operation is performed (step S2010).
[0041]
The processing time of these series of processing varies greatly depending on the contents of the virtual space video rendered in step S2008, and there are many cases where processing cannot be performed in 1/30 seconds.
[0042]
However, in the present embodiment, it is possible to suppress the time shift between the left and right physical space images to a level where there is no problem. Since the photographed image updated in S2005 is the last updated image updated at 1/30 fps, it can be suppressed to a delay of 1/30 seconds at the maximum, and an average delay of 1/60 seconds. That is, it is possible to prevent a phenomenon in which there is a delay in updating the left and right videos.
[0043]
5 and 6 are external views of the
[0044]
[0045]
204 to 208 are components for head mounting. In order to mount the
[0046]
Reference numeral 203 denotes an HMD photographing unit for photographing a real space image in the viewpoint position and line-of-sight direction of the observer. The HMD photographing unit 203 includes a right
[0047]
The
[0048]
In this embodiment, the receiver joints 200R, 200L, and 200C have an insertion port for fitting and fixing the
[0049]
[0050]
[0051]
FIG. 7 is a block diagram showing a hardware configuration for one observer in the system of FIG. The processing device (computer) 307 includes a right-eye
[0052]
The left and right eye
[0053]
The I /
[0054]
Next, the processing of the real space image buffer unique to the present embodiment will be described with reference to FIGS. 11 and 9 showing the concept of related parts inside the
[0055]
First, it waits for the capture of the video signal for one frame to be completed by the right-eye capture card 350 (step S2101). Next, an image for one frame is acquired from the right-
Next, the right-eye real space image buffer 2302 in the
[0056]
Then copy the actual air-Maga image right-eye real space image buffer 2302 (step S2104). At this time, it is important that the buffer is overwritten. If images are stacked in a queue and processed in order, if the display rate is slower than the capture rate, the images will be processed in order from the oldest data, and the delay is as follows: Will occur.
[0057]
Delay = number of images in the queue x 1/30 seconds (depending on capture rate)
Depending on the implementation method of other parts, it is possible to provide several buffers such as a ring buffer and double buffer to perform reading and writing at the same time, speeding up except for copy processing, etc. In addition, it is important in the present embodiment that the last written buffer is held and the latest image written last is referred in drawing.
[0058]
Finally, the right-eye real space image buffer 2302 is unlocked (S2106), and the next frame is processed.
[0059]
According to the real space image buffer processing of the present embodiment, the image from the camera is captured at a high frame rate, so that the delay of the real space image is suppressed to a level that does not cause a problem in practice, and the time difference between the left and right real space images is reduced. It is possible to make the level practically no problem.
[0060]
Conventionally, a processing procedure that does not immediately process the next frame and waits for drawing with the latest image has been common, but although such a method can reduce the CPU load, the delay of the real space video is conspicuous End up.
[0061]
As described above, according to the present embodiment, in an apparatus that generates and displays a mixed reality space image by synthesizing a real space image and a virtual space image, even in a relatively inexpensive device, the delay of the real space image is delayed. It is possible to minimize the time difference between the left and right real space images.
[0062]
【The invention's effect】
According to the present invention, in a device that generates and displays a mixed reality space image by synthesizing a real space image and a virtual space image, even in a relatively inexpensive device, the delay of the real space image is at a level that is practically acceptable. It is possible to minimize the time difference between the right and left real space images.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram showing a schematic configuration of a mixed reality system to which a third embodiment of the present invention is applied.
FIG. 2 is a configuration diagram showing a configuration of an HMD.
FIG. 3 is a flowchart showing a conventional mixed reality space video generation process.
FIG. 4 is a conceptual diagram of conventional hardware.
FIG. 5 is an external view when the HMD is viewed from the direction of the photographing unit.
FIG. 6 is an external view when the HMD is viewed from the direction of the display unit.
7 is a block diagram showing a hardware configuration for one observer in the system of FIG. 1. FIG.
FIG. 8 is a flowchart illustrating mixed reality space image generation processing according to the present invention.
FIG. 9 is a flowchart showing processing of a real space image of the right eye according to the present invention.
FIG. 10 is a flowchart showing processing of a real space image of the right eye according to the present invention.
FIG. 11 is a diagram illustrating the concept of the embodiment in the hardware of FIG. 7;
Claims (3)
複数のカメラそれぞれから送られてくるビデオ信号のフレームレートとほぼ同じ高フレームレートにて、各カメラからのビデオ信号を非同期にてバッファーに記憶する手段と、
前記フレームレートとは非同期に、前記各カメラから前記バッファーに最後に記録された画像を同時に取得する手段と、
仮想空間画像と前記取得した各画像とを合成する合成手段と、
前記合成画像のそれぞれを表示する手段とを有することを特徴とする画像合成処理装置。In an image composition processing apparatus that synthesizes and outputs a virtual space image to two or more live-action images,
Means for asynchronously storing the video signal from each camera in a buffer at a high frame rate substantially the same as the frame rate of the video signal sent from each of the plurality of cameras;
Means for simultaneously acquiring the last recorded image in the buffer from each camera asynchronously with the frame rate;
Combining means for combining the virtual space image and each acquired image;
An image composition processing apparatus comprising: means for displaying each of the composite images.
該位置センサによって求められた前記実写映像の位置情報に応じて前記仮想空間画像を生成する生成手段とを有することを特徴とする請求項1記載の画像合成処理装置。A position sensor;
The image composition processing apparatus according to claim 1, further comprising a generation unit configured to generate the virtual space image according to position information of the photographed video obtained by the position sensor.
各カメラからのビデオ信号を取得し、右目用および左目用の実写画像としてメモリに格納する右目用および左目用のキャブチャボード、
前記メモリから読み出された前記右目用および左目用の実写画像に、生成した仮想空間画像を合成し、右目用および左目用の表示画像を生成するグラフィックボードとを有し、
前記右目用および左目用のキャブチャボードは夫々が非同期かつ前記グラフィックボードの動作と非同期に高いフレームレートでビデオ信号を取得することを特徴とする画像合成処理装置。In an image composition processing apparatus that synthesizes a virtual space image with each of the photographed real image for the right eye and the left eye, and displays a stereo image in real time,
A right-eye and left-eye cabchat board that acquires video signals from each camera and stores them in memory as live-action images for the right and left eyes,
A graphic board for synthesizing the generated virtual space image to the right-eye and left-eye live-action images read from the memory, and generating right-eye and left-eye display images;
An image composition processing apparatus, wherein the right-eye and left-eye cabture boards each acquire a video signal at a high frame rate asynchronously and asynchronously with the operation of the graphic board.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002043123A JP3913076B2 (en) | 2002-02-20 | 2002-02-20 | Image composition processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002043123A JP3913076B2 (en) | 2002-02-20 | 2002-02-20 | Image composition processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003244726A JP2003244726A (en) | 2003-08-29 |
JP3913076B2 true JP3913076B2 (en) | 2007-05-09 |
Family
ID=27783014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002043123A Expired - Fee Related JP3913076B2 (en) | 2002-02-20 | 2002-02-20 | Image composition processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3913076B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9648907B2 (en) * | 2005-05-31 | 2017-05-16 | Philip Morris Usa Inc. | Virtual reality smoking system |
JP4679661B1 (en) | 2009-12-15 | 2011-04-27 | 株式会社東芝 | Information presenting apparatus, information presenting method, and program |
US9934573B2 (en) | 2014-09-17 | 2018-04-03 | Intel Corporation | Technologies for adjusting a perspective of a captured image for display |
KR101678861B1 (en) * | 2015-07-28 | 2016-11-23 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
US11284646B2 (en) | 2018-03-22 | 2022-03-29 | Altria Client Services Llc | Augmented reality and/or virtual reality based e-vaping device vapor simulation systems and methods |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10327433A (en) * | 1997-05-23 | 1998-12-08 | Minolta Co Ltd | Display device for composted image |
JP3413127B2 (en) * | 1999-06-11 | 2003-06-03 | キヤノン株式会社 | Mixed reality device and mixed reality presentation method |
-
2002
- 2002-02-20 JP JP2002043123A patent/JP3913076B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003244726A (en) | 2003-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5303685B2 (en) | Augmented reality providing device | |
CN106464854B (en) | Image encodes and display | |
JP4861309B2 (en) | Ghost artifact reduction for rendering 2.5D graphics | |
US8207962B2 (en) | Stereo graphics system based on depth-based image rendering and processing method thereof | |
JP2008146109A (en) | Image processing method and image processor | |
US8421847B2 (en) | Apparatus and method for converting two-dimensional video frames to stereoscopic video frames | |
EP0707287B1 (en) | Image processing apparatus and method | |
WO2019098198A1 (en) | Image generation device, head-mounted display, image generation system, image generation method, and program | |
JP3913076B2 (en) | Image composition processing device | |
JP2002271817A (en) | Composite virtual reality system, head mount display device and image generating method | |
JP2004274642A (en) | Transmission method for three dimensional video image information | |
JP2020167600A (en) | Image processing method, image processing apparatus, and head-mounted display | |
US7034819B2 (en) | Apparatus and method for generating an interleaved stereo image | |
CN113382224A (en) | Interactive handle display method and device based on holographic sand table | |
JPH1188912A (en) | Compound eye camera and display control method for the compound eye camera | |
JPH11187425A (en) | Stereoscopic video system and method | |
WO2019073925A1 (en) | Image generation device and image generation method | |
JP2000258697A (en) | Stereoscopic endoscopic system | |
JP6614835B2 (en) | COMMUNICATION DEVICE, HEAD MOUNT DISPLAY, IMAGE PROCESSING SYSTEM, COMMUNICATION METHOD, AND PROGRAM | |
JP2019062397A (en) | Image processing apparatus, image processing system and image processing method | |
JPH10336703A (en) | Image compositing device, its method and storage medium | |
JP2744394B2 (en) | Realism image display device and realism image input / output device | |
JP4249187B2 (en) | 3D image processing apparatus and program thereof | |
JP2004274485A (en) | Stereoscopic image generating apparatus | |
JP3087236B2 (en) | Stereoscopic image synthesis display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3913076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100209 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110209 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120209 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130209 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140209 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |