JPH09181972A - Image composition device - Google Patents

Image composition device

Info

Publication number
JPH09181972A
JPH09181972A JP33674295A JP33674295A JPH09181972A JP H09181972 A JPH09181972 A JP H09181972A JP 33674295 A JP33674295 A JP 33674295A JP 33674295 A JP33674295 A JP 33674295A JP H09181972 A JPH09181972 A JP H09181972A
Authority
JP
Japan
Prior art keywords
image
change
fitted
luminance
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33674295A
Other languages
Japanese (ja)
Inventor
Kazunari Hanano
和成 花野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP33674295A priority Critical patent/JPH09181972A/en
Publication of JPH09181972A publication Critical patent/JPH09181972A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image composition device which can bring a virtual world close to an actual world by precisely composting/displaying a real space image and a virtual space image through the use of a luminance signal or a hue signal instead of a blue back signal as a key signal for discriminating an area to which the image is fitted. SOLUTION: An image pickup means 7 picking up the image, an image generation means 4 which is separately provided from the image pickup means 7 and which generates the other image, and an image processing means 8 discriminating a part where a luminance change or a hue change more than a prescribed value timewisely occurs within the range of the image that the image pickup means 7 picks up and a part where the change does not occur and executing an image processing for fitting one part which is previously set in the two discriminated parts to the other image are provided. Then, the luminance signal or the hue signal is used instead of the blue back signal as the key signal for discriminating the area to which the other image is fitted in the image. Thus, the synthesized image where the really taken image and the virtual space image by means of CG coexist is generated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、実写画像の一部に
CG画像をはめ込んで合成画像を生成する画像合成装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus for generating a synthetic image by fitting a CG image into a part of a photographed image.

【0002】[0002]

【従来の技術】最近、現実には存在しない仮想的な世界
の画像を被験者に呈示するための技術である仮想現実
(Virtual Reality ;VR)と呼ばれるシステムを用い
た各種の仮想体験装置が開発されている。このようなV
Rに関する従来技術の典型的な一例を図21に模式的に
示す。被験者1は、図21に示すように頭部装着型の画
像表示装置(HMD)2を装着する。画像表示装置2の
被験者の視点の近傍に被験者の3次元実空間における視
点の位置および視線方向を検出する検出装置(図示せ
ず)を設け、画像表示装置2の被験者の頭部近傍に3次
元空間センサ3を設け、検出した視点位置データ、視線
方向データおよび3次元空間データを画像生成装置4に
入力する。画像生成装置4は、前記視点位置データ、視
線方向データ、3次元空間データおよび仮想空間画像デ
ータベース5からの画像データに基づき演算を行い、前
記視点位置および視線方向から見える世界(仮想空間)
の光景に相当する画像をコンピュータグラフィックス
(CG)により生成して画像表示装置2に出力する。な
お、インタラクティブな装置とする場合には、補助的な
入力装置6からの操作信号により仮想空間画像データベ
ース5の画像データが更新されるように構成する。
2. Description of the Related Art Recently, various virtual experience devices using a system called virtual reality (VR), which is a technique for presenting a subject with an image of a virtual world that does not actually exist, have been developed. ing. Such a V
A typical example of the related art regarding R is schematically shown in FIG. The subject 1 wears a head-mounted image display device (HMD) 2 as shown in FIG. A detection device (not shown) for detecting the position of the viewpoint and the line-of-sight direction of the subject in the three-dimensional real space of the subject is provided near the subject's viewpoint of the image display device 2, and three-dimensionally near the subject's head of the image display device 2. A space sensor 3 is provided, and the detected viewpoint position data, line-of-sight direction data, and three-dimensional space data are input to the image generation device 4. The image generation device 4 performs a calculation based on the viewpoint position data, the line-of-sight direction data, the three-dimensional space data, and the image data from the virtual space image database 5, and a world (virtual space) viewed from the viewpoint position and the line-of-sight direction.
An image corresponding to the scene is generated by computer graphics (CG) and output to the image display device 2. In the case of an interactive device, the image data in the virtual space image database 5 is updated by an operation signal from the auxiliary input device 6.

【0003】このような従来の仮想体験装置では、被験
者の見る世界の全てがCGによる仮想的な画像であるた
め、当然視界にあるはずの被験者の周辺の物体や被験者
の手足は描かれなかったり、描かれていてもCGであっ
たりする。このことは、仮想現実技術の最重要課題であ
るリアリティ、すなわち、いかに仮想の世界を現実の世
界であるかのように感じさせるかという点からいうと望
ましくない。また、リアリティを向上させようとして周
辺に存在する物体等を高精細な画像に描画すると、画像
生成装置の描画処理における負担が大きくなって動画速
度が遅くなり、シミュレーション中の動画像表示の遅延
等の不具合を招いてしまう。この場合、画像生成装置の
処理速度を上げたとしても、描かれる画像はCG画像で
あるため、実写画像(実空間画像)のリアリティを超え
ることはできない。また、不特定多数の人に画像表示装
置2を装着させて各々の画像表示装置2に画像生成装置
4から同一のCG画像を出力することにより、不特定多
数の人がこの仮想体験装置を同時に使用するように構成
した場合には、画像中に個々の人物のCG画像が映るは
ずであるが、それをCGで表現するのは事実上不可能で
あり、この場合にも画像のリアリティが損なわれてしま
う。
In such a conventional virtual experience device, since the entire world viewed by the subject is a virtual image by CG, the objects around the subject and the limbs of the subject, which should be in the visual field, are not drawn. , It may be CG even if it is drawn. This is not desirable from the perspective of reality, which is the most important issue of virtual reality technology, that is, how the virtual world feels as if it were the real world. Further, when an object or the like existing in the vicinity is drawn in a high-definition image in order to improve the reality, the load in the drawing process of the image generation device becomes large, the moving image speed becomes slow, and the delay of the moving image display during the simulation, etc. Will lead to problems. In this case, even if the processing speed of the image generating apparatus is increased, the drawn image is a CG image, and therefore the reality of the photographed image (real space image) cannot be exceeded. In addition, by attaching the image display device 2 to an unspecified number of people and outputting the same CG image from the image generation device 4 to each of the image display devices 2, an unspecified number of people can simultaneously use this virtual experience device. When configured for use, a CG image of an individual person should be reflected in the image, but it is virtually impossible to represent it in CG, and in this case also the reality of the image is impaired. Get lost.

【0004】このような不具合を解消するため、例えば
図1に示すように、頭部装着用の画像表示装置2の被験
者1の視点の上部に実空間画像(実写画像)を撮像する
撮像装置7を設け、この撮像装置7によって撮像された
実写画像と、仮想空間画像データベース5および画像生
成装置4を用いてCGにより生成した仮想空間CG画像
との一方に他方を画像合成装置8によってはめ込む技術
が特開平3−226198号公報、特開平5−3248
00号公報、特開平6−28451号公報特開平6−1
76131号公報、特開平6−268943号公報等に
開示されている。これら従来技術においては、実写画像
およびCG画像の一方に他方をはめ込む際の合成方法と
してクロマキー合成処理が用いられている。
In order to solve such a problem, for example, as shown in FIG. 1, an image pickup device 7 for picking up a real space image (real image) above the viewpoint of the subject 1 of the head-mounted image display device 2. Is provided, and a technique of fitting one of the real image captured by the image capturing device 7 and the virtual space CG image generated by CG using the virtual space image database 5 and the image generating device 4 by the image synthesizing device 8 is provided. JP-A-3-226198 and JP-A-5-3248.
No. 00, Japanese Patent Application Laid-Open No. 6-28451, Japanese Patent Application Laid-Open No. 6-1
No. 76131, Japanese Patent Laid-Open No. 6-268943, and the like. In these conventional techniques, a chroma key combining process is used as a combining method when fitting the other into one of a photographed image and a CG image.

【0005】上記従来のクロマキー合成処理において
は、実写画像およびCG画像の一方を合成用画面とし、
その合成用画面に実写画像およびCG画像の他方をはめ
込むため、その合成用画面内の色相差を弁別してキー信
号としての色信号を抽出し、その色信号に基づいてリア
ルタイムで画像処理を施すことによりCG画像と実写画
像の被写体とを合成する。なお、上記色信号としては、
例えば人物像を合成する場合には、人物像のバックの色
として肌色の補色の青色が選択される。このように、合
成用画面としては、いわゆる「ブルーバック」が使用さ
れるのが一般的である。
In the conventional chroma key composition processing, one of the photographed image and the CG image is used as a composition screen,
In order to fit the other of the photographed image and the CG image into the composition screen, discriminate the hue difference in the composition screen, extract the color signal as the key signal, and perform image processing in real time based on the color signal. The CG image and the subject of the real image are combined by. As the color signal,
For example, when synthesizing a person image, blue, which is a complementary color of the flesh color, is selected as the background color of the person image. As described above, the so-called "blue back" is generally used as the composition screen.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記従
来のクロマキー合成処理においては、例えば、実写画像
中の被写体である人物が青い服を着用している場合に
は、その青い服の部分にもCG画像がはめ込まれてしま
う。このような本来合成してはならないところに画像が
合成されたり、本来合成しなければならないところに画
像が合成されなかったりするといった「誤合成」が生じ
ると、仮想現実において一番重要なリアリティが損なわ
てしまう。
However, in the above-mentioned conventional chroma key composition processing, for example, when the person who is the subject in the photographed image wears blue clothes, the CG also appears in the blue clothes. The image is inset. When "mis-synthesis" occurs, such as when an image is composited where it should not be composited, or when an image is not composited where it should be composited, the most important reality in virtual reality is It will be damaged.

【0007】本発明は上述した問題に鑑みてなされたも
のであり、画像をはめ込む領域を判別するためのキー信
号としてブルーバック信号の代わりに輝度信号または色
相信号を用いて、実空間画像と仮想空間画像とを精度よ
く合成表示することにより、仮想世界をより現実世界に
近づけることができる画像合成装置を提供することを目
的とする。
The present invention has been made in view of the above-mentioned problems, and uses a luminance signal or a hue signal instead of a blue back signal as a key signal for determining an area into which an image is fitted, and a real space image and a virtual image are used. An object of the present invention is to provide an image synthesizing device that can bring a virtual world closer to the real world by accurately synthesizing and displaying a spatial image.

【0008】この目的のため、本発明の請求項1の画像
合成装置は、画像を撮像する撮像手段と、前記撮像手段
とは別途に設けられ他の画像を生成する画像生成手段
と、前記撮像手段が撮像した画像の範囲内で時間的に所
定値以上の輝度変化または色相変化が生じている部分と
生じていない部分とを判別し、判別された2つの部分の
予め設定した一方の部分に前記他の画像をはめ込む画像
処理を行う画像処理手段とを具備して成ることを特徴と
するものである。
To this end, the image synthesizing apparatus according to claim 1 of the present invention comprises an image pickup means for picking up an image, an image generating means provided separately from the image pickup means for generating another image, and the image pickup means. In the range of the image picked up by the means, a portion in which a luminance change or hue change that is equal to or greater than a predetermined value in terms of time is discriminated from a portion in which no luminance change or hue change has occurred, and one of the determined two portions is set in advance. An image processing means for performing image processing for fitting the other image is provided.

【0009】上記従来例のブルーバックによるクロマキ
ー処理では、上述したように実写画像に青色の服装を着
用した被写体が含まれる場合には誤合成が生じる。この
ことにより、各種ゲームやアトラクション等のように仮
想現実体験のシステムが不特定多数の人に使用される場
合に、被験者の服装を限定することになるが、実際には
被験者の服装を限定することは困難であるため、誤合成
が避けられないという不具合が生じる。本発明の請求項
1の画像合成装置では、画像中の他の画像をはめ込む領
域を判別するためのキー信号としてブルーバック信号の
代わりに輝度信号または色相信号を用ることにより上記
不具合を解消する。すなわち、上記従来例のブルーバッ
クによるクロマキー合成処理のブルー領域に相当する部
分を、時間的に所定値以上の輝度変化または色相変化が
生じている部分(あるいは、逆に、時間的に所定値以上
の輝度変化または色相変化が生じていない部分)に設定
し、その部分にCG画像等の他の画像をはめ込む。
In the chroma key processing by the blue background of the above-mentioned conventional example, erroneous combination occurs when the photographed image includes a subject wearing blue clothes as described above. As a result, when the virtual reality experience system is used by an unspecified large number of people such as various games and attractions, the subject's clothing is limited, but actually the subject's clothing is limited. Since it is difficult to do so, there is a problem that erroneous synthesis cannot be avoided. In the image synthesizing apparatus according to claim 1 of the present invention, the above problem is solved by using the luminance signal or the hue signal instead of the blue back signal as a key signal for determining a region in which another image is fitted. . That is, the portion corresponding to the blue area of the chroma key composition processing by the blue background of the above-mentioned conventional example is a portion where a luminance change or a hue change of a predetermined value or more with time occurs (or, conversely, a predetermined value or more with time. (A portion where no luminance change or hue change has occurred), and another image such as a CG image is fitted into that portion.

【0010】これにより、例えば実写画像およびCGに
よる仮想空間画像が混在した合成画像が生成される。こ
の合成画像は、画像データベース等からの任意に設定さ
れた仮想空間画像に、3次元実空間における実際の物体
や人物等を高い精度で組み込むことができるため、高い
臨場感や高い現実感を演出することができる。
As a result, for example, a composite image in which a real image and a CG virtual space image are mixed is generated. Since this synthetic image can highly accurately incorporate an actual object or person in a three-dimensional real space into a virtual space image that is arbitrarily set from an image database or the like, it produces a high sense of realism and a high sense of reality. can do.

【0011】上記目的のため、本発明の請求項2の画像
合成装置は、画像を撮像する撮像手段と、前記撮像手段
とは別途に設けられ他の画像を生成する画像生成手段
と、前記撮像手段が撮像した画像の範囲内で時間的に所
定値以上の輝度変化が生じている部分であってかつ特定
の色信号を有する部分に前記他の画像をはめ込む画像処
理を行う画像処理手段とを具備して成ることを特徴とす
るものである。
For the above-mentioned purpose, an image synthesizing apparatus according to a second aspect of the present invention comprises an image pickup means for picking up an image, an image generating means provided separately from the image pickup means for generating another image, and the image pickup means. Image processing means for performing image processing for fitting the other image into a portion in which a luminance change of a predetermined value or more occurs temporally within the range of the image captured by the means and having a specific color signal. It is characterized by comprising.

【0012】上記従来例のクロマキー処理では、画像中
の他の画像をはめ込む領域の判別条件として輝度変化の
みを用いる場合、以下のような不具合が生じる。すなわ
ち、画像をはめ込む領域を時間的に所定値以上の輝度変
化が生じている部分とする判別条件の場合、上記輝度変
化が生じている部分の周辺部も輝度変化の度合は少ない
が輝度変化は生じている。このため、画像をはめ込む領
域とそれ以外の領域との境界が明確であっても、上記輝
度変化が生じている領域とそれ以外の領域との境界が不
明確なことがあり、その場合、画像をはめ込みたくない
部分まで上記輝度変化が生じていると判別され、画像が
はめ込まれてしまうおそれがある。本発明の請求項2の
画像合成装置では、画像中の他の画像をはめ込む領域の
判別を一層確実にするため、その判別条件を、「時間的
に所定値以上の輝度変化が生じている部分」および「特
定の色信号を有する部分」の2つの条件により構成し、
この2つの条件を満たす部分にのみCG画像等の他の画
像をはめ込む。
In the chroma key processing of the above-mentioned conventional example, when only the luminance change is used as the discrimination condition of the area in which another image is fitted, the following problems occur. That is, in the case of the determination condition that the area in which the image is fitted is a portion in which the luminance change is equal to or more than a predetermined value in time, the degree of the luminance change is small in the peripheral portion of the portion in which the luminance change is generated, but the luminance change is not Has occurred. Therefore, even if the boundary between the area where the image is fitted and the other area is clear, the boundary between the area where the brightness change occurs and the other area may be unclear. It is determined that the above-mentioned luminance change has occurred even in a portion where it is not desired to fit, and the image may be fitted. In the image synthesizing apparatus according to the second aspect of the present invention, in order to more surely determine the area in which the other image is fitted, the determination condition is set to "a portion in which a luminance change of a predetermined value or more occurs temporally. "And a part having a specific color signal",
Another image such as a CG image is fitted only to a portion satisfying these two conditions.

【0013】これにより、画像をはめ込みたい輝度変化
が生じている部分を特定の色で着色しておくとともに、
その周辺の画像をはめ込んで欲しくない部分を異なる色
で着色しておくことにより、所望の合成画像が得られ
る。さらに、上記特定の色を上記従来例と同一の青色に
した場合に被験者が青色の服を着用している場合であっ
ても、その青色の服の部分の輝度変化を所定値以下にす
ることにより、その青色の服の部分に画像が不所望には
め込まれてしまうという上記従来例の不具合を防止する
ことができる。
As a result, the portion where the luminance change desired to be fitted into the image is colored with a specific color, and
A desired composite image can be obtained by fitting an image around it and coloring an unwanted portion with a different color. Furthermore, even if the subject wears blue clothes when the specific color is the same blue as the conventional example, the luminance change of the blue clothes part should be less than a predetermined value. As a result, it is possible to prevent the problem of the above-described conventional example that an image is undesirably fitted into the blue clothing portion.

【0014】上記目的のため、本発明の請求項3の画像
合成装置は、画像を撮像する撮像手段と、前記撮像手段
とは別途に設けられ他の画像を生成する画像生成手段
と、前記撮像手段が撮像した画像の範囲内で時間的に所
定値以上の輝度変化が生じている部分であってかつ特定
の色信号を有する部分を除く部分に前記他の画像をはめ
込む画像処理を行う画像処理手段とを具備して成ること
を特徴とするものである。
For the above-mentioned purpose, an image synthesizing apparatus according to a third aspect of the present invention comprises an image pickup means for picking up an image, an image generating means provided separately from the image pickup means for generating another image, and the image pickup means. Image processing for performing the image processing in which the other image is fitted to a portion in which a luminance change of a predetermined value or more occurs temporally within a range of the image captured by the means and a portion having a specific color signal And means.

【0015】上記従来例のクロマキー処理では、画像中
の他の画像をはめ込む領域の判別条件として時間的に所
定値以上の輝度変化が生じている部分という条件だけに
した場合、上記輝度変化が生じている部分の周辺部や反
射率の高いものを有する部分は、上記輝度変化の影響を
受けてしまうため、輝度変化の度合は少ないが輝度変化
が生じてしまう場合がある。このため、画像をはめ込む
領域とそれ以外の領域との境界が明確であっても、上記
輝度変化が生じている領域とそれ以外の領域との境界が
不明確なことがあり、その場合、画像をはめ込みたくな
い部分まで上記輝度変化が生じていると判別され、画像
がはめ込まれてしまうおそれがある。
In the chroma key processing of the above-mentioned conventional example, when the condition for discriminating the area in which another image is to be fitted is only a portion where a luminance change of a predetermined value or more occurs temporally, the luminance change occurs. Since the peripheral portion of the portion having a high reflectance and the portion having a high reflectance are affected by the above-mentioned luminance change, the degree of the luminance change may be small, but the luminance change may occur. Therefore, even if the boundary between the area where the image is fitted and the other area is clear, the boundary between the area where the brightness change occurs and the other area may be unclear. It is determined that the above-mentioned luminance change has occurred even in a portion where it is not desired to fit, and the image may be fitted.

【0016】本発明の請求項3の画像合成装置では、画
像中の他の画像をはめ込む領域の判別を一層確実にする
ため、その判別条件を、「時間的に所定値以上の輝度変
化が生じている部分」および「特定の色信号を有する部
分を除く部分」の2つの条件により構成し、この2つの
条件を満たす部分にのみCG画像等の他の画像をはめ込
む。これにより、画像をはめ込みたくないのに輝度変化
が生じる可能性がある部分を特定の色で着色しておくこ
とにより、所望の合成画像が得られる。
In the image synthesizing apparatus according to the third aspect of the present invention, in order to further ensure the determination of the area in which the other image is fitted, the determination condition is "a luminance change of a predetermined value or more occurs over time. Existing portion "and" a portion excluding a portion having a specific color signal ", and another image such as a CG image is fitted only to the portion satisfying these two conditions. As a result, a desired composite image can be obtained by coloring a portion in which luminance change may occur even though the user does not want to fit the image with a specific color.

【0017】以下、上記合成画像を例を挙げて具体的に
説明する。例えば、スクリーンを青色で着色して輝度変
化させ、スクリーンの近傍に例えば木製の赤色のテーブ
ルを配置した場合、CG画像をはめ込みたくないテーブ
ルにも輝度変化が生じることがある。しかも、このテー
ブルはスクリーンの近傍に配置されているため、このテ
ーブルにスクリーンの青色が映り込むことになり、撮像
手段はテーブルがテーブル本来の赤色とともに青色を有
しているように認識する。この場合、CG画像をはめ込
む領域の判別条件を「時間的に所定値以上の輝度変化が
生じている部分」でかつ「特定の色信号を有する部分」
という条件にすると、特定の色信号を青色にした場合、
テーブルにもCG画像がはめ込まれてしまう。そこで、
CG画像をはめ込む領域の判別条件を「時間的に所定値
以上の輝度変化が生じている部分」でかつ「特定の色信
号を有する部分を除く部分」という条件にすることによ
り、上記特定の色を例えば赤色にすると、テーブルは赤
色を含んでいるため、CG画像がはめ込まれずに済む。
このように、CG画像をはめ込みたくないのに誤合成さ
れてしまうおそれのある領域が特定の色を有していれ
ば、あるいは、その特定の色を有していなければ着色し
ておけば、所望の合成画像が得られる。
The above-mentioned composite image will be specifically described below with reference to an example. For example, when the screen is colored in blue to change the brightness and a red table made of wood, for example, is arranged in the vicinity of the screen, the brightness change may occur in the table in which the CG image is not desired to be fitted. Moreover, since this table is arranged in the vicinity of the screen, the blue color of the screen is reflected on this table, and the imaging means recognizes that the table has blue color in addition to the original red color of the table. In this case, the determination condition of the area in which the CG image is fitted is "a portion in which a luminance change of a predetermined value or more occurs temporally" and "a portion having a specific color signal"
Under the condition, when a specific color signal is blue,
The CG image is also set on the table. Therefore,
By setting the condition for determining the area in which the CG image is fitted to be "a portion where a luminance change of a predetermined value or more occurs temporally" and "a portion excluding a portion having a specific color signal", the specific color If, for example, is made red, the table includes red, so that the CG image does not have to be fitted.
In this way, if the area that may not be embedded in the CG image but is likely to be erroneously synthesized has a specific color, or if it does not have the specific color, it is colored. The desired composite image is obtained.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づき詳細に説明する。図1は本発明の第1実施形態
の画像合成装置の構成を示す図である。本実施形態にお
いては、図1に示すように、頭部装着型の画像表示装置
(HMD)2を装着した被験者1の視点の近傍に被験者
の3次元実空間における視点の位置および視線方向を検
出する検出装置(図示せず)を設けるとともに画像表示
装置2の被験者の頭部の近傍に3次元空間センサ3を設
け、検出した視点位置データ、視線方向データおよび3
次元空間データを画像生成装置4に入力する。また、前
記視点の上部に実空間画像(実写画像)を撮像する撮像
装置(本実施形態では電子撮像装置を用いる)7を設
け、撮像された実写画像を画像合成装置8に入力する。
さらに、本実施形態の画像合成装置をインタラクティブ
なものにするため、被験者が手で操作し得る位置に補助
的な入力装置6を設け、この補助的な入力装置6からの
操作信号を仮想空間画像データベース5に入力し、この
操作信号により仮想空間画像データベース5の画像デー
タが更新されるように構成する。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a diagram showing the configuration of an image synthesizing apparatus according to the first embodiment of the present invention. In the present embodiment, as shown in FIG. 1, the position of the viewpoint and the line-of-sight direction in the three-dimensional real space of the subject are detected in the vicinity of the viewpoint of the subject 1 wearing the head-mounted image display device (HMD) 2. And a three-dimensional space sensor 3 provided near the head of the subject of the image display device 2 to detect the viewpoint position data, the sight line direction data 3
The dimensional space data is input to the image generation device 4. Further, an image pickup device (an electronic image pickup device is used in the present embodiment) 7 for picking up a real space image (real shot image) is provided above the viewpoint, and the picked up real shot image is inputted to the image synthesizing device 8.
Further, in order to make the image synthesizing device of the present embodiment interactive, an auxiliary input device 6 is provided at a position where the subject can manually operate, and an operation signal from the auxiliary input device 6 is used as a virtual space image. The image data of the virtual space image database 5 is updated by inputting the data to the database 5.

【0019】画像生成装置4は、前記視点位置データ、
視線方向データ、3次元空間データおよび仮想空間画像
データベース5からの画像データに基づき演算を行い、
前記視点位置および視線方向から見える世界(仮想空
間)の光景に相当するCG画像を生成して画像合成装置
8に出力する。画像合成装置8は、仮想空間画像データ
ベース5および画像生成装置4を用いて生成した仮想空
間CG画像と、撮像装置7により撮像した実写画像とを
用いて、一方の画像に他方の画像をはめ込む画像合成処
理を行う。本実施形態では、実写画像にCG画像をはめ
込むようにしていおり、その際、画像合成方法としてク
ロマキー合成処理を用いている。
The image generation device 4 uses the viewpoint position data,
Calculation is performed based on the line-of-sight direction data, the three-dimensional space data, and the image data from the virtual space image database 5,
A CG image corresponding to a scene of the world (virtual space) viewed from the viewpoint position and the line-of-sight direction is generated and output to the image synthesizing device 8. The image synthesizing device 8 uses the virtual space CG image generated using the virtual space image database 5 and the image generating device 4 and the photographed image captured by the image capturing device 7 to fit one image into the other image. Performs synthesis processing. In the present embodiment, the CG image is embedded in the photographed image, and at that time, the chroma key composition process is used as the image composition method.

【0020】以下、本実施形態の画像合成処理を具体例
を用いて説明する。図2〜図4は第1実施形態の画像合
成処理を説明するための図であり、本実施形態の画像合
成処理を自動車教習所等に設置される仮想体験装置とし
てのドライブシミュレータに適用した例を示している。
被験者であるドライバー1は、図2に示すようにHMD
2を装着し、自動車11を運転してCGによって描かれ
た仮想空間を走行し、運転の技術を習得することを目的
とするシミュレーションを行う。ところで、従来のドラ
イブシミュレータは、例えば画像の表示にモニタを用い
たものであるため、ドライバー1の視界にはシミュレー
ションの世界以外のものが入ってしまい、リアリティ
(現実性)が乏しいものであった。そこで、本実施形態
では、HMDをドライブシミュレータに代表される仮想
体験装置に画像表示装置として組み入れ、実写画像とC
G画像とを組み合わせた合成画像をHMDによってドラ
イバー1に提示することによってリアリティを向上さ
せ、シミュレーション効果を高めるようにしている。
The image synthesizing process of this embodiment will be described below by using a specific example. 2 to 4 are diagrams for explaining the image synthesizing process of the first embodiment, and an example in which the image synthesizing process of the present embodiment is applied to a drive simulator as a virtual experience device installed in a driving school or the like. Shows.
The driver 1 who is the subject, as shown in FIG.
2 is mounted, the automobile 11 is driven, the vehicle runs in a virtual space drawn by CG, and a simulation for the purpose of learning the driving technique is performed. By the way, since the conventional drive simulator uses, for example, a monitor for displaying an image, the driver's 1 field of view includes something other than the world of simulation, and the reality is poor. . Therefore, in the present embodiment, the HMD is incorporated into a virtual experience device represented by a drive simulator as an image display device, and a real image and a C image are displayed.
By presenting the synthetic image combined with the G image to the driver 1 by the HMD, the reality is improved and the simulation effect is enhanced.

【0021】図2および図3に示すドライブシミュレー
タは、CG画面に対応して油圧等により自動車11の姿
勢や加速等を制御するようになっている。このとき、図
4に示すような窓12から見える世界はCGによって描
かれる仮想世界であり、同時に視界に入る自動車の運転
席付近の各種メータ等のパネル部13およびハンドル1
4(図4参照)、同乗者15および自分の手足16(図
3参照)等はHMD2に配設された撮像装置7(CCD
等の撮像素子を有している)によって撮像され、電気信
号に変換された実写画像である。このドライブシミュレ
ータにおける実写画像、CG画像および合成画像の例を
夫々、図5に21,22,23で示す。このような状況
でCGによる仮想世界の画像と実写画像との合成に用い
られる技術が本実施形態のクロマキー合成処理である。
The drive simulator shown in FIGS. 2 and 3 is adapted to control the posture, acceleration, etc. of the automobile 11 by hydraulic pressure or the like corresponding to the CG screen. At this time, the world seen through the window 12 as shown in FIG. 4 is a virtual world drawn by CG, and at the same time, the panel portion 13 such as various meters near the driver's seat of the automobile and the steering wheel 1 which are in the field of view.
4 (see FIG. 4), the passenger 15 and his / her limbs 16 (see FIG. 3) and the like are the image pickup device 7 (CCD) provided in the HMD 2.
Image pickup device (such as an image pickup device) and converted into an electric signal. Examples of a real image, a CG image, and a composite image in this drive simulator are shown by 21, 22, and 23 in FIG. 5, respectively. In such a situation, the technique used for synthesizing the image of the virtual world by the CG and the photographed image is the chroma key synthesizing process of this embodiment.

【0022】図6に示すように、自動車11の車体前方
からプロジェクタ(もしくは指向性を有する発光体)1
7によって自動車の窓12の形状に合わせて光を投影す
る。このプロジェクタ17は、図7の各図に斜線を付け
て示すように時間的に点滅を繰り返し、図7(a)の明
状態から(b)の暗状態になった後、(c)の明状態に
なる。この間、自動車の窓12は半透過ガラスまたは半
透過プラスチック等で構成されているため、撮像装置7
によって車体内部から窓12に向かって撮像を行うと、
窓の部位だけが時間的に所定値以上の輝度変化が生じて
いる部分となる。このとき、窓12を構成する部材の透
過率は、窓の部分の輝度変化を撮像後に画像処理する際
に輝度変化部分を検出および抽出できるように設定し、
窓以外の部分は輝度変化しない程度の透過率に設定す
る。なお、HMD2には、撮像装置7の他に、ドライバ
ー1の視線方向、視点の位置といった3次元空間情報を
検出する図示しない空間情報検出装置(3次元実空間セ
ンサ)も併設されている。この空間情報検出装置として
は、光学的センサ、磁気的センサ、ジャイロセンサ、超
音波センサ等の何れか1つまたは2つ以上を用いる。
As shown in FIG. 6, a projector (or a light emitting body having directivity) 1 from the front of the vehicle body of the automobile 11.
7 projects light according to the shape of the window 12 of the automobile. The projector 17 repeats blinking in time as shown by hatching in each figure of FIG. 7, and after changing from the bright state of FIG. 7A to the dark state of FIG. It becomes a state. During this time, since the window 12 of the automobile is made of semi-transparent glass or semi-transparent plastic, the image pickup device 7
When the image is taken from the inside of the vehicle toward the window 12 by
Only the portion of the window is a portion in which a change in luminance over a predetermined value occurs with time. At this time, the transmittance of the member forming the window 12 is set so that the brightness change portion can be detected and extracted when the image processing is performed after the change in the brightness of the window portion is captured.
The parts other than the window are set to have such a transmittance that the brightness does not change. In addition to the imaging device 7, the HMD 2 is also provided with a spatial information detection device (three-dimensional real space sensor) (not shown) that detects three-dimensional spatial information such as the line-of-sight direction of the driver 1 and the position of the viewpoint. As this spatial information detection device, any one or two or more of an optical sensor, a magnetic sensor, a gyro sensor, an ultrasonic sensor, etc. is used.

【0023】次に、上記状況の下で実写画像とCG画像
を合成する方法を図8により説明する。図8において電
子撮像装置7が撮像した実写画像は画像合成装置8に入
力され、その実写画像において時間的に所定値以上の輝
度変化が生じている領域が抽出され、その領域には3次
元実空間センサ9によって検出されたドライバー1の視
点位置、視線方向に相当する仮想空間のCG画像がはめ
込まれ、前記輝度変化が生じていない領域には実写画像
がそのまま用いられる。これにより、実写画像とCG画
像が混在したリアリティの高い合成画像が生成され、こ
の合成画像は画像表示装置2の画像表示素子2aに表示
される。したがって、ドライバー1は、任意の3次元仮
想空間の中に実空間における実際の物体である車体の一
部や同乗者、自分の手足等を見ることが可能な世界に身
をおくことができる。
Next, a method of synthesizing a real image and a CG image under the above-mentioned situation will be described with reference to FIG. In FIG. 8, the photographed image captured by the electronic image pickup device 7 is input to the image synthesizing device 8, and an area in which a luminance change of a predetermined value or more is temporally extracted from the photographed image is extracted. The CG image of the virtual space corresponding to the viewpoint position and the line-of-sight direction of the driver 1 detected by the space sensor 9 is fitted, and the photographed image is used as it is in the area where the brightness change has not occurred. As a result, a highly realistic composite image in which the photographed image and the CG image are mixed is generated, and the composite image is displayed on the image display element 2 a of the image display device 2. Therefore, the driver 1 can put himself in a world where he can see a part of the vehicle body, a passenger, his / her limbs, etc., which are actual objects in the real space, in an arbitrary three-dimensional virtual space.

【0024】なお、上述した輝度信号を用いるCG画像
領域および実写画像領域の判別条件は以下の変形例のよ
うにしてもよい。例えば、図9(a)に示すように自動
車11を設置したスペース全体を照明する光源AとCG
画像をはめ込む自動車の窓の部分に相当する領域を照明
する光源B(例えばプロジェクタ)を設け、光源Aおよ
び光源Bの輝度変化の位相を逆位相とすることにより、
CG画像をはめ込む仮想世界領域と実写画像をそのまま
用いる領域との判別を容易にする。すなわち、光源Aが
明状態で光源Bが暗状態の図9(a)の状態から、光源
Aが暗状態で光源Bが明状態の(b)の状態に変化した
後、再び光源Aが明状態で光源Bが暗状態の(c)の状
態に変化するようにする。
The discrimination conditions for the CG image area and the photographed image area using the above-mentioned luminance signal may be modified as follows. For example, as shown in FIG. 9A, a light source A and a CG that illuminate the entire space where the automobile 11 is installed.
By providing a light source B (for example, a projector) that illuminates an area corresponding to the window portion of the automobile into which the image is fitted, and setting the phases of the luminance changes of the light source A and the light source B to be opposite phases,
This makes it easy to distinguish between a virtual world area in which a CG image is fitted and an area in which a photographed image is used as it is. That is, the state of FIG. 9A in which the light source A is in the bright state and the light source B is in the dark state is changed from the state of FIG. 9A in which the light source A is in the dark state and the light source B is in the bright state (b), and then the light source A is turned on again. In this state, the light source B is changed to the dark state (c).

【0025】上記のように光源Aおよび光源Bの輝度変
化の位相を逆位相にすると、結果的に光源Bが照明する
領域は図9(a),(b),(c)間における輝度変化
が小さくなり、その領域以外の領域は輝度変化が光源A
に依存したものとなる。ここで、光源Aおよび光源Bの
光の強度を光源Bが照明している領域において同ーにす
れば、光源Bが照明している領域の輝度変化はなくな
る。そこで、上記判別条件を「輝度変化がない領域にC
G画像をはめ込む」とすることにより、所望の合成画像
が得られる。さらに、上記変形例の変形例として、光源
Bは輝度変化せず光量が一定であるようにすれば、光源
Bの光量が光源Aよりも大きい場合には光源Bが照明し
ている領域は輝度変化がほとんどなく常に所定の輝度を
保ち、その領域以外の領域は光源Aの輝度変化に依存し
て輝度変化するといった状況が生じる。そこで、上記判
別条件を「CG画像をはめ込む領域は輝度変化が小さい
(ほとんどない)領域で輝度が所定値以上」とすること
により、所望の合成画像が得られる。
When the phases of the brightness changes of the light source A and the light source B are made opposite to each other as described above, the area illuminated by the light source B consequently changes in brightness between FIGS. 9 (a), 9 (b) and 9 (c). Becomes smaller, and the change in brightness in areas other than that
Will depend on. Here, if the light intensities of the light source A and the light source B are the same in the area illuminated by the light source B, there is no change in luminance in the area illuminated by the light source B. Therefore, the above determination condition is "C
By fitting "G image", a desired composite image is obtained. Further, as a modified example of the above modified example, if the light source B does not change in brightness and the light quantity is constant, when the light quantity of the light source B is larger than that of the light source A, the area illuminated by the light source B has the brightness. There is a situation in which there is almost no change, the predetermined brightness is always maintained, and the areas other than the area change in brightness depending on the brightness change of the light source A. Therefore, a desired composite image can be obtained by setting the above-mentioned determination condition to "the brightness is equal to or more than a predetermined value in the area in which the CG image is fitted has a small brightness change (almost no brightness)".

【0026】図10(a)〜(c)は本発明の第2実施
形態の画像合成処理を従来技術と比較して説明するため
の図である。本実施形態は、主に、特定の色(例えば青
色)の色信号に基づいて画像合成処理を行う場合の不具
合、例えば、図10(a)中に斜線を付けて示すブルー
バックと青色の服装をした被写体とを含む実写画像31
にCG画像32をはめ込む際に、実写画像31の青色の
服装をした被写体の部位31aにCG画像32がはめ込
まれた合成画像33となってしまう不具合に対する改善
策として有効であるが、輝度信号を用いることによりさ
らに改善が可能である。
FIGS. 10A to 10C are views for explaining the image synthesizing process of the second embodiment of the present invention in comparison with the prior art. The present embodiment is mainly related to a problem in the case of performing an image combining process based on a color signal of a specific color (for example, blue), for example, a blue background and a blue outfit shown by hatching in FIG. A photographed image 31 including the subject
It is effective as a remedy for the problem that when the CG image 32 is fitted into the CG image 32, the CG image 32 becomes the composite image 33 fitted into the part 31a of the subject dressed in blue of the photographed image 31. Further improvement can be achieved by using it.

【0027】例えば、図10(b)中に横方向の斜線を
付けて示すように、実写画像34中の窓に相当する部位
34aを時間的に所定値以上の輝度変化が生じている部
位(あるいは逆に輝度が一定の部位)として抽出してそ
こにCG画像35をはめ込む際に、輝度変化が窓の外周
や窓枠の外まで漏れてしまうためその部位までCG画像
がはめ込まれてしまい、その結果、おかしな合成画像3
6になってしまうが、本実施形態はこの不具合に対する
改善策としても有効である。すなわち、本実施形態で
は、実写画像37のCG画像38をはめ込む部位を「時
間的に所定値以上の輝度変化が生じていてかつ特定の色
信号を有する部位」とすることにより、色信号だけを用
いたときの不具合と、輝度信号だけを用いたときの不具
合とを同時に改善することができ、例えば図10(c)
に示すような所望の合成画像39が得られる。したがっ
て、実写画像37中の輝度変化が漏れている窓の外周や
窓枠の外の部位にCG画像がはめ込まれる不具合や、特
定の色信号が青色の場合の実写画像31の青色の服装の
部分31aにCG画像32がはめ込まれる不具合を解消
することができる。
For example, as shown by hatching in the horizontal direction in FIG. 10B, a portion 34a corresponding to a window in the photographed image 34 has a temporal change in luminance of a predetermined value or more ( On the contrary, when the CG image 35 is extracted as a part having a constant brightness and fitted therein, the brightness change leaks to the outer periphery of the window or the outside of the window frame, and the CG image is fitted to that part. As a result, weird composite image 3
However, this embodiment is also effective as a remedy for this problem. That is, in the present embodiment, only the color signal is obtained by setting the portion of the photographed image 37 into which the CG image 38 is fitted as “a portion having a temporal change in luminance of a predetermined value or more and having a specific color signal”. It is possible to simultaneously improve the defect when used and the defect when only the luminance signal is used. For example, FIG.
A desired composite image 39 as shown in is obtained. Therefore, there is a problem that the CG image is fitted to the outer periphery of the window or the portion outside the window frame where the brightness change in the photographed image 37 is leaking, or the blue clothing portion of the photographed image 31 when the specific color signal is blue. It is possible to solve the problem that the CG image 32 is fitted in the 31a.

【0028】なお、上記のようにする代わりに、窓を偏
光性を有する部材とし、撮像装置7に偏光板を配設する
ことにより、不要な反射をカットするようにしてもよ
い。また、上記の窓のように合成画像において実写領域
およびCG画像領域の境界(エッジ)が明確な画像を表
現する場合ではなく、境界が不明確で徐々に実写画像か
らCG画像に変化していくような特殊効果を有する画像
を表現したい場合には、逆に色信号と輝度信号を併用せ
ずに、実写画像からCG画像への変化の仕方を、輝度変
化の漏れ具合に応じて調整するのが好ましい。そのよう
にすると、所望の特殊効果を有する画像を生成すること
ができる。
Instead of the above, the window may be made of a member having polarizability, and a polarizing plate may be arranged in the image pickup device 7 to cut off unnecessary reflection. Further, it is not a case where an image in which a boundary (edge) between a real image area and a CG image area is clear in a composite image like the above-described window is expressed, and the boundary is unclear and gradually changes from a real image to a CG image. To express an image having such a special effect, on the contrary, the way of changing from the actual image to the CG image is adjusted according to the degree of leakage of the luminance change without using the color signal and the luminance signal together. Is preferred. By doing so, an image having a desired special effect can be generated.

【0029】図11は本発明の第3実施形態の画像合成
処理を説明するための図である。本実施形態は、実写画
像中のCG画像をはめ込む領域の判別条件に輝度信号と
色信号とを同時に用いており、実写画像の中から時間的
に所定値以上の輝度変化が生じている部位を抽出し、さ
らにその部位の中から特定の色信号を有する部分を含ま
ない部位を抽出し、その部位にCG画像をはめ込むよう
にしている。このようにCG画像をはめ込む領域の判別
条件を設定し、図11の実写画像40中の窓枠外周等の
CG画像をはめ込みたくないのに輝度変化が漏れてしま
っている可能性のある部位40a(図11に斜線で示
す)を特定の色(例えば赤色)の色信号で着色しておく
ことにより、時間的に所定値以上の輝度変化が生じた場
合であっても赤を有する部位にはCG画像がはめ込まれ
ないので、所望の合成画像が得られる。あるいは、人物
等が窓の近くで輝度変化の影響を受けてしまっている場
合には、特定の色を肌色とすることにより、所望の合成
画像が得られる。
FIG. 11 is a diagram for explaining the image synthesizing process of the third embodiment of the present invention. In the present embodiment, the luminance signal and the color signal are simultaneously used for the determination condition of the area in which the CG image is fitted in the photographed image, and the portion where the luminance change over time exceeds the predetermined value occurs in the photographed image. After extraction, a part not including a part having a specific color signal is extracted, and a CG image is fitted into the part. In this way, the determination condition of the area in which the CG image is fitted is set, and there is a possibility that the brightness change may have leaked out even though it is not desired to fit the CG image such as the outer periphery of the window frame in the photographed image 40 in FIG. By coloring (indicated by diagonal lines in FIG. 11) a color signal of a specific color (for example, red), even if a change in luminance over a predetermined value occurs with time, a portion having red is Since the CG image is not fitted, a desired composite image is obtained. Alternatively, when a person or the like has been affected by a change in brightness near the window, a desired composite image can be obtained by setting a specific color as a skin color.

【0030】図12(a),(b)は本発明の第4実施
形態の画像合成処理を説明するための図である。本実施
形態は、第1実施形態と同様に実写画像中の時間的に所
定値以上の輝度変化が生じている部位にCG画像をはめ
込むが、実写画像中のCG画像をはめ込む領域の判別条
件を以下の条件にしている。上述したように、実写画像
中の窓の外周の部位は輝度変化の影響を受けるため、図
12(a)に示す明状態の実写画像41から図12
(b)に示す暗状態の実写画像42へ変化する際の、点
線PQ上の輝度変化量は図13のグラフに示すようにな
る。このことを考慮して、窓枠の部位での輝度変化量の
最大値を閾値として設定し、「上記閾値以上の輝度変化
が生じている部位にCG画像をはめ込む」という条件に
することにより、図13に示す窓枠のエッジより内側の
部位(窓の外周)のような、輝度変化は生じているが輝
度変化量が上記閾値未満の部位にはCG画像がはめ込ま
れず、所望の合成画像が得られる。
FIGS. 12A and 12B are views for explaining the image synthesizing process of the fourth embodiment of the present invention. In the present embodiment, as in the first embodiment, the CG image is fitted to the portion of the photographed image in which the luminance change over time is equal to or greater than a predetermined value. The conditions are as follows. As described above, since the area on the outer periphery of the window in the live-action image is affected by the change in brightness, the light-action live-action image 41 shown in FIG.
The amount of change in luminance on the dotted line PQ when changing to the real image 42 in the dark state shown in (b) is as shown in the graph of FIG. In consideration of this, the maximum value of the brightness change amount in the window frame part is set as the threshold value, and the condition of "fitting the CG image in the part in which the brightness change above the threshold value occurs" is set. A CG image is not fitted to a portion where the luminance change occurs but the amount of luminance change is less than the threshold value, such as a portion inside the window frame edge (outer periphery of the window) shown in FIG. can get.

【0031】図14(a),(b)および図16
(a),(b)は夫々、本発明の第5実施形態の画像合
成処理を説明するための図である。本実施形態は、上記
第1実施形態において図9(a)〜(c)に例示したよ
うに全体を照明する光源AおよびCG画像をはめ込む部
位のみを照明する光源Bの2つの光源を有し、全体を照
明する光源Aが点滅を繰り返す間にCG画像をはめ込む
部位のみを照明する光源Bが一定の輝度を保つ場合と、
全体を照明する光源Aが点滅を繰り返す間にCG画像を
はめ込む部位のみを照明する光源Bが光源Aとは逆位相
で点滅を繰り返す場合とに適用可能である。何れの場合
においても、実写画像中のCG画像をはめ込む領域の判
別条件を「所定値以下の輝度変化率があり、かつ最低輝
度がある閾値以上」とすることにより、以下に詳述する
ように所望の合成画像が得られる。ここで、輝度変化率
とは、その領域の最高輝度に対する輝度の変化量と定義
する。
14 (a), 14 (b) and 16
(A), (b) is a figure for demonstrating the image compositing process of 5th Embodiment of this invention, respectively. The present embodiment has two light sources, a light source A that illuminates the whole as illustrated in FIGS. 9A to 9C in the first embodiment and a light source B that illuminates only a portion into which a CG image is fitted. , A case where the light source B that illuminates only the part into which the CG image is fitted maintains a constant brightness while the light source A that illuminates the entire body repeatedly blinks,
This is applicable to the case where the light source B that illuminates only the portion into which the CG image is fitted repeats blinking in a phase opposite to that of the light source A while the light source A that illuminates the whole repeats blinking. In any case, by setting the determination condition of the area in which the CG image is to be fitted in the photographed image to be “there is a luminance change rate of not more than a predetermined value and the minimum luminance is not less than a certain threshold value”, as described in detail below. The desired composite image is obtained. Here, the brightness change rate is defined as the amount of change in brightness with respect to the maximum brightness of the area.

【0032】図14(a)は全体を照明する光源Aが明
でCG画像をはめ込む部位を照明する光源Bが一定の輝
度を保つ場合の実写画像43を示し、(b)は全体を照
明する光源Aが暗でCG画像をはめ込む部位を照明する
光源Bが一定の輝度を保つ場合の実写画像44を示す。
このとき、実写画像43、44中のCG画像をはめ込む
部位(ここでは窓の部分)およびそれ以外の部位の各々
の時間的な輝度変化を表わすと図15(a),(b)の
ようになる。図中、横軸は時間を示し、縦軸は輝度を示
す。ここで、光源Bの輝度がQ1であり、光源Aの輝度
がQ2であり、光源Aの周期がTである場合、CG画像
をはめ込みたい窓の部分の輝度は、図15(a)に示す
ように0からTまでの間はQ1であり、Tから2Tまで
の間は一定輝度Q1に全体を照明する輝度変化する輝度
Q2を乗せた形になる。その結果、最高輝度が(Q1+
Q2)であり、輝度変化量がQ2であるため、輝度変化
率はQ2/(Q1+Q2)となる。一方、窓以外の部位
においては、最高輝度がQ2であり、輝度変化量がQ2
であるため、輝度変化率はQ2/Q2=1となる。よっ
て、CG画像をはめ込まない条件を「輝度変化率がQ2
/(Q1+Q2)以上かつ1未満の範囲内の値の部位」
とする。さらに、図中点線で示す値に閾値を設定し、
「輝度の最小値が閾値以下の部位にはCG画像をはめ込
まない」という条件を設定することにより、所望の部位
のみにCG画像がはめ込まれることになる。
FIG. 14A shows a photographed image 43 in the case where the light source A for illuminating the whole is bright and the light source B for illuminating the part into which the CG image is fitted maintains a constant brightness, and FIG. 14B illuminates the whole. The photographed image 44 in the case where the light source A is dark and the light source B that illuminates the part where the CG image is fitted maintains a constant brightness is shown.
At this time, the temporal luminance changes of the part (here, the window part) in which the CG images are fitted in the photographed images 43, 44 and the other parts are shown in FIGS. 15 (a) and 15 (b). Become. In the figure, the horizontal axis represents time and the vertical axis represents luminance. Here, when the brightness of the light source B is Q1, the brightness of the light source A is Q2, and the period of the light source A is T, the brightness of the window portion where the CG image is to be fitted is shown in FIG. As described above, Q1 is from 0 to T, and from T to 2T, the constant brightness Q1 is added with the brightness changing brightness Q2 for illuminating the whole. As a result, the maximum brightness is (Q1 +
Q2) and the amount of change in brightness is Q2, so the rate of change in brightness is Q2 / (Q1 + Q2). On the other hand, in the parts other than the window, the maximum brightness is Q2 and the brightness change amount is Q2.
Therefore, the rate of change in luminance is Q2 / Q2 = 1. Therefore, the condition that the CG image is not fitted is "the luminance change rate is Q2
/ (Q1 + Q2) or more and less than 1 value range ”
And Furthermore, set the threshold to the value indicated by the dotted line in the figure,
By setting the condition that "the CG image is not fitted to the site where the minimum value of the brightness is less than or equal to the threshold value", the CG image is fitted only to the desired site.

【0033】例えば、CG画像の部位を照明する光源B
の輝度Q1を1000(cd/m2ただしcd;カンデ
ラ)とし、全体を照明する光源Aの輝度Q2を200
(cd/m2 )とした場合、CG画像をはめ込みたい窓
の部位の輝度変化率は1/6=0.167であり、部屋
全体の輝度変化率は1であるから、この間の適当な数
値、例えば0.2を輝度変化率の閾値に設定することに
より、所望の結果が得られる。この場合、窓枠から離れ
るに従って輝度変化率が大きくなるので、可能な限り閾
値を小さめな値に設定すれば、窓枠の外までCG画像が
はめ込めれてしまう不具合を避けることができる。さら
に、最低輝度の閾値を1000(cd/m2)に近い値
に設定するのがより好ましい。例えば、CG画像をはめ
込みたくない領域であるのに陰になって最低輝度が閾値
以下になった場合であっても輝度変化率が小さくなるた
め、誤ってCG画像がはめ込まれることが防止される。
For example, a light source B for illuminating a region of a CG image
The brightness Q1 of the light source A for illuminating the whole is set to 200 (cd / m 2 where cd; candela).
In the case of (cd / m 2 ), the rate of change in brightness of the part of the window where the CG image is to be fitted is 1/6 = 0.167, and the rate of change in brightness of the entire room is 1. The desired result can be obtained by setting, for example, 0.2 to the threshold value of the brightness change rate. In this case, the rate of change in brightness increases as the distance from the window frame increases. Therefore, by setting the threshold value to a value as small as possible, it is possible to avoid the problem that the CG image fits outside the window frame. Furthermore, it is more preferable to set the threshold value of the minimum luminance to a value close to 1000 (cd / m 2 ). For example, even if the CG image is a region where it is not desired to be fitted, the rate of change in brightness becomes small even when the brightness is shaded and the minimum brightness becomes equal to or less than the threshold value, so that the CG image is prevented from being accidentally fitted. .

【0034】なお、上記図15(a),(b)におい
て、CG画像をはめ込む部位と実写画像をそのまま用い
る部位との判別を光源の位相を条件として行うようにし
てもよい。すなわち、図15(a),(b)において、
2つの光源A,Bが逆位相であれば、CG画像をはめ込
む部位である窓での輝度変化は暗、明、暗、明となり、
実写をそのまま用いる部位での輝度変化は逆に明、暗、
明、暗となる。そこで、CG画像をはめ込む部位を暗、
明、暗、明と変化している領域と条件付けることによ
り、所望の合成画像が得られる。また、逆位相でなくて
も異なる位相であれば、位相を用いてCG画像をはめ込
む部位を判別することが可能である。
In FIGS. 15 (a) and 15 (b), the region where the CG image is fitted and the region where the actual image is used may be discriminated based on the phase of the light source. That is, in FIGS. 15 (a) and 15 (b),
If the two light sources A and B have opposite phases, the brightness change in the window where the CG image is fitted becomes dark, bright, dark, bright,
Brightness, darkness,
Light and dark. Therefore, darken the part where the CG image is fitted,
A desired composite image can be obtained by conditioning the light, dark, and light-changing regions. Further, if the phases are different, not the opposite phases, it is possible to determine the part into which the CG image is fitted using the phases.

【0035】図16(a)は全体を照明する光源Aが明
でCG画像をはめ込む部位を照明する光源Bが暗の場合
の実写画像45を示し、(b)は全体を照明する光源A
が暗でCG画像をはめ込む部位を照明する光源Bが明の
場合の実写画像46を示し、光源Aと光源Bとは逆位相
で同一輝度であるものとする。このとき、実写画像4
5、46中のCG画像をはめ込む部位(ここでは窓の部
分)およびそれ以外の部位の各々の時間的な輝度変化を
表わすと、図17(a),(b)のようになる。図中、
横軸は時間を示し、縦軸は輝度を示す。ここで、光源B
の輝度がQ1であり、光源Aの輝度がQ2(=Q1)で
あり、光源Aの周期がTである場合、CG画像をはめ込
みたい窓の部分の輝度は、図17(a)に示すように0
からTまでの間はQ2であり、Tから2Tまでの間はQ
1であり、Q1=Q2であるから窓の部位の輝度は一定
となる。この結果、輝度変化率は0/Q1=0となる。
一方、窓以外の部位の輝度変化量はQ2となり、輝度変
化率はQ2/Q2=1となる。よって、CG画像をはめ
込まない条件を「輝度変化率が0より大きくかつ1以下
の範囲内の値の部位」とする。さらに、図中点線で示す
値に閾値を設定し、「輝度の最小値が閾値以下の部位に
はCG画像をはめ込まない」という条件を設定すること
により、所望の部位のみにCG画像がはめ込まれること
になる。これにより、被写体中で影となって本来輝度変
化して欲しいのに輝度変化しない部位にCG画像がはめ
込まれることが防止される。
FIG. 16A shows a photographed image 45 when the light source A for illuminating the whole is bright and the light source B for illuminating the part where the CG image is fitted is dark, and FIG. 16B shows the light source A for illuminating the whole.
Shows a photographed image 46 in the case where is dark and the light source B for illuminating the part where the CG image is fitted is bright, and it is assumed that the light source A and the light source B are in opposite phases and have the same luminance. At this time, the photographed image 4
FIGS. 17 (a) and 17 (b) show temporal luminance changes of the portion (here, the window portion) in which the CG image is fitted and the other portions in FIGS. In the figure,
The horizontal axis represents time and the vertical axis represents luminance. Here, the light source B
When the luminance of the light source A is Q1, the luminance of the light source A is Q2 (= Q1), and the period of the light source A is T, the luminance of the window portion where the CG image is to be fitted is as shown in FIG. To 0
Q2 from T to T, Q from T to 2T
Since 1 and Q1 = Q2, the brightness of the window portion is constant. As a result, the luminance change rate is 0 / Q1 = 0.
On the other hand, the amount of change in luminance of the portion other than the window is Q2, and the rate of change in luminance is Q2 / Q2 = 1. Therefore, the condition in which the CG image is not fitted is defined as "a part having a luminance change rate greater than 0 and within a range of 1 or less". Further, by setting a threshold value to a value indicated by a dotted line in the drawing and setting a condition that "a CG image is not fitted to a portion whose minimum luminance value is less than or equal to the threshold value", the CG image is fitted only to a desired portion. It will be. As a result, it is possible to prevent the CG image from being embedded in a portion of the subject that becomes a shadow and originally has a desired luminance change but does not have a luminance change.

【0036】なお、本発明の画像合成装置における画像
合成方法は上述したものに限定されるものではなく、例
えば、輝度信号とともに用いる色信号は青色ばかりでな
く、状況に応じて異なる色信号にしたり、複数の色信号
を用いて画像合成を行ったり、輝度信号や色信号を複合
して合成したりする、というような種々の手法を用いる
ことができる。また、上記実施形態において、光源の輝
度変化を周期的にする場合、その周期を撮像装置の走査
周期と同期させたり、その整数倍の周期とすることによ
って撮像した画像の不要なちらつきを防止することがで
きる。特に、全体を照明する光源Aが周期的に変化する
場合にその周期に同期させることにより、撮像した画像
のちらつきを合成後の画像で感じさせないことができ
る。
The image synthesizing method in the image synthesizing apparatus of the present invention is not limited to the above-mentioned one. For example, the color signal used together with the luminance signal is not only blue but also different color signals depending on the situation. It is possible to use various methods such as performing image composition using a plurality of color signals, or combining and combining luminance signals and color signals. Further, in the above-described embodiment, when the luminance change of the light source is made to be periodic, the period is synchronized with the scanning period of the imaging device, or is set to an integral multiple thereof to prevent unnecessary flicker of the captured image. be able to. In particular, when the light source A that illuminates the whole changes periodically, by synchronizing with the cycle, it is possible to prevent the flicker of the captured image from being felt in the combined image.

【0037】また、上述した実施形態ではHMDを用い
たドライブシミュレータの構成例について説明したが、
図10(a)に示すような一般的なクロマキー処理を改
良するため、HMDを用いないシステムに適用しても、
輝度信号を用いる本発明の画像合成方法は実写画像とC
G画像とを合成する際に有効である。HMDを用いる場
合が用いない場合と相違する点は、合成画像がHMD装
着者の視界像と同ーであり、しかも装着者の動きや変位
等にリアルタイムで対応した画像を見ることができる点
である。
In the above-mentioned embodiment, the configuration example of the drive simulator using the HMD has been described.
In order to improve the general chroma key processing as shown in FIG. 10A, even if it is applied to a system that does not use HMD,
The image synthesizing method of the present invention using the luminance signal is based on a real image and C
This is effective when synthesizing with a G image. The difference between when the HMD is used and when it is not used is that the composite image is the same as the visual field image of the HMD wearer, and that the image corresponding to the wearer's movement, displacement, etc. can be viewed in real time. is there.

【0038】ドライブシミュレータに代表されるHMD
を用いた仮想体験装置は、以下のような利点も有してい
る。すなわち、従来のドライブシミュレータはモニタを
用いたものであるため、ドライバーの視界にはシミュレ
ーションの世界以外のものが見えるため、現実性が乏し
いものであった。これを改善するため、HMDを用いな
いでリアリティのある合成画像を提示できるシステムを
達成しようとすると、極めて大掛かりなシステムとな
り、システム自体のコストやシステムの占有するスペー
スが膨大なものになるという不具合が生じる。この対策
として、ドライブシミュレータに代表される仮想体験装
置にHMDを画像表示手段として組み入れることによ
り、コスト、スペースの両問題を大幅に改善することが
できるが、HMDに表示する画像が合成処理を施さない
CG画像だけだと別の意味でリアリティに欠け、シミュ
レーションとしての品位が落ちてしまう。そこで、実写
画像およびCG画像を組み合わせた画像をHMDによっ
て提供することにより、リアリティ、コスト、スペース
の何れもを改善することができる。なお、HMDを用い
た構成例としては上記以外にも種々のものがあり、上記
実施形態はドライブシミュレータの構成例を示したが、
本発明はこれに限定されず、様々なアトラクションゲー
ムを初めとする仮想体験装置に適用可能である。
HMD represented by drive simulator
The virtual experience device using is also provided with the following advantages. That is, since the conventional drive simulator uses a monitor, the driver's field of view is not realistic because it is possible to see something other than the simulation world. In order to improve this, if an attempt is made to achieve a system that can present a realistic composite image without using an HMD, the system becomes extremely large-scale, and the cost of the system itself and the space occupied by the system become enormous. Occurs. As a countermeasure against this, by incorporating the HMD as an image display means in a virtual experience device typified by a drive simulator, both the cost and space problems can be greatly improved, but the image displayed on the HMD is subjected to a combining process. If there is no CG image, it lacks reality in another sense, and the quality as a simulation deteriorates. Therefore, by providing the image in which the real image and the CG image are combined by the HMD, it is possible to improve the reality, the cost, and the space. It should be noted that there are various other configuration examples using the HMD other than the above, and the above embodiment has shown the configuration example of the drive simulator.
The present invention is not limited to this, and can be applied to virtual experience devices including various attraction games.

【0039】一般に、HMDを用いた仮想現実体験シス
テムでは、HMDに画像を供給する画像生成装置は装着
者から離れた仮想現実体験システムの搭乗体の内部等に
設置され、ケーブル等を介してHMDとの信号の授受を
行う。この搭乗体が振動を伴うものや激しい動きを伴う
ものである場合、画像が乱れる等のトラブルが生じる
が、これをを避けるため、画像生成装置を搭乗体から離
れた位置に設置して制御を行う。この場合、所望に応じ
て信号の授受をワイヤレス(無線等)で行うのが好まし
く、ワイヤレスにすると、激しい動き等でHMD装着者
にケーブルがからみつくことやケーブルが体に触れてい
ることによる仮想世界への没入感の低下等が防止され
る。また、HMDに取り付けられHMD装着者の空間情
報を検出する空間センサは、重量軽減のため、装着者の
身体等のHMDとは異なる位置に装着してもよい。その
場合、装着者の視点の近傍の位置からCG画像を提供す
るためには、装着者眼球の位置への座標変換を施す必要
がある。
Generally, in a virtual reality experience system using an HMD, an image generation device that supplies an image to the HMD is installed inside the vehicle of the virtual reality experience system, etc., away from the wearer, and the HMD is connected via a cable or the like. Send and receive signals to and from. If this vehicle is accompanied by vibration or violent movement, problems such as image distortion will occur, but in order to avoid this, the image generation device is installed at a position distant from the vehicle for control. To do. In this case, it is preferable that the signals are transmitted and received wirelessly (wirelessly, etc.) as desired, and if wireless is used, the virtual world will be caused by the cables becoming entangled in the HMD wearer due to violent movements or the cables being in contact with the body. It is possible to prevent a decrease in immersive feeling. Further, the space sensor attached to the HMD and detecting the space information of the HMD wearer may be mounted at a position different from the HMD, such as the body of the wearer, in order to reduce the weight. In that case, in order to provide a CG image from a position near the wearer's viewpoint, it is necessary to perform coordinate conversion to the position of the wearer's eyeball.

【0040】また、HMDを用いた仮想現実体験システ
ムにおいて、リアリティをさらに向上させるため、図1
8のような立体視(3D)システムとしてもよい。すな
わち、視差を有する右眼用データおよび左眼用データを
有するCG仮想空間画像(3D画像)を生成するため、
図18に示すように、装着者の左眼球52Lおよび右眼
球52Rに対応し実質的に各眼球の視野と一致する視野
を有する左右撮像手段(図示せず)が撮像した左右眼用
実写画像を画像合成装置51に入力し、これら実写画像
のCG画像組み込み部位を抽出し、抽出された部位に左
眼用CG画像および右眼用CG画像を夫々合成し、左眼
用合成画像および右眼用合成画像を生成する。これによ
り、さらにリアリティのある画像を提供することができ
る。
In order to further improve the reality in the virtual reality experience system using the HMD, FIG.
A stereoscopic (3D) system such as 8 may be used. That is, in order to generate a CG virtual space image (3D image) having right-eye data and left-eye data having parallax,
As shown in FIG. 18, a left-eye and right-eye image taken by left and right imaging means (not shown) having a visual field corresponding to the left eyeball 52L and the right eyeball 52R of the wearer and substantially corresponding to the visual field of each eyeball is displayed. It is input to the image synthesizing device 51, the CG image incorporating parts of these real images are extracted, the CG image for the left eye and the CG image for the right eye are respectively combined with the extracted parts, and the combined image for the left eye and the right eye are combined. Generate a composite image. As a result, a more realistic image can be provided.

【0041】また、仮想体験装置をレーシングゲームの
ようなアトラクションとする場合、HMDに設けた撮像
手段の他に仮想体験装置内に複数のカメラを設け、それ
らにより撮像した実写画像を上記と同様にして画像合成
し、所望に応じてHMDに分割表示することにより、図
19に示すようなバックミラーの像や異なる視点からの
像等を確認し得る画像54を提供することができ、リア
リティ、ゲーム性が向上する。以上のように、本発明
は、リアリティある高精度な合成画像を生成する方法を
提供することにより、エンタテインメント性を有するア
トラクションや種々のアプリケーションに適用し得る様
々な可能性を有している。
Further, when the virtual experience device is an attraction such as a racing game, a plurality of cameras are provided in the virtual experience device in addition to the image pickup means provided in the HMD, and the photographed image picked up by them is the same as above. By combining the images with each other and displaying them separately on the HMD as desired, it is possible to provide an image 54 in which an image of the rearview mirror and images from different viewpoints as shown in FIG. 19 can be provided. The property is improved. As described above, the present invention has various possibilities that can be applied to attractions having entertainment properties and various applications by providing a method for generating a highly accurate synthetic image with reality.

【0042】以上輝度変化が生じている部分の判別によ
る画像合成の例の説明を行ったが、同様に色相変化を判
別のキーとしてもよい。例えば、図6に示したCG画像
をはめ込む窓の部位の色相を図20(a),(b)に示
したプロジェクター61にて照明することによって変化
させる。プロジェクター61は、シャフト62に支持さ
れるR,G,B各色のフィルタ63R,63G,63B
を一定速度で回転させることにより、CG画像をはめ込
む部位(窓)の形状に合わせた開口64から、レンズ6
5で集光した色相が時間的に変化する光を発することが
できる。これによって車内から撮像手段によって撮影し
た画像において、窓の部位だけが時間的に色相が変化し
ており、その他の部位との判別、抽出が可能になる。な
お、色相が変化する周期、用いる色相は撮影範囲での物
体の色相や動き、照明に依存するので、それに合わせて
最適な周期、色にする。
Although an example of image composition by discriminating a portion where a luminance change has occurred has been described above, a hue change may be used as a discrimination key in the same manner. For example, the hue of the window portion into which the CG image shown in FIG. 6 is fitted is changed by illuminating it with the projector 61 shown in FIGS. 20 (a) and 20 (b). The projector 61 includes filters 63R, 63G, 63B for R, G, B colors supported on a shaft 62.
By rotating the lens 6 at a constant speed, the lens 6 is inserted through the opening 64 matched to the shape of the part (window) into which the CG image is fitted.
It is possible to emit light whose hue condensed at 5 changes with time. As a result, in the image taken by the imaging means from the inside of the vehicle, the hue of only the window part changes temporally, and it is possible to distinguish and extract from other parts. The cycle in which the hue changes and the hue to be used depend on the hue and movement of the object in the shooting range and the illumination, so the optimum cycle and color are set accordingly.

【0043】なお、本発明は上述した例のみに限定され
るものではなく、種々の変更または変形を加えることが
できる。例えば、画像を撮像する撮像手段と、前記撮像
手段とは別途に設けられ他の画像を生成する画像生成手
段と、前記撮像手段が撮像した画像の範囲内で時間的に
所定値以上の輝度変化または色相変化が生じている部分
と生じていない部分とを判別し、判別された2つの部分
の予め設定した一方の部分に前記他の画像をはめ込む画
像処理を行う画像処理手段とを具備して成ることを特徴
とする画像合成装置(付記項1)において、前記時間的
に所定値以上の輝度変化または色相変化は周期的である
ことを特徴とする画像合成装置としてもよい(付記項
2)。その場合、輝度または色相の変化が周期的である
ことにより、上記2つの部分の判別がより容易かつ確実
になり、上記他の画像(例えばCG画像とする)をはめ
込みたくない部分が陰になったりならなかったりして輝
度変化が生じてしまった場合にCG画像がはめ込まれて
しまう不具合は生じない。
The present invention is not limited to the above-mentioned examples, and various changes and modifications can be added. For example, an image capturing unit that captures an image, an image generating unit that is provided separately from the image capturing unit and generates another image, and a luminance change over a predetermined value over time within the range of the image captured by the image capturing unit. Alternatively, an image processing unit for discriminating a portion where a hue change has occurred and a portion where no hue change has occurred, and performing image processing for fitting the other image into one of the two determined portions is set. In the image synthesizing device (Appendix 1), the luminance change or the hue change of a predetermined value or more in time is periodic (Appendix 2). . In that case, the change in the luminance or the hue is periodic, so that the above-mentioned two portions can be more easily and surely discriminated from each other, and a portion in which the other image (for example, a CG image) is not desired to be inlaid becomes a shadow. There is no problem that the CG image is inlaid when the brightness changes due to the non-existence.

【0044】また、上記付記項1において、前記撮像手
段の被写体の画像がはめ込まれる部分を照明する、光量
の変化する光源を有することを特徴とする画像合成装置
としてもよい(付記項3)。その場合、3次元実空間で
の実写画像を撮像する際に、上記他の画像(例えばCG
画像)をはめ込みたい部分を光量の変化する光源で照明
することによって、上記2つの部分の判別時に輝度変化
が生じている部分にCG画像をはめ込み、そうでない部
分は実写画像とした合成画像を生成することができる。
なお、上記光量の変化する光源としては、上記画像がは
め込まれる部分を前方または背面から照明する光源を用
いるとよい。
In addition, in the additional item 1, the image synthesizing device may be provided with a light source of varying the light amount, which illuminates a portion of the image pickup means in which the image of the subject is fitted (additional item 3). In that case, when capturing a photographed image in a three-dimensional real space, another image (for example, CG
By illuminating the part where the image) is to be fitted with a light source with varying light intensity, the CG image is fitted to the part where the brightness change occurs when the above two parts are discriminated, and a composite image that is a real image is created for the other part. can do.
A light source that illuminates a portion into which the image is fitted from the front or the back side may be used as the light source whose light amount changes.

【0045】また、上記付記項1において、前記撮像手
段の被写体の画像がはめ込まれる部分を照明する、色相
の変化する光源を有することを特徴とする画像合成装置
としてもよい(付記項4)。その場合、3次元実空間で
の実写画像を撮像する際に、上記他の画像(例えばCG
画像)をはめ込みたい部分を色相の変化する光源で照明
することによって、上記2つの部分の判別時に色相変化
が生じている部分にCG画像をはめ込み、そうでない部
分は実写画像とした合成画像を生成することができる。
なお、上記色相の変化する光源としては、上記画像がは
め込まれる部分を前方または背面から照明する、光量の
変化する光源を用いるとよい。
In addition, in the above-mentioned additional item 1, the image synthesizing device may be provided with a light source having a variable hue, which illuminates a portion of the image pickup means in which the image of the subject is fitted (additional item 4). In that case, when capturing a photographed image in a three-dimensional real space, another image (for example, CG
By illuminating the part where the image) is to be fitted with a light source that changes hue, a CG image is fitted to the part where the hue change occurs when the above two parts are discriminated, and a composite image that is a real image is created for the other part. can do.
As the light source of which the hue changes, it is preferable to use a light source of which the amount of light changes, which illuminates the portion where the image is fitted from the front or the back.

【0046】また、上記付記項1において、前記撮像手
段の被写体の全体を照明する輝度の変化する第1の光源
と、前記被写体の一部であって前記他の画像がはめ込ま
れる部分を照明する第2の光源とを有することを特徴と
する画像合成装置としてもよい(付記項5)。その場
合、3次元実空間での実写画像を撮像する際に、被写体
の全体は輝度変化する第1の光源によって照明され、前
記他の画像(例えばCG画像)がはめ込まれる部分は第
1の光源に加えて第2の光源でも照明されるため、CG
画像をはめ込みたい部分は他の部分に比べて第2の光源
の輝度特性が強く反映される。このことにより、実写画
像のCG画像をはめ込む部分を判別することができ、例
えば、第2の光源を第1の光源と周期の異なる輝度変化
をする照明とすることにより、判別が可能である。
In addition, in the above-mentioned additional item 1, the first light source of varying brightness for illuminating the entire subject of the image pickup means, and the part of the subject that illuminates the other image are illuminated. It may be an image synthesizing device having a second light source (Appendix 5). In that case, when capturing a real image in a three-dimensional real space, the entire subject is illuminated by the first light source whose brightness changes, and the portion into which the other image (for example, CG image) is fitted is the first light source. In addition to being illuminated by the second light source, CG
The luminance characteristic of the second light source is more strongly reflected in the portion where the image is to be fitted than in other portions. With this, it is possible to determine the portion where the CG image of the photographed image is fitted. For example, when the second light source is an illumination having a luminance change different from that of the first light source, the determination can be performed.

【0047】また、上記付記項5において、前記第2の
光源は前記第1の光源と逆位相で変化することを特徴と
する画像合成装置としてもよい(付記項6)。その場
合、第2の光源が第1の光源と逆位相で輝度が変化し、
かつ輝度の絶対値が等しい場合には、第2の光源で照明
されている部分は結果的に輝度変化が小さくなり、輝度
変化が一定以上の部分とそうでない部分とを判別するこ
とができる。
In addition, in the above-mentioned additional item 5, the image synthesizing device may be characterized in that the second light source changes in a phase opposite to that of the first light source (additional item 6). In that case, the brightness of the second light source changes in a phase opposite to that of the first light source,
When the absolute values of the brightness are equal, the part illuminated by the second light source has a small change in brightness as a result, and it is possible to discriminate a part where the change in brightness is equal to or more than a certain value and a part where it is not.

【0048】また、上記付記項5において、前記第2の
光源は光量が一定であることを特徴とする画像合成装置
としてもよい(付記項7)。その場合、3次元実空間で
の実写画像を撮像する際に、被写体の全体は輝度変化す
る第1の光源によって照明され、CGがはめ込まれる部
分は第1の光源に加えて第2の光源でも照明されるた
め、第2の光源が一定輝度の場合には、CG画像をはめ
込みたい部分は他の部分と相違して輝度がほぼ一定にな
る。このことにより、実写画像とCG画像とをはめ込む
部分を判別することができる。
In addition, in the additional item 5, the second light source may be an image synthesizing device having a constant light amount (additional item 7). In that case, when capturing a photographed image in a three-dimensional real space, the entire subject is illuminated by the first light source whose brightness changes, and the portion into which the CG is fitted is not only the first light source but also the second light source. Since the illumination is performed, when the second light source has a constant brightness, the brightness of the part where the CG image is to be fitted is substantially constant unlike the other parts. As a result, it is possible to determine the portion where the real image and the CG image are fitted.

【0049】また、画像を撮像する撮像手段と、前記撮
像手段とは別途に設けられ他の画像を生成する画像生成
手段と、前記撮像手段が撮像した画像の範囲内で時間的
に所定値以上の輝度変化が生じている部分であってかつ
特定の色信号を有する部分に前記他の画像をはめ込む画
像処理を行う画像処理手段とを具備して成ることを特徴
とする画像合成装置(付記項8)において、前記時間的
に所定値以上の輝度変化は周期的であることを特徴とす
る画像合成装置としてもよい(付記項9)。その場合、
輝度の変化が周期的であることにより、上記2つの部分
の判別がより容易かつ確実になり、上記他の画像(例え
ばCG画像とする)をはめ込みたくない部分が陰になっ
たりならなかったりして輝度変化が生じてしまった場合
にCG画像がはめ込まれてしまう不具合は生じない。
Further, an image pickup means for picking up an image, an image generating means provided separately from the image pickup means for generating another image, and a predetermined time value or more within a range of the image picked up by the image pickup means. Image synthesizing device for performing image processing for fitting the other image into a portion having a change in luminance and having a specific color signal. In 8), the image synthesizing apparatus may be characterized in that the change in luminance above a predetermined value with time is periodic (Appendix 9). In that case,
Since the change in the luminance is periodic, the above-mentioned two portions can be more easily and surely discriminated from each other, and the portion where the user does not want to fit the above-mentioned other image (for example, a CG image) may not be shaded. Therefore, there is no problem that the CG image is fitted when the brightness changes.

【0050】また、上記付記項8において、前記撮像手
段の被写体の画像がはめ込まれる部分を照明する、光量
の変化する光源を有し、該光源は前記撮像手段で撮像さ
れる際に前記特定の色信号を生成し得る色を有している
ことを特徴とする画像合成装置としてもよい(付記項1
0)。その場合、CG画像をはめ込みたい部分を光量の
変化する光源で照明したとき、その光源が前記特定の色
を有していることによって、上記2つの部分の判別時の
条件は、輝度変化および特定の色相を有するというシン
プルかつ確実なものになる。
In addition, in the additional item 8, there is provided a light source that illuminates a portion of the image pickup means into which an image of a subject is fitted, and the light source has a specific light amount when the image pickup means picks up the image. The image synthesizing device may have a color capable of generating a color signal (Appendix 1).
0). In this case, when the portion where the CG image is to be fitted is illuminated with a light source with a variable light amount, the light source has the specific color. It has a simple and reliable hue.

【0051】また、画像を撮像する撮像手段と、前記撮
像手段とは別途に設けられ他の画像を生成する画像生成
手段と、前記撮像手段が撮像した画像の範囲内で時間的
に所定値以上の輝度変化が生じている部分であってかつ
特定の色信号を有する部分を除く部分に前記他の画像を
はめ込む画像処理を行う画像処理手段とを具備して成る
ことを特徴とする画像合成装置(付記項11)におい
て、前記時間的に所定値以上の輝度変化は周期的である
ことを特徴とする画像合成装置としてもよい(付記項1
2)。その場合、輝度の変化が周期的であることによ
り、上記2つの部分の判別がより容易かつ確実になり、
上記他の画像(例えばCG画像とする)をはめ込みたく
ない部分が陰になったりならなかったりして輝度変化が
生じてしまった場合にCG画像がはめ込まれてしまう不
具合は生じない。
Further, an image pickup means for picking up an image, an image generating means provided separately from the image pickup means for generating another image, and a predetermined time value or more within a range of the image picked up by the image pickup means. And an image processing means for performing image processing for fitting the other image into a portion other than a portion having a change in luminance and having a specific color signal. In (Appendix 11), the image synthesizing apparatus may be characterized in that the temporal change in the luminance equal to or more than a predetermined value is periodic (Appendix 1).
2). In that case, since the change in the brightness is periodic, it becomes easier and more reliable to distinguish the above two parts,
The problem that the CG image is fitted does not occur when a change in luminance occurs because a portion where one does not want to fit another image (for example, a CG image) is hidden or not.

【0052】また、上記付記項11において、前記撮像
手段の被写体の前記他の画像がはめ込まれる部分の輝度
を時間的に変化させる照明手段と、前記特定の色信号に
相当する色を前記画像がはめ込まれる部分の外周に提示
する手段とを有していることを特徴とする画像合成装置
としてもよい(付記項13)。その場合、輝度変化およ
び特定色相を含むか否かの2つの条件を満たすか否かに
より上記2つの部分を判別するため、前記他の画像(例
えばCG画像)をはめ込みたい部分と実写画像の部分と
の判別が確実になる。特に、CG画像をはめ込みたい部
分の外周のCG画像をはめ込んで欲しくない部分である
のに輝度変化が生じていると判断されるおそれのある部
分を、撮像の際に特定の色信号が生成されるように特定
色相を含むようにすることにより、CG画像をはめ込み
たい部分とそうでない部分との境界部分が明確になり、
不所望にCG画像がはめ込まれることが防止される。
Further, in the above-mentioned additional item 11, illumination means for temporally changing the luminance of a portion of the subject of the image pickup means in which the other image is fitted, and the image corresponding to the specific color signal The image synthesizing device may have a means for presenting it on the outer periphery of the portion to be fitted (Appendix 13). In that case, since the above-mentioned two parts are discriminated depending on whether or not the two conditions, that is, whether or not the brightness change and the specific hue are included, are satisfied, a part where the other image (for example, a CG image) is desired to be fitted and a part of the photographed image. It will be certain that In particular, a specific color signal is generated at the time of imaging of a portion around the outer periphery of the portion where the CG image is desired to be embedded, which is not desired to be fitted with the CG image, but may be judged to have a change in brightness. As described above, by including the specific hue, the boundary between the portion where the CG image is to be fitted and the portion where the CG image is not embedded becomes clear,
Undesired CG image fitting is prevented.

【0053】また、上記付記項13において、前記照明
手段は前記他の画像がはめ込まれる部分を前方または背
面から照明する、光量の変化する光源であることを特徴
とする画像合成装置としてもよい(付記項14)。その
場合、3次元実空間での実写画像を撮像する際に、実写
画像の前記他の画像(例えばCG画像)をはめ込みたい
部分を前方または背面から光量の変化する光源で照明す
ることによって、上記2つの部分を判別する際に、輝度
変化が生じていて前記特定の色信号を含まない部分には
CG画像をはめ込み、それ以外の部分は実写画像とした
合成画像を生成することができる。
In addition, in the above-mentioned additional item 13, the illuminating means may be an image synthesizing device characterized in that it is a light source of illuminating a portion into which the other image is fitted from the front side or the rear side and changing the light amount ( Appendix 14). In that case, when capturing a real image in a three-dimensional real space, by illuminating a portion of the real image to be fitted with the other image (for example, a CG image) from the front or the back with a light source whose light amount changes, When discriminating the two parts, it is possible to generate a composite image in which a CG image is fitted to a part which has a change in luminance and does not include the specific color signal, and the other parts are real images.

【0054】また、画像を撮像する撮像手段と、前記撮
像手段とは別途に設けられ他の画像を生成する画像生成
手段と、前記撮像手段が撮像した画像の範囲内で時間的
に第1の所定値以上の輝度変化が生じている部分であっ
てかつその最大輝度が第2の所定値以上の部分に前記他
の画像をはめ込む画像処理を行う画像処理手段とを具備
して成ることを特徴とする画像合成装置としてもよい
(付記項15)。その場合、輝度変化が生じていること
と最大輝度が第2の所定値以上の2つの条件を満たすか
否かによって上記2つの部分を判別することにより、前
記他の画像(例えばCG画像)をはめ込みたい部分と実
写画像の部分との判別が確実になる。
Further, an image pickup means for picking up an image, an image generation means provided separately from the image pickup means for generating another image, and a first time point within the range of the image picked up by the image pickup means. Image processing means for performing image processing for fitting the other image in a portion where a change in luminance of a predetermined value or more occurs and the maximum luminance thereof is a second predetermined value or more. The image synthesizing device may be (Appendix 15). In that case, the other image (for example, a CG image) is determined by discriminating the above two parts depending on whether the luminance change occurs and whether or not the maximum luminance satisfies the two conditions of the second predetermined value or more. The distinction between the part to be fitted and the part of the photographed image becomes reliable.

【0055】例えば、CG画像をはめ込みたい部分を輝
度変化が生じている部分とする条件だけを用いる場合、
輝度変化が生じている部分の周辺も変化の度合は少ない
が輝度変化が生じている。したがって、画像をはめ込む
部分とそれ以外の部分とは境界が明確であるが、輝度変
化が生じている部分と生じていない部分とは境界が不明
確である。この場合、CG画像をはめ込んで欲しくない
部分まで輝度変化が生じていると判断され、CG画像が
はめ込まれてしまうおそれがある。これを解消するた
め、CG画像をはめ込む部分の輝度変化の条件を「最大
輝度が閾値(第2の所定値)を上回る部分のみにCG画
像をはめ込む」とすることにより、所望の合成画像が得
られる。この第2の所定値を適宜選択することにより、
CG画像をはめ込みたくないが輝度変化が多少生じてい
る部分にCG画像がはめ込まれてしまうのを防止するこ
とができる。
For example, in the case of using only the condition in which the portion in which the CG image is to be fitted is the portion in which the luminance change occurs,
Around the portion where the luminance change occurs, the degree of change is small, but the luminance change occurs. Therefore, the boundary is clear between the part where the image is fitted and the other part, but the boundary is not clear between the part where the brightness change occurs and the part where the brightness change does not occur. In this case, it is determined that the luminance change has occurred in a portion where the user does not want to fit the CG image, and the CG image may be fitted. In order to solve this, by setting the condition of the brightness change of the part in which the CG image is fitted to "fit the CG image only in the part where the maximum brightness exceeds the threshold value (second predetermined value)", a desired composite image is obtained. To be By appropriately selecting this second predetermined value,
It is possible to prevent the CG image from being embedded in a portion where it is not desired to embed the CG image, but a slight change in luminance has occurred.

【0056】また、上記付記項15において、前記時間
的に第1の所定値以上の輝度変化は周期的であることを
特徴とする画像合成装置としてもよい(付記項16)。
その場合、輝度の変化が周期的であることにより、上記
2つの部分の判別がより容易かつ確実になり、上記他の
画像(例えばCG画像とする)をはめ込みたくない部分
が陰になったりならなかったりして輝度変化が生じてし
まった場合にCG画像がはめ込まれてしまう不具合は生
じない。
In addition, in the above-mentioned additional item 15, the image synthesizing apparatus may be characterized in that the change in the luminance of the first predetermined value or more in time is periodic (additional item 16).
In that case, since the change of the luminance is periodic, the above-mentioned two parts can be more easily and surely discriminated from each other, and a part which is not desired to be fitted with the other image (for example, a CG image) is shaded. There is no problem that the CG image is fitted when the brightness changes due to the absence of the CG image.

【0057】また、上記付記項15において、前記撮像
手段の被写体の前記他の画像を合成される部分の外周
に、前記第1の所定値未満に輝度を抑える反射率抑制領
域を配設したことを特徴とする画像合成装置としてもよ
い(付記項17)。その場合、CG画像をはめ込みたく
ないのにはめ込まれてしまうおそれがある輝度変化が生
じている部分の周辺等の部分を、最大輝度が前記第1の
所定値未満になるように反射率の低い部材等にすること
により、所望の合成画像が得られる。
In addition, in the above-mentioned additional item 15, a reflectance suppression region for suppressing the brightness to be less than the first predetermined value is provided on the outer periphery of the portion of the image pickup means where the other image is combined. The image synthesizing device may be characterized by (Appendix 17). In that case, the reflectance is low so that the maximum luminance is less than the first predetermined value in a portion around the portion in which there is a change in luminance that may be fitted without wanting to fit the CG image. By using a member or the like, a desired composite image can be obtained.

【0058】また、上記付記項17において、前記他の
画像がはめ込まれる部分を前方または背面から光量が変
化するように照明する光源を有することを特徴とする画
像合成装置としてもよい(付記項18)。その場合、3
次元実空間での実写画像を撮像する際に、前記他の画像
(例えばCG画像)をはめ込みたい部分を前方また後方
から光量の変化する光源で照明することによって、上記
2つの部分の判別時に輝度変化が生じていて最大輝度が
前記第1の所定値(閾値)以上の部分にCG画像をはめ
込み、それ以外の部分は実写画像とした合成画像を生成
することができる。
In addition, in the additional item 17, the image synthesizing apparatus may further include a light source that illuminates a portion into which the other image is fitted from the front side or the rear side so as to change the light amount (additional item 18). ). In that case, 3
When capturing a photographed image in a two-dimensional real space, by illuminating a portion where the other image (for example, a CG image) is to be fitted with a light source whose light amount changes from the front or the rear, the brightness at the time of discriminating the above two portions It is possible to generate a composite image in which a CG image is fitted in a portion where the change occurs and the maximum brightness is equal to or higher than the first predetermined value (threshold value), and the other portions are real images.

【0059】また、画像を撮像する撮像手段と、前記撮
像手段とは別途に設けられ他の画像を生成する画像生成
手段と、前記撮像手段が撮像した画像の範囲内で第1の
所定値以上の輝度変化率を有する部分であって最小輝度
が第2の所定値未満の部分を判別し、判別された部分を
除く部分に前記他の画像をはめ込む画像処理を行う画像
処理手段とを具備して成ることを特徴とする画像合成装
置としてもよい(付記項19)。その場合、前記他の画
像(例えばCG画像)をはめ込みたい部分と実写画像の
部分との判別を確実にするため、以下の2つの条件を満
たすか否かにより上記2つの部分の判別を行う。すなわ
ち、CG画像をはめ込まない部分は前記第1の所定値以
上の輝度変化率で、かつ最低輝度が前記第2の所定値未
満の部分とする。これにより、CG画像をはめ込む部分
は、前記第1の所定値未満の輝度変化率でかつ最低輝度
が前記第2の所定値以上という条件を満たす部分とな
り、以下のような不具合を防止することができる。
Further, an image pickup means for picking up an image, an image generation means provided separately from the image pickup means for generating another image, and a first predetermined value or more within the range of the image picked up by the image pickup means. Image processing means for discriminating a portion having a minimum luminance change rate of less than a second predetermined value and fitting the other image to the portion excluding the discriminated portion. The image synthesizing apparatus may be configured by (Appendix 19). In that case, in order to ensure the distinction between the portion where the other image (for example, a CG image) is desired to be fitted and the portion of the actual image, the above-mentioned two portions are discriminated depending on whether or not the following two conditions are satisfied. That is, the portion in which the CG image is not fitted is the portion with the rate of change in luminance equal to or higher than the first predetermined value and the minimum luminance less than the second predetermined value. As a result, the portion where the CG image is fitted becomes a portion satisfying the condition that the luminance change rate is less than the first predetermined value and the minimum luminance is not less than the second predetermined value, and the following problems can be prevented. it can.

【0060】例えば、撮像手段の被写体の全体を輝度変
化する第1の光源で照明し、CG画像をはめ込む部分を
一定輝度の光源で照明する場合には、被写体の中で全体
を照明する第1の光源によって生じる影の部分は輝度変
化率が少なくなる。このとき輝度変化がないと認識され
るため、誤って影の部分にもCG画像がはめ込まれてし
まうが、上述のように「CG画像をはめ込む部分は最低
輝度が前記第2の所定値以上」という条件を設けたた
め、そのような誤合成は防止される。また、CG画像を
はめ込む際に生じるおそれのある上記請求項2、3およ
び付記項15で挙げたような不具合を防止することがで
きる。すなわち、CG画像をはめ込む部分の輝度変化率
より大きくかつ周辺の輝度変化が起きている部分の輝度
変化率より小さい範囲の輝度変化率を有する部分につい
ては、前記第1の所定値を閾値に設定し、その閾値を下
回る場合のみにCG画像をはめ込むことによって所望の
合成画像が得られる。
For example, in the case of illuminating the entire subject of the image pickup means with the first light source which changes the luminance and illuminating the portion into which the CG image is fitted with the light source of constant luminance, the first illuminating the whole of the subject. The rate of change in brightness is reduced in the shadow part generated by the light source of. At this time, since it is recognized that there is no brightness change, the CG image is erroneously fitted in the shadow portion as well. However, as described above, "the lowest brightness is equal to or higher than the second predetermined value in the CG image fitting portion". Since such a condition is provided, such erroneous combination is prevented. Further, it is possible to prevent the inconveniences such as those mentioned in claims 2 and 3 and appendix 15 that may occur when the CG image is fitted. That is, for a portion having a luminance change rate in a range that is larger than the luminance change rate of the portion into which the CG image is fitted and smaller than the luminance change rate of the peripheral luminance change portion, the first predetermined value is set as the threshold value. Then, the desired composite image is obtained by fitting the CG image only when the value is below the threshold value.

【0061】また、上記付記項19において、前記時間
的に第1の所定値以上の輝度変化は周期的であることを
特徴とする画像合成装置としてもよい(付記項20)。
その場合、輝度の変化が周期的であることにより、上記
2つの部分の判別がより容易かつ確実になり、上記他の
画像(例えばCG画像とする)をはめ込みたくない部分
が陰になったりならなかったりして輝度変化が生じてし
まった場合にCG画像がはめ込まれてしまう不具合は生
じない。
In addition, in the above-mentioned additional item 19, the image synthesizing apparatus may be characterized in that the change in luminance of the first predetermined value or more with time is periodic (additional item 20).
In that case, since the change of the luminance is periodic, the above-mentioned two parts can be more easily and surely discriminated from each other, and a part which is not desired to be fitted with the other image (for example, a CG image) is shaded. There is no problem that the CG image is fitted when the brightness changes due to the absence of the CG image.

【0062】また、上記付記項19において、前記撮像
手段の被写体の全体を照明する輝度の変化する第1の光
源と、前記被写体の一部であって前記他の画像がはめ込
まれる部分を照明する一定光量の第2の光源とを有する
ことを特徴とする画像合成装置としてもよい(付記項2
1)。その場合、前記他の画像(例えばCG画像)をは
め込む部分を一定光量の第2の光源で照明することによ
り、最低輝度がある所定値以上になるとともに輝度変化
率がある所定値未満に保たれることになり、上記2つの
部分の判別が容易かつ確実となる。
In addition, in the above-mentioned additional item 19, a first light source of varying brightness for illuminating the entire subject of the image pickup means and a part of the subject where the other image is fitted are illuminated. The image synthesizing apparatus may have a second light source having a constant light amount (Appendix 2).
1). In that case, by illuminating a portion into which the other image (for example, a CG image) is fitted with a second light source having a constant light amount, the minimum brightness is kept above a predetermined value and the rate of change in brightness is kept below a predetermined value. As a result, the above two parts can be easily and reliably discriminated.

【0063】また、画像を撮像する撮像手段と、前記撮
像手段とは別途に設けられ他の画像を生成する画像生成
手段と、前記撮像手段が撮像した画像の範囲内で輝度変
化が一定周期で生じている部分であって互いに輝度変化
が逆位相になる2つの部分を判別し、判別された2つの
部分の特定の一方の部分に前記他の画像をはめ込む画像
処理を行う画像処理手段とを具備して成ることを特徴と
する画像合成装置としてもよい(付記項22)。その場
合、例えば実写画像の部分およびCG画像の部分を互い
に逆位相の輝度変化が生じるようにすることにより、両
部分の間の輝度変化量が大きくなるため、画像をはめ込
む部分の判別が容易になる。
Further, an image pickup means for picking up an image, an image generating means provided separately from the image pickup means for generating another image, and a luminance change at a constant cycle within a range of the image picked up by the image pickup means. And an image processing unit that performs image processing to determine two portions that are occurring and whose luminance changes have opposite phases to each other, and that fits the other image into one of the determined two portions. An image synthesizing device may be provided (Appendix 22). In that case, for example, by causing the brightness change between the real image and the CG image to have opposite phases to each other, the brightness change amount between the two parts becomes large, so that the part into which the image is fitted can be easily identified. Become.

【0064】また、上記付記項22において、前記撮像
手段の被写体の全体を照明する輝度の変化する第1の光
源と、前記被写体の前記他の画像がはめ込まれる部分を
照明する光源であって前記第1の光源とは逆位相で輝度
が変化する第2の光源とを有することを特徴とする画像
合成装置としてもよい(付記項23)。その場合、前記
画像(例えば実写画像)の撮像範囲全体を第1の光源に
よって照明することによりこの位相の部分にそのまま実
写画像を用い、これと逆位相の前記他の画像(例えばC
G画像)をはめ込みたい部分を輝度変化するように照明
することにより、所望の合成画像が得られる。
In addition, in the above-mentioned additional item 22, a first light source of varying brightness for illuminating the entire subject of the image pickup means and a light source for illuminating a portion of the subject into which the other image is fitted are provided. The image synthesizing apparatus may have a second light source whose brightness changes in an opposite phase to the first light source (Appendix 23). In that case, by illuminating the entire imaging range of the image (for example, the real image) with the first light source, the real image is used as it is in the part of this phase, and the other image (for example, C
A desired composite image is obtained by illuminating a portion where the G image) is to be fitted so as to change the brightness.

【0065】また、上記付記項2,9,12,16,2
0,22において、前記変化の周期は、前記撮像手段の
走査周期とほぼ同ーまたはその整数倍であることを特徴
とする画像合成装置としてもよい(付記項24)。その
場合、画像合成処理の用いる記憶デバイス(フレームメ
モリ等)のフリッカを防止することができる。
Further, the above additional items 2, 9, 12, 16, 2
The image synthesizing apparatus may be characterized in that, at 0 and 22, the cycle of the change is substantially the same as the scanning cycle of the image pickup means or an integral multiple thereof (Appendix 24). In that case, it is possible to prevent flicker of the storage device (frame memory or the like) used in the image combining process.

【0066】また、上記付記項1〜24において、頭部
装着型画像表示装置を設けて該頭部装着型画像表示装置
に前記撮像手段を固定するとともに、前記画像合成装置
が合成した画像を表示するようにしたことを特徴とする
頭部装着型画像表示装置付き画像合成装置としてもよい
(付記項25)。その場合、頭部装着型画像表示装置
(HMD)へ適応することにより、HMD観察者は観察
者自身がCG画像によって表現された全方向(360
度)の仮想空間の中に身を置くことができ、さらに、画
像合成処理の速度を早くすることにより、リアルタイム
で仮想空間の中にいる自分を感ずることができる。この
とき、実写画像を撮像する撮像手段をHMDに設けたこ
とにより、観察者の視線とほぼ同一の画像を撮像するこ
とができ、その実写画像に仮想世界の画像を例えばCG
画像として組み入れた合成画像によって、より現実世界
に近付いた仮想世界を構築することができる。また、効
果音をHMDのスピーカから発することや、観察者の見
る位置や姿勢が限定されないことにより、リアリティが
向上する。このようにHMDを画像表示手段としてシス
テムに組み入れることにより、HMDを用いないで同ー
効果を達成しようとする場合に比べてシステムの小型化
やコストダウンを達成することができる。
In addition, in the above supplementary items 1 to 24, a head-mounted image display device is provided, the imaging means is fixed to the head-mounted image display device, and an image synthesized by the image synthesis device is displayed. An image synthesizing device with a head-mounted image display device may be used (Appendix 25). In that case, by adapting to a head-mounted image display device (HMD), the HMD observer can observe the omnidirectional (360
It is possible to put yourself in a virtual space of (degrees), and by accelerating the speed of image synthesis processing, you can feel yourself in the virtual space in real time. At this time, by providing the HMD with an image pickup means for picking up a photographed image, it is possible to photograph an image that is almost the same as the line of sight of the observer.
With the synthetic image incorporated as an image, it is possible to construct a virtual world that is closer to the real world. In addition, the sound effect is emitted from the speaker of the HMD, and the observer's viewing position and posture are not limited, so that the reality is improved. By thus incorporating the HMD into the system as an image display means, it is possible to reduce the size and cost of the system as compared with the case of achieving the same effect without using the HMD.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態の画像合成装置の構成を
示す図である。
FIG. 1 is a diagram showing a configuration of an image composition device according to a first embodiment of the present invention.

【図2】第1実施形態の画像合成処理を説明するための
図である。
FIG. 2 is a diagram illustrating an image combining process according to the first embodiment.

【図3】第1実施形態の画像合成処理を説明するための
図である。
FIG. 3 is a diagram illustrating an image combining process according to the first embodiment.

【図4】第1実施形態の画像合成処理を説明するための
図である。
FIG. 4 is a diagram illustrating an image combining process according to the first embodiment.

【図5】第1実施形態をドライブシミュレータに適用し
た場合の実写画像、CG画像および合成画像を例示する
図である。
FIG. 5 is a diagram exemplifying a real shot image, a CG image, and a composite image when the first embodiment is applied to a drive simulator.

【図6】第1実施形態の実写画像領域およびCG画像領
域の照明を説明するための図である。
FIG. 6 is a diagram for explaining illumination of a photographed image area and a CG image area according to the first embodiment.

【図7】図7(a)〜(c)は第1実施形態の実写画像
領域およびCG画像領域の照明を説明するための図であ
る。
7A to 7C are diagrams for explaining illumination of a real image area and a CG image area according to the first embodiment.

【図8】第1実施形態の画像合成方法を説明するための
図である。
FIG. 8 is a diagram illustrating an image combining method according to the first embodiment.

【図9】(a)〜(c)は第1実施形態の変形例の作用
を説明するための図である。
9A to 9C are views for explaining the operation of the modification of the first embodiment.

【図10】図10(a)〜(c)は本発明の第2実施形
態の画像合成処理を従来技術と比較して説明するための
図である。
FIG. 10A to FIG. 10C are diagrams for explaining the image synthesizing process of the second embodiment of the present invention in comparison with a conventional technique.

【図11】本発明の第3実施形態の画像合成処理を説明
するための図である。
FIG. 11 is a diagram illustrating an image combining process according to the third embodiment of the present invention.

【図12】(a),(b)は本発明の第4実施形態の画
像合成処理を説明するための図である。
FIG. 12A and FIG. 12B are views for explaining the image synthesizing process of the fourth embodiment of the present invention.

【図13】第4実施形態の輝度変化量を説明するための
図である。
FIG. 13 is a diagram for explaining the amount of change in luminance according to the fourth embodiment.

【図14】(a),(b)は本発明の第5実施形態の画
像合成処理の一例を説明するための図である。
FIGS. 14A and 14B are diagrams for explaining an example of image compositing processing according to the fifth embodiment of the present invention.

【図15】(a),(b)は夫々、図14(a),
(b)における各部位の時間的な輝度変化を説明するた
めの図である。
15 (a), (b) are respectively FIG. 14 (a),
It is a figure for demonstrating the time-dependent luminance change of each site | part in (b).

【図16】(a),(b)は本発明の第5実施形態の画
像合成処理の他の例を説明するための図である。
16A and 16B are diagrams for explaining another example of the image synthesizing process of the fifth embodiment of the present invention.

【図17】(a),(b)は夫々、図16(a),
(b)における各部位の時間的な輝度変化を説明するた
めの図である。
17 (a) and (b) are respectively FIG. 16 (a),
It is a figure for demonstrating the time-dependent luminance change of each site | part in (b).

【図18】本発明を立体視システムに適用する場合の構
成を例示する図である。
FIG. 18 is a diagram illustrating a configuration when the present invention is applied to a stereoscopic system.

【図19】本発明をレーシングゲームのようなアトラク
ションに適用する場合の合成画像を例示する図である。
FIG. 19 is a diagram illustrating a composite image when the present invention is applied to an attraction such as a racing game.

【図20】(a),(b)は本発明の実施形態の画像合
成処理の他の例を説明するための図である。
20A and 20B are diagrams for explaining another example of the image synthesizing process according to the embodiment of the present invention.

【図21】従来技術を説明するための図である。FIG. 21 is a diagram for explaining a conventional technique.

【符号の説明】[Explanation of symbols]

1 被験者(ドライバー) 2 頭部装着型画像表示装置(HMD) 3 3次元空間センサ 4 画像生成装置(画像生成手段) 5 仮想空間画像データベース 6 補助的な入力装置 7 撮像装置(撮像手段) 8 画像合成装置(画像処理手段) A,B 光源 1 subject (driver) 2 head-mounted image display device (HMD) 3 three-dimensional space sensor 4 image generation device (image generation means) 5 virtual space image database 6 auxiliary input device 7 imaging device (imaging means) 8 images Synthesizing device (image processing means) A, B Light source

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像を撮像する撮像手段と、 前記撮像手段とは別途に設けられ他の画像を生成する画
像生成手段と、 前記撮像手段が撮像した画像の範囲内で時間的に所定値
以上の輝度変化または色相変化が生じている部分と生じ
ていない部分とを判別し、判別された2つの部分の予め
設定した一方の部分に前記他の画像をはめ込む画像処理
を行う画像処理手段とを具備して成ることを特徴とする
画像合成装置。
1. An image pickup unit for picking up an image, an image generation unit provided separately from the image pickup unit for generating another image, and a predetermined value or more in time within the range of the image picked up by the image pickup unit. And an image processing unit that performs image processing to discriminate a portion where a luminance change or hue change has occurred and a portion where no hue change has occurred, and to fit the other image into one of the two determined portions set in advance. An image synthesizing apparatus comprising:
【請求項2】 画像を撮像する撮像手段と、 前記撮像手段とは別途に設けられ他の画像を生成する画
像生成手段と、 前記撮像手段が撮像した画像の範囲内で時間的に所定値
以上の輝度変化が生じている部分であってかつ特定の色
信号を有する部分に前記他の画像をはめ込む画像処理を
行う画像処理手段とを具備して成ることを特徴とする画
像合成装置。
2. An image pickup unit for picking up an image, an image generation unit provided separately from the image pickup unit for generating another image, and a predetermined value or more in time within the range of the image picked up by the image pickup unit. And an image processing means for performing image processing for fitting the other image in a portion having a change in luminance and having a specific color signal.
【請求項3】 画像を撮像する撮像手段と、 前記撮像手段とは別途に設けられ他の画像を生成する画
像生成手段と、 前記撮像手段が撮像した画像の範囲内で時間的に所定値
以上の輝度変化が生じている部分であってかつ特定の色
信号を有する部分を除く部分に前記他の画像をはめ込む
画像処理を行う画像処理手段とを具備して成ることを特
徴とする画像合成装置。
3. An image pickup unit for picking up an image, an image generation unit provided separately from the image pickup unit for generating another image, and a predetermined value or more in time within the range of the image picked up by the image pickup unit. And an image processing means for performing image processing for fitting the other image into a portion other than a portion having a change in luminance and having a specific color signal. .
JP33674295A 1995-12-25 1995-12-25 Image composition device Pending JPH09181972A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33674295A JPH09181972A (en) 1995-12-25 1995-12-25 Image composition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33674295A JPH09181972A (en) 1995-12-25 1995-12-25 Image composition device

Publications (1)

Publication Number Publication Date
JPH09181972A true JPH09181972A (en) 1997-07-11

Family

ID=18302308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33674295A Pending JPH09181972A (en) 1995-12-25 1995-12-25 Image composition device

Country Status (1)

Country Link
JP (1) JPH09181972A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107968A (en) * 2003-09-30 2005-04-21 Canon Inc Image display device and method, and information processing method
US7574070B2 (en) 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP2010134152A (en) * 2008-12-04 2010-06-17 Brother Ind Ltd Head-mounted display
WO2020137088A1 (en) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド Head-mounted display, display method, and display system
JP2022152443A (en) * 2021-03-29 2022-10-12 グリー株式会社 Information processing system, information processing method and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005107968A (en) * 2003-09-30 2005-04-21 Canon Inc Image display device and method, and information processing method
US7574070B2 (en) 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP2010134152A (en) * 2008-12-04 2010-06-17 Brother Ind Ltd Head-mounted display
WO2020137088A1 (en) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド Head-mounted display, display method, and display system
JP2022152443A (en) * 2021-03-29 2022-10-12 グリー株式会社 Information processing system, information processing method and computer program

Similar Documents

Publication Publication Date Title
JP6824279B2 (en) Head-mounted display for virtual reality and mixed reality with inside-out position, user body, and environmental tracking
US10365711B2 (en) Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
KR101732890B1 (en) Method of rendering augmented reality on mirror display based on motion of target of augmented reality and apparatus using the same
US11756269B2 (en) Tangibility visualization of virtual objects within a computer-generated reality environment
US8199186B2 (en) Three-dimensional (3D) imaging based on motionparallax
JP2749487B2 (en) Head-mounted display system
US20170301137A1 (en) Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality
US20150054734A1 (en) Head-mountable apparatus and systems
US10096166B2 (en) Apparatus and method for selectively displaying an operational environment
JPH07311857A (en) Picture compositing and display device and simulation system
CN106168855B (en) Portable MR glasses, mobile phone and MR glasses system
JPH11161814A (en) Image generation device, simulation device and information storage medium
EP3308539A1 (en) Display for stereoscopic augmented reality
CN110633009B (en) Method and system for displaying virtual objects
WO2016141208A1 (en) System and method for immersive and interactive multimedia generation
US20220189078A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
JPH1196366A (en) Method and device for synthesizing facial image of person wearing head mount display
JPH09181972A (en) Image composition device
US20030151726A1 (en) System and method for displaying physical objects in space
JP2019047296A (en) Display device, display method, control program, and electronic mirror system
JP2000218575A (en) Image display device
CN111837161A (en) Shadowing images in three-dimensional content systems
JP6562371B1 (en) Display device, display processing device, and display processing program
JP2022093262A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP2018112885A (en) Program and image generation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Effective date: 20050909

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050920

A02 Decision of refusal

Effective date: 20060404

Free format text: JAPANESE INTERMEDIATE CODE: A02