JP2012175668A - Image combination method - Google Patents

Image combination method Download PDF

Info

Publication number
JP2012175668A
JP2012175668A JP2011038751A JP2011038751A JP2012175668A JP 2012175668 A JP2012175668 A JP 2012175668A JP 2011038751 A JP2011038751 A JP 2011038751A JP 2011038751 A JP2011038751 A JP 2011038751A JP 2012175668 A JP2012175668 A JP 2012175668A
Authority
JP
Japan
Prior art keywords
image
subject
virtual
photographing
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011038751A
Other languages
Japanese (ja)
Other versions
JP5691631B2 (en
Inventor
Satoru Kondo
哲 近藤
Tomoya Kaneko
智弥 金子
Akira Doi
暁 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2011038751A priority Critical patent/JP5691631B2/en
Publication of JP2012175668A publication Critical patent/JP2012175668A/en
Application granted granted Critical
Publication of JP5691631B2 publication Critical patent/JP5691631B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image combination method with which, when an image-correspondent subject is required, a synthetic image is produced by inserting the image-correspondent subject to a photographed image.SOLUTION: An image combination method for combining a real image obtained by photographing a subject and a virtual image which has been produced already includes a photographing step of photographing, by a predetermined device, a subject including an image-correspondent subject to which the virtual image is made correspondent and which is hardly visible for a human being or is invisible and can be identified by the predetermined device, an information acquiring step of analyzing the photographed image, detecting the image-correspondent subject and acquiring combination information for specifying the virtual image which is made correspondent to the detected image-correspondent subject, and an image combination step of combining the virtual image specified on the basis of the combination information and the photographed real image.

Description

本発明は、撮影した実画像と生成した仮想画像とを合成する画像合成方法に関する。   The present invention relates to an image composition method for compositing a captured real image and a generated virtual image.

撮影した実画像と生成した仮想画像とを合成する画像合成方法としては、例えば、撮影した撮影画像に含まれる視認可能な特定の被写体と対応づけられた付加画像を、特定の被写体の位置に応じて撮影画像上に配置して合成画像を生成する画像合成方法が知られている(例えば、特許文献1参照)。   As an image synthesis method for synthesizing a captured real image and a generated virtual image, for example, an additional image associated with a specific visible subject included in the captured captured image is selected according to the position of the specific subject. An image composition method is known in which a composite image is generated by being arranged on a captured image (see, for example, Patent Document 1).

特開2010―187052号公報JP 2010-187052 A

上記従来の画像合成方法は、付加画像が対応づけられた特定の被写体としての画像対応被写体は視認可能なので、人間が肉眼で見ることができる。しかしながら、被写体は、合成画像を生成するためだけに撮影される物ばかりではなく、合成画像を必要としない人も見る可能性がある被写体がある。このような被写体に対しては、画像対応被写体を必要としない人には画像対応被写体が見えないことが望ましい。   In the conventional image synthesizing method, the image-corresponding subject as the specific subject to which the additional image is associated is visible, so that a human can see with the naked eye. However, the subject is not only an object photographed only for generating a composite image, but also a subject that may be seen by a person who does not need the composite image. For such a subject, it is desirable that the person who does not need the image corresponding subject cannot see the image corresponding subject.

本発明は、かかる課題に鑑みてなされたものであり、その目的とするところは、肉眼では見えにくい、または、見えない画像対応被写体を用いて仮想画像と実画像との合成画像を生成することが可能な画像合成方法を提供することにある。 The present invention has been made in view of such problems, and an object of the present invention is to generate a composite image of a virtual image and a real image using an image-corresponding subject that is difficult or invisible to the naked eye. An object of the present invention is to provide an image composition method capable of

かかる目的を達成するために本発明の画像合成方法は、被写体を撮影した実画像と既に生成されている仮想画像とを合成する画像合成方法であって、前記仮想画像が対応づけられており、人間が視認しにくい、または、視認不能であって、所定の装置にて識別可能な画像対応被写体を含む前記被写体を前記所定の装置にて撮影する撮影工程と、撮影した画像を解析して前記画像対応被写体を検出し、検出された前記画像対応被写体に対応づけられた前記仮想画像を特定するための合成情報を取得する情報取得工程と、前記合成情報に基づいて特定された前記仮想画像と撮影された実画像とを合成する画像合成工程と、を有することを特徴とする画像合成方法である。   In order to achieve this object, the image composition method of the present invention is an image composition method for compositing a real image obtained by photographing a subject and a virtual image that has already been generated, and the virtual image is associated with the image. A photographing step of photographing the subject including the image-corresponding subject that is difficult for humans to visually recognize or cannot be visually recognized and can be identified by a predetermined device, and analyzing the photographed image to analyze the captured image An information acquisition step of detecting an image-corresponding subject and acquiring composite information for specifying the virtual image associated with the detected image-corresponding subject; and the virtual image specified based on the composite information; An image composition method comprising: an image composition step for compositing a captured real image.

このような画像合成方法によれば、仮想画像が対応づけられている画像対応被写体は、人間が視認しにくい、または、視認不能なので、人間の視界に画像対応被写体が現れ難い、または、現れない。また、画像対応被写体は所定の装置にて識別可能なので、所定の装置にて、視界内に画像対応被写体が配置されている場所を撮影することにより、画像対応被写体に対応づけられた仮想画像を特定することが可能である。このため、肉眼では見えにくい、または、見えない画像対応被写体を用いて仮想画像と実画像とを合成した合成画像を生成することが可能である。   According to such an image composition method, the image-corresponding subject to which the virtual image is associated is difficult or impossible for humans to visually recognize, so that the image-corresponding subject is difficult or does not appear in the human field of view. . In addition, since the image-corresponding subject can be identified by a predetermined device, the virtual image associated with the image-corresponding subject is captured by photographing the place where the image-corresponding subject is disposed in the field of view with the predetermined device. It is possible to specify. For this reason, it is possible to generate a composite image obtained by combining a virtual image and a real image using an image-corresponding subject that is difficult or invisible to the naked eye.

かかる画像合成方法であって、前記画像対応被写体は、光の所定の成分を吸収する無色透明な塗料にて形成されており、前記所定の装置は、前記所定の成分を透過する偏光フィルターを備えていることが望ましい。   In this image composition method, the image-corresponding subject is formed of a colorless and transparent paint that absorbs a predetermined component of light, and the predetermined device includes a polarizing filter that transmits the predetermined component. It is desirable that

このような画像合成方法によれば、無色透明な塗料にて形成された画像対応被写体が光の所定の成分を吸収するので、画像対応被写体を含む被写体を、所定の成分を透過する偏光フィルターを備えた所定の装置にて撮影すると、画像対応被写体の部分だけ入射される光の量が少ない画像が撮影される。そして、光の量が少ない部位は黒くなるため、画像対応被写体の部位が黒くなった画像が撮影され、撮影された画像から画像対応被写体を特定して合成画像を生成することが可能である。このため無色透明で肉眼では見えにくい、または、見えない画像対応被写体を用いて、容易に合成画像を生成することが可能である。   According to such an image composition method, an image corresponding subject formed of a colorless and transparent paint absorbs a predetermined component of light. Therefore, a polarization filter that transmits a predetermined component is applied to a subject including the image corresponding subject. When the image is taken with a predetermined apparatus, an image with a small amount of incident light is taken only for the image corresponding subject. Since the part where the amount of light is small is black, an image in which the part of the image corresponding subject is black is photographed, and a composite image can be generated by specifying the image corresponding subject from the photographed image. Therefore, it is possible to easily generate a composite image using an image-corresponding subject that is colorless and transparent and difficult to see with the naked eye.

かかる画像合成方法であって、前記塗料は、メタクリル酸特殊エステル、または、アクリル酸特殊エステルであることが望ましい。   In this image synthesis method, the paint is preferably a methacrylic acid special ester or an acrylic acid special ester.

このような画像合成方法によれば、メタクリル酸特殊エステルやアクリル酸特殊エステルは、無色透明で所定の成分を吸収するので、メタクリル酸特殊エステルやアクリル酸特殊エステルにて画像対応被写体を生成することにより、人間が視認しにくい、または、視認不能であって、所定の装置にて識別可能な画像対応被写体を容易に生成することが可能である。   According to such an image synthesis method, the methacrylic acid special ester and the acrylic acid special ester are colorless and transparent and absorb a predetermined component. Accordingly, it is possible to easily generate an image-corresponding subject that is difficult for humans to visually recognize or is invisible and that can be identified by a predetermined device.

かかる画像合成方法であって、前記画像対応被写体は、特定の波長を吸収しやすく、下地と同色の材料にて形成されており、前記所定の装置は、前記特定の波長の光を検出する装置であることが望ましい。   In this image composition method, the image-corresponding subject easily absorbs a specific wavelength and is formed of a material having the same color as the ground, and the predetermined device detects light of the specific wavelength. It is desirable that

このような画像合成方法によれば、画像対応被写体は下地と同色にて形成されているので、視認しにくく、また、特定の波長を吸収し易いので、自然光の下では画像対応被写体にて特定の波長の光が反射されないので、特定の波長の光を検出する所定の装置にて撮影すると、画像対応被写体部分が黒くなる。このため、人間が視認し難く、所定の装置にて識別可能な画像対応被写体を用いて、容易に合成画像を生成することが可能である。   According to such an image composition method, the image-corresponding subject is formed in the same color as the background, so that it is difficult to visually recognize and absorbs a specific wavelength. Since the light having the wavelength of is not reflected, the image-corresponding subject portion becomes black when the image is taken with a predetermined device that detects the light having the specific wavelength. Therefore, it is possible to easily generate a composite image using an image-corresponding subject that is difficult for a human to visually recognize and can be identified by a predetermined device.

かかる画像合成方法であって、前記材料は、赤外線を吸収しやすい墨であり、前記画像対応被写体は、黒色の前記下地に設けられており、前記装置は、赤外線カメラであることが望ましい。   In this image composition method, it is preferable that the material is black ink that easily absorbs infrared rays, the image corresponding subject is provided on the black base, and the apparatus is an infrared camera.

このような画像合成方法によれば、黒色の下地に墨にて画像対応被写体を形成することにより、人間が視認しにくい画像対応被写体を容易に生成することが可能であり、また、赤外線カメラにて墨にて形成された画像対応被写体を撮影することにより、画像対応被写体を識別して容易に合成画像を形成することが可能である。   According to such an image composition method, it is possible to easily generate an image-corresponding subject that is difficult for humans to visually recognize by forming an image-corresponding subject with black on a black background. By shooting an image corresponding subject formed of black, it is possible to identify the image corresponding subject and easily form a composite image.

かかる画像合成方法であって、前記実画像を撮影するための実画像撮影装置にて撮影した実画像と、前記所定の装置にて撮影して特定された前記仮想画像と、を、前記実画像撮影装置による撮影位置と前記所定の装置による撮影位置とに基づいて合成することが望ましい。   In this image composition method, the actual image captured by the actual image capturing device for capturing the actual image, and the virtual image identified by capturing by the predetermined device are used as the actual image. It is desirable to combine based on the photographing position by the photographing device and the photographing position by the predetermined device.

人間が視認しにくい、または、視認不能な画像対応被写体を識別可能な所定の装置にて撮影した画像は、通常のカメラ等にて撮影した実画像と相違する場合がある。このため、所定の装置は仮想画像を特定し合成するための情報を取得するために使用し、所定の装置とは別の実画像撮影装置にて撮影した実画像と仮想画像とを合成することにより、現実に近い実画像上に仮想画像を合成した合成画像を生成することが可能である。   An image captured by a predetermined apparatus that can identify an image-corresponding subject that is difficult for humans to visually recognize or cannot be visually recognized may differ from an actual image captured by a normal camera or the like. For this reason, a predetermined device is used to acquire information for specifying and combining virtual images, and a real image captured by a real image photographing device different from the predetermined device is combined with the virtual image. Thus, it is possible to generate a composite image in which a virtual image is combined with a real image close to reality.

本発明によれば、肉眼では見えにくい、または、見えない画像対応被写体を用いて仮想画像と実画像との合成画像を生成することが可能な画像合成方法を提供する。   According to the present invention, there is provided an image composition method capable of generating a composite image of a virtual image and a real image using an image-corresponding subject that is difficult or invisible to the naked eye.

第1実施形態に係る画像合成方法を実現するための装置の一例を示すブロック図である。It is a block diagram which shows an example of the apparatus for implement | achieving the image composition method which concerns on 1st Embodiment. 第1実施形態の画像合成方法を説明するためのフローチャートである。It is a flowchart for demonstrating the image composition method of 1st Embodiment. 図3(a)は、撮影範囲のイメージを示す図であり、図3(b)は、通常のカメラにより撮影される実画像示す図である。図3(c)は、第1実施形態における撮像装置にて撮影された実画像を示す図であり、図3(d)は、第1実施形態における撮像装置にて撮影された実画像と仮想画像とが合成された合成画像を示す図である。FIG. 3A is a diagram illustrating an image of a shooting range, and FIG. 3B is a diagram illustrating an actual image captured by a normal camera. FIG. 3C is a diagram illustrating a real image captured by the imaging device according to the first embodiment, and FIG. 3D is a diagram illustrating an actual image captured by the imaging device according to the first embodiment and a virtual image. It is a figure which shows the synthesized image with which the image was synthesize | combined. 第2実施形態に係る画像合成方法を実現するための装置の一例を示すブロック図である。It is a block diagram which shows an example of the apparatus for implement | achieving the image composition method which concerns on 2nd Embodiment. 第2実施形態の撮影状態を説明するための図である。It is a figure for demonstrating the imaging | photography state of 2nd Embodiment. 第2実施形態の画像合成方法を説明するためのフローチャートである。It is a flowchart for demonstrating the image composition method of 2nd Embodiment.

以下、本発明の第1実施形態について図面を用いて詳細に説明する。
第1実施形態の画像合成方法は、予め生成されている仮想画像の情報が対応づけられた視認し難い、または、視認不能な画像対応被写体を含む被写体を、所定の装置にて撮影し、撮影された画像対応被写体の情報に基づく仮想画像と、撮影した実画像とを合成するものである。
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
In the image composition method according to the first embodiment, a subject including an image-corresponding subject that is difficult to visually recognize or is invisible is associated with information on a virtual image that is generated in advance, and is photographed. The virtual image based on the information about the image-corresponding subject and the photographed actual image are synthesized.

第1実施形態では、画像対応被写体として、室内の壁に無色透明な塗料であり、光の所定の成分として所定方向に振動する光の成分を吸収する、たとえば、メタクリル酸特殊エステルやアクリル酸特殊エステルによりマーカーを形成しておく。一方、画像合成装置の撮像部には、前記所定方向に振動する光の成分を透過する偏光フィルターを介して、マーカーが設けられた壁を撮影する例について説明する。   In the first embodiment, the image-corresponding subject is a colorless and transparent paint on the indoor wall, and absorbs a light component that vibrates in a predetermined direction as a predetermined component of light, for example, methacrylic acid special ester or acrylic acid special A marker is formed with an ester. On the other hand, an example will be described in which the imaging unit of the image composition apparatus photographs a wall provided with a marker through a polarizing filter that transmits a component of light that vibrates in the predetermined direction.

図1は、第1実施形態に係る画像合成方法を実現するための装置の一例を示すブロック図である。
第1実施形態の画像合成方法を実現するための画像合成装置1は、被写体を撮影する撮像部10と、撮影した被写体の実画像と予め形成されている仮想画像とを合成する処理を含み画像合成装置1を制御する制御部12と、画像を合成するために必要な各種情報やデータが記憶される記憶部14と、合成された合成画像を表示する表示部16と、本画像合成装置1を操作するための操作部18と、を有している。
FIG. 1 is a block diagram illustrating an example of an apparatus for realizing the image composition method according to the first embodiment.
An image composition device 1 for realizing the image composition method according to the first embodiment includes an image capturing unit 10 that captures a subject, and a process that combines a real image of the captured subject and a pre-formed virtual image. A control unit 12 for controlling the synthesizing device 1, a storage unit 14 for storing various information and data necessary for synthesizing images, a display unit 16 for displaying the synthesized image, and the present image synthesizing device 1. And an operation unit 18 for operating.

第1実施形態の画像合成装置1は、例えば、撮像部10と、撮影した画像を表示する表示部16とを有し持ち運び可能な、例えばデジタルカメラ、デジタルビデオカメラ、携帯電話、携帯情報端末(PDA)、モバイルコンピュータなどに、画像合成処理が実行可能なプログラムが記憶されている。   The image synthesizing apparatus 1 according to the first embodiment includes, for example, an imaging unit 10 and a display unit 16 that displays a captured image, and is portable, for example, a digital camera, a digital video camera, a mobile phone, a portable information terminal ( A program that can execute image composition processing is stored in a PDA), a mobile computer, or the like.

そして、画像合成装置1の使用者が、被写体を撮影すると、表示部16に撮影された実画像が表示される。このとき、撮影された実画像20(図3)に、予め設定された、例えば、QRコード(登録商標)やバーコードなどの、所定の合成情報を示す画像対応被写体としてのマーカー21が含まれていた場合には、マーカー21を検出して合成情報を取得し、取得した合成情報に基づいて、撮影した実画像20と予め記憶されている仮想画像23(図3)とを合成した合成画像24(図3)を生成し、生成した合成画像24が表示部16に表示されるように構成されている。   Then, when the user of the image composition device 1 photographs the subject, the captured actual image is displayed on the display unit 16. At this time, the photographed real image 20 (FIG. 3) includes a marker 21 as a subject corresponding to an image indicating predetermined composite information such as a QR code (registered trademark) or a barcode set in advance. If it is, the composite image obtained by detecting the marker 21 and acquiring composite information, and combining the captured real image 20 and the pre-stored virtual image 23 (FIG. 3) based on the acquired composite information. 24 (FIG. 3) is generated, and the generated composite image 24 is displayed on the display unit 16.

第1実施形態では、マーカー21は無色透明な塗料で、所定方向に振動する光の成分を吸収する塗料にて形成されており、図3では「A」にて示し、肉眼で見えない状態を、一点鎖線にて表現している。   In the first embodiment, the marker 21 is a colorless and transparent paint, which is formed of a paint that absorbs a light component that vibrates in a predetermined direction, and is indicated by “A” in FIG. 3 and is invisible to the naked eye. It is expressed with a one-dot chain line.

撮像部10は、例えば、デジタルカメラやデジタルビデオカメラのような、撮影により、画像を構成する複数の画素の各画像データを生成するCCDセンサーなどの撮像素子により、光情報を電気情報に変換するように構成されている。第1実施形態の撮像部10には、マーカー21にて吸収される光の成分と同じ光の成分を透過する偏光フィルター11が設けられている。   The imaging unit 10 converts optical information into electrical information by an imaging element such as a CCD sensor that generates image data of a plurality of pixels constituting an image by photographing, such as a digital camera or a digital video camera. It is configured as follows. The imaging unit 10 of the first embodiment is provided with a polarizing filter 11 that transmits the same light component as the light component absorbed by the marker 21.

表示部16は、画像を構成する複数の画素の画像データを、各素子に対応させて表示することが可能な、例えば液晶パネルなどにて構成されている。ここで、各画素の画像データとは、例えば、各画素をR(レッド)成分、G(グリーン)成分、B(ブルー)成分に分解した各成分を示すデータである。   The display unit 16 is configured by, for example, a liquid crystal panel that can display image data of a plurality of pixels constituting an image corresponding to each element. Here, the image data of each pixel is, for example, data indicating each component obtained by decomposing each pixel into an R (red) component, a G (green) component, and a B (blue) component.

操作部18は、画像合成装置1を使用する使用者が、画像合成装置1に対し撮影等の操作を行ったり、設定を変更するなどの操作を行う部位であり、少なくとも実画像20を撮影するための所謂シャッターを有している。   The operation unit 18 is a part where a user who uses the image composition device 1 performs an operation such as photographing or changing settings on the image composition device 1, and photographs at least the actual image 20. So-called shutters are provided.

記憶部14は、本画像合成装置1にて合成画像を生成するための各種情報が記憶されており、また、情報が記憶される情報記憶領域14aと、合成画像を生成する処理の中で画像データが書き換えられていく作業領域となる画像仮想展開領域14bとを有している。   The storage unit 14 stores various types of information for generating a composite image in the image composition apparatus 1, and also stores an information storage area 14a in which information is stored and an image in the process of generating the composite image. It has an image virtual development area 14b which is a work area in which data is rewritten.

情報記憶領域14aには、被写体に含まれているマーカー21に対応づけられた仮想画像23を特定する情報、仮想画像23の画像データ、仮想画像23の実画像20に対して配置すべき位置を示す位置情報、などの合成情報が記憶されている。また、情報記憶領域14aには、撮影時に測定された撮像部10の視点から被写体までの距離を示す情報等、算出された情報も記憶される。   In the information storage area 14a, information for specifying the virtual image 23 associated with the marker 21 included in the subject, the image data of the virtual image 23, and the position to be arranged with respect to the actual image 20 of the virtual image 23 are displayed. Compositing information such as position information to be shown is stored. The information storage area 14a also stores calculated information such as information indicating the distance from the viewpoint of the imaging unit 10 measured at the time of shooting to the subject.

画像仮想展開領域14bは、撮影された画像データが画素毎に記憶される記憶領域である。上述したように、各画素の画像データはR,G,Bの3つの成分を示すデータを有するので、画像仮想展開領域14bは、合成画像を構成する画素数の3倍の記憶領域を有している。   The image virtual development area 14b is a storage area in which photographed image data is stored for each pixel. As described above, since the image data of each pixel has data indicating three components of R, G, and B, the image virtual development area 14b has a storage area that is three times the number of pixels constituting the composite image. ing.

画像仮想展開領域14bに記憶される画像データは、合成画像を生成する際には必要に応じて対応する画素の画像データが書き換えられる。そして、画像仮想展開領域14bに画素毎に記憶された3つのデータは、各画素の画像データが書き換えられる場合には、R成分、G成分、B成分の各データがそれぞれ書き換えられる。このとき、画像仮想展開領域14bは、記憶領域が表示部16または撮像部10の素子と同様に配列されている必要はなく、各記憶領域の画像データが、表示部16または撮像部10の素子と対応づけられて記憶されていればよい。   The image data stored in the image virtual development area 14b is rewritten with the corresponding pixel image data as necessary when generating a composite image. The three data stored for each pixel in the image virtual development area 14b are rewritten respectively for the R component, the G component, and the B component when the image data of each pixel is rewritten. At this time, in the image virtual development area 14b, the storage area does not need to be arranged in the same manner as the elements of the display unit 16 or the imaging unit 10, and the image data of each storage area is the element of the display unit 16 or the imaging unit 10. As long as they are stored in association with each other.

制御部12は、使用者により操作部18が操作されることにより、撮像部10や表示部16を制御したり、撮影された実画像20の画像データからマーカー21を検出し、マーカー21にて示される情報を解析する解析処理、解析された情報に基づいて、実画像20と記憶部14に記憶されている仮想画像23とを合成する画像合成処理等の各種処理を実行する。   The control unit 12 controls the imaging unit 10 and the display unit 16 by operating the operation unit 18 by the user, or detects the marker 21 from the image data of the captured real image 20. Various processes such as an analysis process for analyzing the displayed information and an image synthesis process for synthesizing the actual image 20 and the virtual image 23 stored in the storage unit 14 are executed based on the analyzed information.

次に、第1実施形態における制御部12による画像合成方法について説明する。
第1実施形態の画像合成方法は、画像合成装置1に設けられ、撮像部10にて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1が、デジタルカメラなどのように、単に実画像を撮影するときと、合成画像を生成するときとで処理を切り替えるスイッチが操作部18に設けられていてもよい。また、常に合成画像を生成する処理が実行されるように設定されており、撮影された実画像にマーカー21が検出されたときのみ合成画像を生成する処理を実行することとしてもよい。
Next, an image composition method by the control unit 12 in the first embodiment will be described.
The image synthesizing method of the first embodiment is provided in the image synthesizing apparatus 1, and a process is started by operating a shutter which is an operation unit 18 for photographing with the imaging unit 10. At this time, the operation unit 18 may be provided with a switch for switching processing between when the image composition device 1 simply captures a real image and when a composite image is generated, such as a digital camera. Further, it is set to always execute the process of generating the composite image, and the process of generating the composite image may be executed only when the marker 21 is detected in the captured real image.

第1実施形態は、前述したように、画像合成装置1の撮像部10にて撮影するときに、撮影範囲F1内に、QRコード(登録商標)やバーコードなどの情報を示す画像対応被写体としてのマーカー21が含まれる状態に応じて合成画像24を生成する。   As described above, in the first embodiment, when the image capturing unit 10 of the image composition device 1 captures an image, the image corresponding subject indicating information such as a QR code (registered trademark) or a barcode is present in the capturing range F1. A composite image 24 is generated according to the state in which the marker 21 is included.

図2は、第1実施形態の画像合成方法を説明するためのフローチャートである。図3(a)は、撮影範囲のイメージを示す図であり、図3(b)は、偏光フィルターのない撮像部により撮影される実画像示す図である。図3(c)は、第1実施形態における撮像部にて撮影された実画像を示す図であり、図3(d)は、第1実施形態における撮像部にて撮影された実画像と仮想画像とが合成された合成画像を示す図である。   FIG. 2 is a flowchart for explaining the image composition method according to the first embodiment. FIG. 3A is a diagram illustrating an image of the photographing range, and FIG. 3B is a diagram illustrating an actual image photographed by an imaging unit without a polarizing filter. FIG. 3C is a diagram illustrating a real image captured by the imaging unit according to the first embodiment, and FIG. 3D is a diagram illustrating an actual image captured by the imaging unit according to the first embodiment and a virtual image. It is a figure which shows the synthesized image with which the image was synthesize | combined.

制御部12は、シャッターが操作されると撮像部10にて被写体を撮影し(撮影工程S1)、撮影された実画像20を構成する各画素の画像データを生成し、生成した画像データを記憶部14の画像仮想展開領域14bに記憶する(S2)。このとき、図3(a)に示すような撮影範囲F1にて撮影され、通常のカメラにて撮影すると図3(b)のような実画像20aが撮影されるが、本撮像部10には偏光フィルター11が設けられているため、図3(c)のような実画像20が撮影される。   When the shutter is operated, the control unit 12 captures a subject with the imaging unit 10 (imaging step S1), generates image data of each pixel constituting the captured actual image 20, and stores the generated image data. The image is stored in the image virtual development area 14b of the unit 14 (S2). At this time, when the image is taken in the photographing range F1 as shown in FIG. 3A and taken with a normal camera, a real image 20a as shown in FIG. Since the polarizing filter 11 is provided, a real image 20 as shown in FIG.

具体的には、撮像部10には撮影範囲F1にて反射した光が入射されるが、マーカー21は、無色透明で所定方向に振動する光の成分を吸収する塗料にて形成されているので、マーカー21の反射光には所定方向に振動する光の成分が含まれていない。このとき、マーカー21にて吸収される光の成分と同じ光の成分を透過する偏光フィルター11が設けられていない撮像部にて撮影をすると、他の光の成分により肉眼で見えている図3(b)のような実画像20aが撮影される。このとき、マーカー21は無色透明なのでマーカー21も画像上には現れない。ところが、第1実施形態の撮像部10には、マーカー21にて吸収される光の成分と同じ光の成分を透過する偏光フィルター11が設けられており、マーカー21の反射光には所定方向に振動する光の成分が含まれていないので、図3(c)に示すようなマーカー21の部分だけ黒い実画像20が形成される。   Specifically, although the light reflected in the imaging range F1 is incident on the imaging unit 10, the marker 21 is formed of a paint that absorbs a component of light that is colorless and transparent and vibrates in a predetermined direction. The reflected light of the marker 21 does not contain a light component that vibrates in a predetermined direction. At this time, when photographing is performed with an imaging unit that is not provided with the polarization filter 11 that transmits the same light component as the light component absorbed by the marker 21, it is visible to the naked eye due to other light components. A real image 20a as shown in FIG. At this time, since the marker 21 is colorless and transparent, the marker 21 does not appear on the image. However, the imaging unit 10 of the first embodiment is provided with a polarizing filter 11 that transmits the same light component as the light component absorbed by the marker 21, and the reflected light of the marker 21 is directed in a predetermined direction. Since the component of the oscillating light is not included, a black actual image 20 is formed only at the marker 21 as shown in FIG.

また、制御部12は実画像20の撮影時に撮像部10から取得した情報に基づき、一般的なカメラにも搭載されているオートフォーカス機構の原理を利用して、例えば、レンズの上半分と下半分にて生じる重心位置の違いを利用して被写体と、撮像部10の視点位置との距離を計測し、計測した距離情報を記憶部14に記憶する。   Further, the control unit 12 uses the principle of an autofocus mechanism mounted on a general camera based on information acquired from the imaging unit 10 at the time of capturing the actual image 20, for example, the upper half and the lower half of the lens. The distance between the subject and the viewpoint position of the imaging unit 10 is measured using the difference in the center of gravity position generated in half, and the measured distance information is stored in the storage unit 14.

次に制御部12は、撮影した実画像20の画像データに画像対応被写体としてのマーカー21が撮影されているか否かを解析する(S3)。このとき、実画像20の画像データにマーカー21が撮影されていた場合には(S4)、マーカー21に対応づけられている情報を記憶部14から取得する(情報取得工程S5)。ここで、取得される情報には、マーカー21に対応づけられている仮想画像23を特定する情報、撮影した実画像20と仮想画像23とを合成するための位置情報、等が含まれる。   Next, the control unit 12 analyzes whether or not the marker 21 as the image corresponding subject is captured in the image data of the captured actual image 20 (S3). At this time, if the marker 21 is captured in the image data of the real image 20 (S4), information associated with the marker 21 is acquired from the storage unit 14 (information acquisition step S5). Here, the acquired information includes information for specifying the virtual image 23 associated with the marker 21, position information for combining the captured real image 20 and the virtual image 23, and the like.

また、撮影した実画像20の画像データを解析し、実画像20の画像データにマーカー21が撮影されていなかった場合には、画像仮想展開領域14bに記憶されている実画像20の画像データに基づいて、実画像20が表示部16に表示される(S7)。   Further, when the image data of the photographed real image 20 is analyzed and the marker 21 is not photographed in the image data of the real image 20, the image data of the real image 20 stored in the image virtual development area 14b is used. Based on this, the actual image 20 is displayed on the display unit 16 (S7).

第1実施形態の場合には、撮影した実画像20の画像データを解析して(S3)、実画像20の画像データにマーカー21が検出され(S4)、マーカー21に対応づけられている情報が記憶部14から取得される(S5)。このとき、撮影した実画像20と合成するシステムキッチンの仮想画像23を合成するための位置情報、すなわち、マーカー21の位置に位置あわせしてシステムキッチンの仮想画像23が配置されることを示す情報が取得される(S5)。   In the case of the first embodiment, the image data of the captured actual image 20 is analyzed (S3), the marker 21 is detected in the image data of the actual image 20 (S4), and the information associated with the marker 21 is detected. Is acquired from the storage unit 14 (S5). At this time, position information for combining the virtual image 23 of the system kitchen to be combined with the captured real image 20, that is, information indicating that the virtual image 23 of the system kitchen is arranged in alignment with the position of the marker 21. Is acquired (S5).

次に制御部12は、取得した情報に基づいて、画像仮想展開領域14bに記憶されている実画像20の対象となる画素の画像データを、マーカー21に対応づけられて情報記憶領域14aに記憶されている仮想画像23の画像データに書き換えて合成画像24を生成する(画像合成工程S6)。このとき、撮像部10にて撮影された実画像20は、偏光フィルター11の影響により、肉眼で見るより濃度が高かったり、色調が違ったりするため、合成する前の実画像20に偏光フィルター20による影響を弱めるような補正を施してもよい。   Next, based on the acquired information, the control unit 12 stores the image data of the target pixel of the real image 20 stored in the image virtual development area 14b in the information storage area 14a in association with the marker 21. The composite image 24 is generated by rewriting the image data of the virtual image 23 that has been created (image composition step S6). At this time, since the actual image 20 photographed by the imaging unit 10 has a higher density or a different color tone than the naked eye due to the influence of the polarization filter 11, the polarization filter 20 is added to the actual image 20 before synthesis. Corrections may be made to reduce the influence of.

そして、画像仮想展開領域14bにて合成されている合成画像24を表示部16に表示する(S7)。   Then, the synthesized image 24 synthesized in the image virtual development area 14b is displayed on the display unit 16 (S7).

第1実施形態の画像合成方法によれば、仮想画像23が対応づけられているマーカー21は、無色透明なので、人間の視界にマーカー21が現れ難いか、または、現れない。このため、マーカー21を必要としない人、すなわち、合成画像24を必要としない人に、マーカー21の存在を意識させることなく、所望の位置にマーカー21を配置することが可能である。また、マーカー21は、マーカー21にて吸収される光の成分と同じ光の成分を透過する偏光フィルター11を備えた撮像部10を有する画像合成装置1にて識別可能なので、上記偏光フィルター11を備えた撮像部10にて撮影することにより、視界内に無色透明なマーカー21が配置されている場所を撮影することにより、マーカー21に対応づけられた例えばシステムキッチンの仮想画像23を特定することが可能である。このため、マーカー21を必要としない人に気付かせることなくマーカー21を配置し、実画像20と仮想画像23とを合成したい人は、上記偏光フィルター11を備えた画像合成装置1にて合成画像を生成することが可能な画像合成方法を提供することが可能である。   According to the image composition method of the first embodiment, since the marker 21 associated with the virtual image 23 is colorless and transparent, the marker 21 is difficult or does not appear in the human field of view. Therefore, it is possible to place the marker 21 at a desired position without making the person who does not need the marker 21, that is, the person who does not need the composite image 24 aware of the presence of the marker 21. Further, since the marker 21 can be identified by the image synthesizing apparatus 1 having the imaging unit 10 including the polarizing filter 11 that transmits the same light component as the light component absorbed by the marker 21, the polarizing filter 11 is By taking a picture with the imaging unit 10 provided, and taking a picture of a place where the colorless and transparent marker 21 is arranged in the field of view, for example, the virtual image 23 of the system kitchen associated with the marker 21 is specified. Is possible. For this reason, a person who wants to arrange the marker 21 without noticing a person who does not need the marker 21 and want to synthesize the real image 20 and the virtual image 23 can use the synthesized image in the image synthesizer 1 including the polarizing filter 11. Can be provided.

また、マーカー21を、メタクリル酸特殊エステル、または、アクリル酸特殊エステルとして、マーカー21にて光の所定方向の振動成分を吸収することとしたので、メタクリル酸特殊エステル、または、アクリル酸特殊エステルの無色透明な素材にて人目につかないようにマーカー21を容易に配置することが可能であり、また、所定方向に振動する光の成分を吸収する特性により、撮像部10に偏光フィルターを設けるだけで、実画像20と仮想画像23とを合成した合成画像24を生成することが可能である。   In addition, since the marker 21 is a methacrylic acid special ester or an acrylic acid special ester and the vibration component in a predetermined direction of light is absorbed by the marker 21, the methacrylic acid special ester or the acrylic acid special ester It is possible to easily arrange the marker 21 so as not to be noticeable by a colorless and transparent material, and by simply providing a polarizing filter in the imaging unit 10 due to the characteristic of absorbing a light component that vibrates in a predetermined direction. It is possible to generate a composite image 24 in which the real image 20 and the virtual image 23 are combined.

第1実施形態においては、マーカー21をメタクリル酸特殊エステルやアクリル酸特殊エステルとし、撮像部10に偏光フィルター11を設けた例について説明したが、これに限るものではない。例えば、マーカーを、特定の波長を吸収しやすく、下地と同色の材料にて形成し、撮像する装置を、特定の波長の光を検出可能な装置としても良い。具体的には、撮影対象となる黒色の部位に、赤外線を吸収しやすい墨にて形成したマーカーを設け、所定の装置として撮像部に、所謂赤外線カメラを用いてもよい。この場合にも、黒色の下地に設けられた墨によるマーカーは、視認しにくく、撮影した際にはマーカーの反射光に赤外線が含まれないので、マーカーの部分のみ黒色となった実画像が撮影される。そして、撮影された実画像からマーカーを検出して、マーカーに対応づけられた仮想画像を特定し、特定された仮想画像と実画像とを合成して合成画像を生成しても良い。   In the first embodiment, an example in which the marker 21 is a methacrylic acid special ester or an acrylic acid special ester and the polarizing filter 11 is provided in the imaging unit 10 has been described. However, the present invention is not limited to this. For example, a device that easily absorbs a specific wavelength, is formed of a material having the same color as the base, and picks up an image may be a device that can detect light of a specific wavelength. Specifically, a marker formed of black that easily absorbs infrared rays may be provided in a black region to be imaged, and a so-called infrared camera may be used as an imaging unit as a predetermined device. Also in this case, the black marker provided on the black background is difficult to see and when reflected, the reflected light from the marker does not contain infrared light, so only the marker area is black. Is done. Then, a marker may be detected from the captured real image, a virtual image associated with the marker may be specified, and the specified virtual image and the real image may be combined to generate a combined image.

次に、第2実施形態について説明する。
図4は、第2実施形態に係る画像合成方法を実現するための装置の一例を示すブロック図である。
Next, a second embodiment will be described.
FIG. 4 is a block diagram illustrating an example of an apparatus for realizing the image composition method according to the second embodiment.

第2実施形態の画像合成方法では、画像合成装置1aとして、2つの撮像部10a、10bを用いて、黒色の下地の部位に墨にて形成されたマーカー21aを含む被写体を撮影して合成画像24を生成する例について説明する。以下の説明においては、第1実施形態と同一の部位及び部分には同符号を付して、説明を省略する。   In the image composition method according to the second embodiment, as the image composition device 1a, the two image capturing units 10a and 10b are used to photograph a subject including a marker 21a formed with black on a black background portion, and a composite image. An example of generating 24 will be described. In the following description, the same parts and portions as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

図5は、第2実施形態の撮影状態を説明するための図である。
第2実施形態の画像合成装置1aは、2つの撮像部10a、10b有し、一方の撮像部10aは、撮影対象を肉眼で見えるように撮影するための、所謂通常のカメラであり、他方の撮像部10bは、赤外線の波長も感度領域に含まれるセンサーを用いた所謂赤外線カメラであり、同時に撮影されるように構成されている。以下、他方の撮像部10bを、一方の撮像部10aと区別する場合には、赤外線撮像部10bという。これら2つの撮像部10a、10bは、いずれの撮像部10a、10bも偏光フィルターは有していない。2つの撮像部10a、10bは、撮影対象に対して正面にて対向し、2つの撮像部10a、10bの並べられた方向が、撮影対象に対して平行になるように配置されて一体に固定されている。また、2つの撮像部10a、10bは、所定の間隔を隔てて配置されており、撮像部10a、10b間の距離を示す相対位置情報が情報記憶領域14aに記憶されている。
FIG. 5 is a diagram for explaining a shooting state of the second embodiment.
The image composition device 1a according to the second embodiment has two image capturing units 10a and 10b, and one image capturing unit 10a is a so-called normal camera that captures an image of a subject to be seen with the naked eye. The imaging unit 10b is a so-called infrared camera using a sensor whose infrared wavelength is also included in the sensitivity region, and is configured to be photographed simultaneously. Hereinafter, the other imaging unit 10b is referred to as an infrared imaging unit 10b when distinguished from the other imaging unit 10a. None of these two imaging units 10a and 10b have a polarizing filter. The two imaging units 10a and 10b are opposed to each other in front of the shooting target, and are arranged so that the direction in which the two imaging units 10a and 10b are arranged parallel to the shooting target is fixed integrally. Has been. The two imaging units 10a and 10b are arranged at a predetermined interval, and relative position information indicating the distance between the imaging units 10a and 10b is stored in the information storage area 14a.

第2実施形態の記憶部14には、撮像部10a、10b毎に画像仮想展開領域14bが設けられている。   In the storage unit 14 of the second embodiment, an image virtual development area 14b is provided for each of the imaging units 10a and 10b.

そして、第2実施形態の画像合成方法における、画像合成工程では、制御部12は、2つの撮像部10a、10bにて撮影された際に、計測された距離と、情報記憶領域14aに記憶されている撮像部10a、10b間の距離と、に基づいて、仮想画像23の画像データを補正して実画像20と合成する。具体的には、第2実施形態では、合成画像24を生成するために合成される実画像20は、肉眼で見えるような画像を撮影する撮像部10aにて撮影され、墨にて形成されたマーカー21aを識別可能な赤外線撮像部10bにてマーカー21aを検出するための画像を撮影する。このため、赤外線撮像部10bにてマーカー21aの位置を特定した仮想画像23を、撮像部10aにて撮影した実画像20と合成してしまうと、視点の違いから合成画像が不自然になる虞がある。このため、第2実施形態では、赤外線撮像部10bにて特定した位置、撮影時に計測した距離、及び、情報記憶領域14aに記憶されている相対位置情報に基づいて、仮想画像23の画像データを撮像部10aの視点に合わせる処理を実行する。   In the image composition process in the image composition method of the second embodiment, the control unit 12 stores the measured distance and the information storage area 14a when the images are captured by the two image capturing units 10a and 10b. Based on the distance between the imaging units 10a and 10b, the image data of the virtual image 23 is corrected and synthesized with the actual image 20. Specifically, in the second embodiment, the actual image 20 that is combined to generate the combined image 24 is captured by the imaging unit 10a that captures an image that can be seen with the naked eye, and is formed of black. An image for detecting the marker 21a is taken by the infrared imaging unit 10b that can identify the marker 21a. For this reason, if the virtual image 23 in which the position of the marker 21a is specified by the infrared imaging unit 10b is combined with the real image 20 captured by the imaging unit 10a, the composite image may become unnatural due to a difference in viewpoint. There is. For this reason, in the second embodiment, the image data of the virtual image 23 is obtained based on the position specified by the infrared imaging unit 10b, the distance measured at the time of shooting, and the relative position information stored in the information storage area 14a. Processing to match the viewpoint of the imaging unit 10a is executed.

図6は、第2実施形態の画像合成方法を説明するためのフローチャートである。
次に、第2実施形態における制御部12による画像合成方法について説明する。
FIG. 6 is a flowchart for explaining an image composition method according to the second embodiment.
Next, an image composition method by the control unit 12 in the second embodiment will be described.

第2実施形態の画像合成方法は、画像合成装置1aに設けられ、撮像部10a、10bにて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1aには、2つの撮像部10a、10bが同時に撮影するようなシャッターが設けられている。   The image composition method according to the second embodiment is provided in the image composition apparatus 1a, and a process is started by operating a shutter which is an operation unit 18 for photographing with the imaging units 10a and 10b. At this time, the image synthesizing apparatus 1a is provided with a shutter that allows the two imaging units 10a and 10b to capture images simultaneously.

制御部12は、シャッターが操作されると撮像部10a、10bにて被写体を撮影し(撮影工程S11)、各々の撮像部にて撮影された実画像20、20aを構成する各画素の画像データを生成し、生成した画像データを記憶部14の画像仮想展開領域14bに各々記憶する(S12)。このとき、左側に配置された撮像部10aでは、マーカー21aのない壁の実画像20が生成され、右側に配置された赤外線撮像部10bでは、マーカー21aの部分だけ黒い実画像20が形成される。   When the shutter is operated, the control unit 12 captures the subject with the imaging units 10a and 10b (imaging step S11), and the image data of each pixel constituting the actual images 20 and 20a captured by each imaging unit. And the generated image data is stored in the image virtual development area 14b of the storage unit 14 (S12). At this time, the real image 20 of the wall without the marker 21a is generated in the imaging unit 10a arranged on the left side, and the black real image 20 is formed only on the marker 21a in the infrared imaging unit 10b arranged on the right side. .

具体的には、撮像部10には撮影範囲F1にて反射した光が入射されるが、マーカー21aは、無色透明で赤外線を吸収しやすい墨にて形成されているので、マーカー21の反射光には赤外線が含まれていない。このとき、赤外線の波長も感度領域とするセンサーを用いた赤外線撮像部10bにて撮影すると、赤外線が含まれていないマーカー21aの反射光の部分だけ黒くなってマーカー21aが映し出された実画像20aが形成される。   Specifically, the light reflected in the imaging range F1 is incident on the imaging unit 10, but the marker 21a is formed of black and transparent ink that easily absorbs infrared rays. Does not contain infrared. At this time, when the infrared imaging unit 10b using the sensor having the infrared wavelength as a sensitivity region is used, only the portion of the reflected light of the marker 21a that does not include infrared is blackened and the actual image 20a is displayed. Is formed.

このとき、制御部12は被写体と、撮像部10の視点位置との距離を計測し、計測した距離情報を記憶部14に記憶する。   At this time, the control unit 12 measures the distance between the subject and the viewpoint position of the imaging unit 10 and stores the measured distance information in the storage unit 14.

次に制御部12は、赤外線撮像部10bにて撮影した実画像20aの画像データに画像対応被写体としてのマーカー21aが撮影されているか否かを解析する(S13)。このとき、実画像20aの画像データにマーカー21aが撮影されていた場合には(S14)、マーカー21aに対応づけられている情報を記憶部14から取得する(情報取得工程S15)。ここで取得される情報は、第1実施形態と同じとする。   Next, the control unit 12 analyzes whether or not the marker 21a as the image corresponding subject is captured in the image data of the actual image 20a captured by the infrared imaging unit 10b (S13). At this time, when the marker 21a is captured in the image data of the actual image 20a (S14), information associated with the marker 21a is acquired from the storage unit 14 (information acquisition step S15). The information acquired here is the same as in the first embodiment.

また、撮影した実画像20の画像データを解析し、実画像20の画像データにマーカー21が撮影されていなかった場合には、撮像部10aにて撮影されて画像仮想展開領域14bに記憶されている実画像20の画像データに基づいて、実画像20が撮像部10a側の表示部16に表示される(S18)。   Further, when the image data of the captured real image 20 is analyzed and the marker 21 is not captured in the image data of the actual image 20, the captured image is captured by the imaging unit 10a and stored in the image virtual development area 14b. The actual image 20 is displayed on the display unit 16 on the imaging unit 10a side based on the image data of the actual image 20 (S18).

本実施形態の場合には、撮影した実画像20aの画像データを解析して(S13)、実画像20aの画像データにマーカー21aが検出され(S14)、マーカー21aに対応づけられている情報が記憶部14から取得される(S15)。このとき、撮像部10aにて撮影した実画像20と合成するシステムキッチンの仮想画像23を合成するための位置情報、すなわち、マーカー21aの位置に位置あわせしてシステムキッチンの仮想画像23が配置されることを示す情報が取得される(S15)。   In the case of the present embodiment, the image data of the captured real image 20a is analyzed (S13), the marker 21a is detected in the image data of the real image 20a (S14), and the information associated with the marker 21a is present. Obtained from the storage unit 14 (S15). At this time, the position information for combining the virtual image 23 of the system kitchen to be combined with the real image 20 captured by the imaging unit 10a, that is, the virtual image 23 of the system kitchen is arranged in alignment with the position of the marker 21a. Is obtained (S15).

次に制御部12は、上述したように、赤外線撮像部10bにて特定した位置、撮影時に計測した距離、及び、情報記憶領域14aに記憶されている相対位置情報に基づいて、仮想画像23の画像データを撮像部10aの視点に合わせる処理を実行する(S16)。   Next, as described above, the control unit 12 determines the virtual image 23 based on the position specified by the infrared imaging unit 10b, the distance measured at the time of shooting, and the relative position information stored in the information storage area 14a. A process of matching the image data with the viewpoint of the imaging unit 10a is executed (S16).

次に制御部12は、取得した情報に基づいて、画像仮想展開領域14bに記憶されている撮像部10aにて撮影された実画像20の対象となる画素の画像データを、補正された仮想画像23の画像データに書き換えて合成画像24を生成する(画像合成工程S17)。   Next, based on the acquired information, the control unit 12 corrects the image data of the pixel that is the target of the real image 20 captured by the imaging unit 10a stored in the image virtual development area 14b, as a corrected virtual image. 23 is rewritten with the image data 23 to generate a composite image 24 (image composition step S17).

そして、画像仮想展開領域14bにて合成されている合成画像24を撮像部10a側の表示部16に表示する(S18)。   Then, the synthesized image 24 synthesized in the image virtual development area 14b is displayed on the display unit 16 on the imaging unit 10a side (S18).

墨にて形成したマーカー21aや赤外線撮像部10bを用いた画像合成方法では、赤外線撮像部10bにて撮影した画像は、撮像部10aのような通常のカメラ等にて撮影した実画像と相違する。このため、第2実施形態のように赤外線撮像部10bは仮想画像23を特定し合成するための情報を取得するために使用し、赤外線撮像部10bとは別の実画像を撮影するための撮像部10aにて撮影した実画像20と仮想画像23とを合成することにより実画像20上に仮想画像23を合成した、現実に近い画像を形成することが可能である。さらに、2つの撮像部10a、10bの視点の位置の違いを補正した仮想画像23を実画像20に合成するので、より現実に近い画像を形成することが可能である。   In the image composition method using the marker 21a formed with black and the infrared imaging unit 10b, an image captured by the infrared imaging unit 10b is different from an actual image captured by a normal camera or the like such as the imaging unit 10a. . Therefore, as in the second embodiment, the infrared imaging unit 10b is used to acquire information for specifying and synthesizing the virtual image 23, and imaging for capturing a real image different from the infrared imaging unit 10b. By combining the real image 20 and the virtual image 23 captured by the unit 10a, it is possible to form an image close to reality by combining the virtual image 23 on the real image 20. Furthermore, since the virtual image 23 in which the difference between the viewpoint positions of the two imaging units 10a and 10b is corrected is synthesized with the real image 20, it is possible to form a more realistic image.

第2実施形態では、2つの撮像部10a、10bにて同時に撮影する例について説明したが、2つの撮像部10a、10bが所定の位置に固定されている場合であって、被写体が移動、または、変化する物でない場合には、必ずしも同時に撮影する必要はない。   In the second embodiment, the example in which the two imaging units 10a and 10b are simultaneously photographed has been described. However, the two imaging units 10a and 10b are fixed at predetermined positions, and the subject moves or If the object does not change, it is not always necessary to photograph at the same time.

上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることはいうまでもない。   The above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

上記実施形態では、静止画像を合成する例について説明したが、動画を合成する場合には、動画のフレームレートに合わせて、合成した画像を生成して表示すればよい。例えば、フレームレートが15fpsであれば、1秒間に15回、上記のように画像の合成処理を繰り返し表示部の画像を書き換えることにより実現可能である。   In the above embodiment, an example of combining still images has been described. However, when combining moving images, a combined image may be generated and displayed in accordance with the frame rate of the moving images. For example, if the frame rate is 15 fps, it can be realized by rewriting the image on the display unit by repeating the image composition processing as described above 15 times per second.

1 画像合成装置
1a 画像合成装置
10 撮像部
10a 撮像部
10b 赤外線撮像部(撮像部)
11 偏光フィルター
12 制御部
14 記憶部
14a 情報記憶領域
14b 画像仮想展開領域
16 表示部
18 操作部
20 実画像
20a 実画像
21 マーカー
21a 墨のマーカー
23 仮想画像
24 合成画像
DESCRIPTION OF SYMBOLS 1 Image composition apparatus 1a Image composition apparatus 10 Imaging part 10a Imaging part 10b Infrared imaging part (imaging part)
DESCRIPTION OF SYMBOLS 11 Polarization filter 12 Control part 14 Storage part 14a Information storage area 14b Image virtual expansion | deployment area | region 16 Display part 18 Operation part 20 Real image 20a Real image 21 Marker 21a Black marker 23 Virtual image 24 Composite image

Claims (6)

被写体を撮影した実画像と既に生成されている仮想画像とを合成する画像合成方法であって、
前記仮想画像が対応づけられており、人間が視認しにくい、または、視認不能であって、所定の装置にて識別可能な画像対応被写体を含む前記被写体を前記所定の装置にて撮影する撮影工程と、
撮影した画像を解析して前記画像対応被写体を検出し、検出された前記画像対応被写体に対応づけられた前記仮想画像を特定するための合成情報を取得する情報取得工程と、
前記合成情報に基づいて特定された前記仮想画像と撮影された実画像とを合成する画像合成工程と、
を有することを特徴とする画像合成方法。
An image composition method for compositing a real image obtained by photographing a subject and a virtual image that has already been generated,
A photographing step of photographing the subject including the image-corresponding subject that is associated with the virtual image and is difficult for humans to visually recognize or is invisible and that can be identified by a predetermined device, with the predetermined device. When,
An information acquisition step of analyzing the captured image to detect the image-corresponding subject, and acquiring composite information for specifying the virtual image associated with the detected image-corresponding subject;
An image synthesis step of synthesizing the virtual image identified based on the synthesis information and the captured real image;
An image synthesizing method characterized by comprising:
請求項1に記載の画像合成方法であって、
前記画像対応被写体は、光の所定の成分を吸収する無色透明な塗料にて形成されており、
前記所定の装置は、前記所定の成分を透過する偏光フィルターを備えていることを特徴とする画像合成方法。
The image composition method according to claim 1,
The image corresponding subject is formed of a colorless and transparent paint that absorbs a predetermined component of light,
The image synthesizing method, wherein the predetermined device includes a polarizing filter that transmits the predetermined component.
請求項2に記載の画像合成方法であって、
前記塗料は、メタクリル酸特殊エステル、または、アクリル酸特殊エステルであることを特徴とする画像合成方法。
The image composition method according to claim 2,
The image composition method, wherein the paint is a methacrylic acid special ester or an acrylic acid special ester.
請求項1に記載の画像合成方法であって、
前記画像対応被写体は、特定の波長を吸収しやすく、下地と同色の材料にて形成されており、
前記所定の装置は、前記特定の波長の光を検出する装置であることを特徴とする画像合成方法。
The image composition method according to claim 1,
The image-corresponding subject is easy to absorb a specific wavelength and is formed of a material having the same color as the base,
The image synthesizing method, wherein the predetermined device is a device that detects light of the specific wavelength.
請求項4に記載の画像合成方法であって、
前記材料は、赤外線を吸収しやすい墨であり、
前記画像対応被写体は、黒色の前記下地に設けられており、
前記装置は、赤外線カメラであることを特徴とする画像合成方法。
The image composition method according to claim 4,
The material is ink that easily absorbs infrared rays,
The image-corresponding subject is provided on the black base,
The image synthesizing method, wherein the apparatus is an infrared camera.
請求項1乃至請求項5のいずれかに記載の画像合成方法であって、
前記実画像を撮影するための実画像撮影装置にて撮影した実画像と、
前記所定の装置にて撮影して特定された前記仮想画像と、
を、前記実画像撮影装置による撮影位置と前記所定の装置による撮影位置とに基づいて合成することを特徴とする画像合成方法。
An image composition method according to any one of claims 1 to 5,
An actual image captured by an actual image capturing device for capturing the actual image;
The virtual image identified by photographing with the predetermined device;
Is synthesized based on the photographing position by the real image photographing device and the photographing position by the predetermined device.
JP2011038751A 2011-02-24 2011-02-24 Image composition method Expired - Fee Related JP5691631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011038751A JP5691631B2 (en) 2011-02-24 2011-02-24 Image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011038751A JP5691631B2 (en) 2011-02-24 2011-02-24 Image composition method

Publications (2)

Publication Number Publication Date
JP2012175668A true JP2012175668A (en) 2012-09-10
JP5691631B2 JP5691631B2 (en) 2015-04-01

Family

ID=46978076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011038751A Expired - Fee Related JP5691631B2 (en) 2011-02-24 2011-02-24 Image composition method

Country Status (1)

Country Link
JP (1) JP5691631B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071496A (en) * 2014-09-29 2016-05-09 Kddi株式会社 Information terminal device, method, and program
WO2020137487A1 (en) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド Video display system, video display device, and video display method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000025373A (en) * 1998-07-09 2000-01-25 Dainippon Printing Co Ltd Truth or falsehood decider and method for using it
JP2000230805A (en) * 1999-02-09 2000-08-22 Toyota Motor Corp Device and method for detecting travel lane
JP2000347128A (en) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk Head mount display device and head mount display system
JP2003136828A (en) * 2001-10-30 2003-05-14 Printing Bureau Ministry Of Finance Halftone printed matter and method for printing the same
JP2007163367A (en) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Camera information analyzer
JP2009237878A (en) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd Composite image generating system, overlaying condition determining method, image processing apparatus, and image processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000025373A (en) * 1998-07-09 2000-01-25 Dainippon Printing Co Ltd Truth or falsehood decider and method for using it
JP2000230805A (en) * 1999-02-09 2000-08-22 Toyota Motor Corp Device and method for detecting travel lane
JP2000347128A (en) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk Head mount display device and head mount display system
JP2003136828A (en) * 2001-10-30 2003-05-14 Printing Bureau Ministry Of Finance Halftone printed matter and method for printing the same
JP2007163367A (en) * 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Camera information analyzer
JP2009237878A (en) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd Composite image generating system, overlaying condition determining method, image processing apparatus, and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071496A (en) * 2014-09-29 2016-05-09 Kddi株式会社 Information terminal device, method, and program
WO2020137487A1 (en) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド Video display system, video display device, and video display method
JP2020106589A (en) * 2018-12-26 2020-07-09 株式会社Jvcケンウッド Video display system, video display device, and video display method
JP7137743B2 (en) 2018-12-26 2022-09-15 株式会社Jvcケンウッド Video display system, video display device, and video display method

Also Published As

Publication number Publication date
JP5691631B2 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
KR101285474B1 (en) Camera applications in a handheld device
JP6263623B2 (en) Image generation method and dual lens apparatus
US9699367B2 (en) Imaging device and method for displaying multiple objects of an imaging view
JP2010093422A (en) Imaging apparatus
JP2009210840A (en) Stereoscopic image display device and method, and program
JP2012065263A (en) Imaging apparatus
JP5713885B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2012065173A5 (en) Imaging device, image display method and program
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
JP2010091669A (en) Imaging device
JP5691629B2 (en) Image composition method
JP2012124892A (en) Camera applications in handheld device
JPWO2017086065A1 (en) Imaging apparatus and control method thereof
JP5691631B2 (en) Image composition method
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JP5822700B2 (en) Image capturing method, image capturing apparatus, and program
JP2012174218A (en) Image composition method
JP2009182832A (en) Photographing device and through image displaying method
JP5764969B2 (en) Image composition method
JP2004072297A (en) Image pickup device
JP4453540B2 (en) Imaging apparatus and program
JP2009033612A (en) Imaging apparatus
JP2014236284A (en) Imaging apparatus
JP2005110162A (en) Camera
JP2013135398A (en) Image composition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5691631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees