JP5691632B2 - Image composition method - Google Patents

Image composition method Download PDF

Info

Publication number
JP5691632B2
JP5691632B2 JP2011038752A JP2011038752A JP5691632B2 JP 5691632 B2 JP5691632 B2 JP 5691632B2 JP 2011038752 A JP2011038752 A JP 2011038752A JP 2011038752 A JP2011038752 A JP 2011038752A JP 5691632 B2 JP5691632 B2 JP 5691632B2
Authority
JP
Japan
Prior art keywords
image
composite
writing instrument
virtual
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011038752A
Other languages
Japanese (ja)
Other versions
JP2012174219A (en
Inventor
哲 近藤
哲 近藤
金子 智弥
智弥 金子
暁 土井
暁 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obayashi Corp
Original Assignee
Obayashi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Obayashi Corp filed Critical Obayashi Corp
Priority to JP2011038752A priority Critical patent/JP5691632B2/en
Publication of JP2012174219A publication Critical patent/JP2012174219A/en
Application granted granted Critical
Publication of JP5691632B2 publication Critical patent/JP5691632B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影した実画像と生成した仮想画像とを合成する画像合成方法に関する。   The present invention relates to an image composition method for compositing a captured real image and a generated virtual image.

撮影した実画像と生成した仮想画像とを合成する画像合成方法としては、例えば、撮影した撮影画像に含まれる特定の被写体と対応づけられた仮想画像などの付加画像を、特定の被写体の位置に応じて撮影画像上に配置して合成画像を生成する画像合成方法が知られている(例えば、特許文献1参照)。   As an image composition method for synthesizing a captured real image and a generated virtual image, for example, an additional image such as a virtual image associated with a specific subject included in the captured captured image is set at the position of the specific subject. Accordingly, an image composition method is known in which a composite image is generated by being arranged on a captured image (see, for example, Patent Document 1).

特開2010―187052号公報JP 2010-187052 A

上記従来の画像合成方法は、実画像と仮想画像とを合成した合成画像では仮想画像が重ねられている現実の物は、仮想画像により隠されて見ることができないため、現実の物にて生じている変化を確認することができないという課題がある。   In the above conventional image composition method, in the composite image obtained by combining the real image and the virtual image, the real object on which the virtual image is superimposed cannot be seen because it is hidden by the virtual image. There is a problem that it is not possible to confirm the change.

本発明は、かかる課題に鑑みてなされたものであり、その目的とするところは、実画像に仮想画像が合成された合成画像において、現実の部位における実際の変化を合成画像上にて確認することが可能な画像合成方法を提供することにある。   The present invention has been made in view of such a problem, and an object of the present invention is to confirm an actual change in a real part on a composite image in a composite image in which a virtual image is combined with a real image. It is an object of the present invention to provide an image synthesis method capable of performing the above-described process.

かかる目的を達成するために本発明の画像合成方法は、
仮想画像として、壁内部の状態を撮影した画像を予め記憶する工程と、
前記仮想画像が対応づけられた第1画像対応被写体を含む壁を、撮影範囲にて撮影して、撮影された前記壁の実画像と前記仮想画像とを合成して第1合成画像を生成する第1画像合成工程と、
前記撮影範囲内に、前記第1合成画像と合成可能な合成要素が対応づけられた第2画像対応被写体としての筆記具を検出したときに、前記合成要素を前記第1合成画像に合成して第2合成画像を生成する第2画像合成工程と、
前記筆記具を移動させた際に、当該筆記具が移動する軌道に基づいて前記第2合成画像を変更するとともに、当該筆記具を前記壁に接触させて当該壁に現実に目印を付与する工程と、
を有することを特徴とする画像合成方法である。
In order to achieve this object, the image composition method of the present invention includes:
A step of preliminarily storing an image obtained by photographing a state inside the wall as a virtual image;
Said wall virtual image includes a first image corresponding object associated, by shooting at shooting ranges, to generate a first combined images by combining the real images captured the wall and the virtual image A first image composition step;
When a writing instrument as a second image-corresponding subject in which a composite element that can be combined with the first composite image is associated with the first composite image is detected within the photographing range, the composite element is combined with the first composite image and the first composite image is combined. A second image composition step for generating two composite images;
When the writing instrument is moved, changing the second composite image based on the trajectory that the writing instrument moves, and bringing the writing instrument into contact with the wall to actually mark the wall;
An image composition method characterized by comprising:

かかる画像合成方法であって、前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具を示す第2の仮想画像であることが望ましい。In this image composition method, it is preferable that the composition element associated with the second image-corresponding subject is a second virtual image showing the writing instrument provided with the second image-corresponding subject.

かかる画像合成方法であって、前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具の実画像であることが望ましい。In this image composition method, it is desirable that the composition element associated with the second image corresponding subject is an actual image of the writing instrument provided with the second image corresponding subject.

かかる画像合成方法であって、前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具に対応づけた位置において前記仮想画像を取り除く領域を示す図形であることが望ましい。In this image composition method, the composition element associated with the second image-corresponding subject is a region for removing the virtual image at a position associated with the writing instrument on which the second image-corresponding subject is provided. It is desirable that the figure be shown.

かかる画像合成方法であって、前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具の形状に前記仮想画像を取り除く領域を示す図形であることが望ましい。In this image composition method, the composition element associated with the second image-corresponding subject is a figure indicating a region in which the virtual image is removed from the shape of the writing instrument on which the second image-corresponding subject is provided. It is desirable to be.

本発明によれば、実画像に仮想画像が合成された合成画像において、現実の部位における実際の変化を合成画像上にて確認することが可能な画像合成方法を提供することが可能である。   ADVANTAGE OF THE INVENTION According to this invention, it is possible to provide the image composition method which can confirm the actual change in a real part on a composite image in the composite image by which the virtual image was synthesize | combined with the real image.

本発明に係る画像合成方法を実現するための装置の一例を示すブロック図である。It is a block diagram which shows an example of the apparatus for implement | achieving the image composition method which concerns on this invention. 本実施形態の画像合成方法を説明するためのフローチャートである。It is a flowchart for demonstrating the image composition method of this embodiment. 図3(a)は、最初の撮影範囲の状態を示す図であり、図3(b)は、撮影範囲内に筆記具が移動された撮影範囲の状態を示す図であり、図3(c)は、目印が付与された後の状態を示す図である。FIG. 3A is a diagram illustrating the state of the first shooting range, and FIG. 3B is a diagram illustrating the state of the shooting range in which the writing instrument is moved within the shooting range, and FIG. These are figures which show the state after a mark is provided. 図4(a)は、第1合成画像を示す図であり、図4(b)は、第2合成画像を示す図であり、図4(c)は、第2合成画像に筆記具の先端の軌道を追加した状態を示す図である。4A is a diagram showing the first composite image, FIG. 4B is a diagram showing the second composite image, and FIG. 4C is a diagram showing the tip of the writing instrument on the second composite image. It is a figure which shows the state which added the orbit. 合成要素を筆記具の先端の軌道に合わせて鉄筋仮想画像を取り除く領域を示す図形とした例を示す図である。It is a figure which shows the example made into the figure which shows the area | region which removes a rebar virtual image by matching a synthetic | combination element with the track | orbit of the front-end | tip of a writing instrument.

以下、本発明の実施形態について図面を用いて詳細に説明する。
実施形態の画像合成方法は、予め生成されている仮想画像の情報が対応づけられた画像対応被写体を含む撮影範囲を画像合成装置にて撮影し、撮影された画像対応被写体の情報に基づく仮想画像と、撮影した実画像とを合成して第1合成画像を生成し、第1合成画像の撮影範囲内に、第1合成画像と合成可能な合成要素が対応づけられた第2画像対応被写体を検出したときに、当該合成要素を第1合成画像に合成して第2合成画像を生成するものである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In the image composition method of the embodiment, a photographing range including an image corresponding subject to which information of a virtual image generated in advance is associated is photographed by an image composition device, and a virtual image based on information of the photographed image corresponding subject is captured. And a photographed real image are combined to generate a first composite image, and a second image-corresponding subject in which a composite element that can be combined with the first composite image is associated with the first composite image within the photographing range of the first composite image. When detected, the composite element is combined with the first composite image to generate a second composite image.

本実施形態では、例えば内部に鉄筋が配筋された壁に貫通孔を形成する際に実施する例について説明する。具体的には、施工対象となる壁の配筋工事時における壁内部の鉄筋の状態を撮影した写真を鉄筋仮想画像として予め記憶しておき、施工対象となる壁を連続して撮影した実画像に鉄筋仮想画像を合成した第1合成画像を撮影毎に生成し、合成画像内に油性ペンなどの移動可能な部材としての筆記具が移動された際に、筆記具に対応づけられた合成要素としてのペン形状をなすペン型仮想画像を筆記具の動きに対応させて第1合成画像と合成した第2合成画像を生成する例について説明する。   This embodiment demonstrates the example implemented when forming a through-hole in the wall by which the reinforcing bar was laid inside, for example. Specifically, a photograph of the state of the reinforcement inside the wall at the time of the reinforcement work for the wall to be constructed is stored in advance as a rebar virtual image, and an actual image obtained by continuously photographing the wall to be constructed A first composite image obtained by synthesizing the virtual reinforcing bar image is generated for each photographing, and when a writing instrument as a movable member such as an oil pen is moved in the composite image, a composite element associated with the writing instrument is used. An example of generating a second composite image in which a pen-shaped virtual image having a pen shape is combined with the first composite image in correspondence with the movement of the writing tool will be described.

図1は、本実施形態に係る画像合成方法を実現するための装置の一例を示すブロック図である。
本実施形態の画像合成方法を実現するための画像合成装置1は、被写体を撮影する撮像部10と、撮影した被写体の実画像と予め形成されている仮想画像とを合成する処理を含み画像合成装置1を制御する制御部12と、画像を合成するために必要な各種情報やデータが記憶される記憶部14と、合成された合成画像を表示する表示部16と、本画像合成装置1を操作するための操作部18と、を有している。
FIG. 1 is a block diagram showing an example of an apparatus for realizing an image composition method according to this embodiment.
An image composition apparatus 1 for realizing the image composition method of the present embodiment includes an image composition unit 10 that photographs a subject, and a process that combines a real image of the photographed subject and a pre-formed virtual image. A control unit 12 that controls the apparatus 1, a storage unit 14 that stores various information and data necessary for combining images, a display unit 16 that displays the combined image, and the present image combining apparatus 1. And an operation unit 18 for operation.

本実施形態の画像合成装置1は、例えば、撮像部10と、撮影した画像を表示する表示部16とを有し持ち運び可能な、例えばデジタルカメラ、デジタルビデオカメラ、携帯電話、携帯情報端末(PDA)、モバイルコンピュータなどに、画像合成処理が実行可能なプログラムが記憶されている。   The image composition device 1 of the present embodiment has, for example, an imaging unit 10 and a display unit 16 that displays a captured image, and is portable, for example, a digital camera, a digital video camera, a mobile phone, a personal digital assistant (PDA). ), A program capable of executing image composition processing is stored in a mobile computer or the like.

そして、画像合成装置1の使用者が、被写体を撮影すると、表示部16に撮影された実画像が表示される。このとき、撮影された実画像20(図4)に、予め設定された、例えば、QRコード(登録商標)やバーコードなどの、所定の合成情報を示す画像対応被写体としてのマーカー21が含まれていた場合には、マーカー21を検出して合成情報を取得し、取得した合成情報に基づいて、撮影した実画像20と予め記憶されている仮想画像23(図4)とを合成した合成画像24、25(図4)を生成し、生成した合成画像24、25が表示部16に表示されるように構成されている。   Then, when the user of the image composition device 1 photographs the subject, the captured actual image is displayed on the display unit 16. At this time, the photographed real image 20 (FIG. 4) includes a marker 21 as a subject corresponding to an image indicating predetermined composite information such as a QR code (registered trademark) or a barcode set in advance. If it is, the composite image obtained by detecting the marker 21 and acquiring composite information, and combining the captured real image 20 and the pre-stored virtual image 23 (FIG. 4) based on the acquired composite information. 24 and 25 (FIG. 4) are generated, and the generated combined images 24 and 25 are configured to be displayed on the display unit 16.

第1実施形態では、2種類のマーカー21が設けられている。以下、説明の便宜上、2種類のマーカーをAマーカー21aとBマーカー21bとして区別して説明する。2種類のマーカー21の一方は、第1画像対応被写体としてのAマーカー21aであり、貫通孔を形成する対象となる壁(以下、施工対象壁という)30の配筋工事時における内部の鉄筋31の状態を撮影した写真でなる鉄筋仮想画像23aが対応づけられている。2種類のマーカー21の他方は、第2画像対応被写体としてのBマーカー21bであり、施工対象壁30に目印26を付与するための筆記具27を模したペン型仮想画像23bが対応づけられている。   In the first embodiment, two types of markers 21 are provided. Hereinafter, for convenience of description, the two types of markers will be described separately as an A marker 21a and a B marker 21b. One of the two types of markers 21 is an A marker 21a as a subject corresponding to the first image, and an internal reinforcing bar 31 at the time of bar arrangement work of a wall (hereinafter referred to as a construction target wall) 30 that forms a through hole. Reinforcing bar virtual image 23a made up of a photograph of the state is associated. The other of the two types of markers 21 is a B marker 21b as a subject corresponding to the second image, and is associated with a pen-type virtual image 23b simulating a writing instrument 27 for applying a mark 26 to the construction target wall 30. .

Aマーカー21aは、施工対象壁30の予め設定された所定の位置に正確に計測されて配置されており、Aマーカー21aが設けられている位置情報及びAマーカー21aと鉄筋仮想画像23aとの相対位置を示す位置情報とが対応づけられて記憶されている。Bマーカー21bは、筆記具27の表面に設けられており、筆記具27上のBマーカー21bの位置と筆記具27の先端との距離を示す情報が対応づけられて記憶されている。   The A marker 21a is accurately measured and arranged at a predetermined position set in advance on the construction target wall 30, and the positional information on the A marker 21a and the relative relationship between the A marker 21a and the reinforcing bar virtual image 23a. The position information indicating the position is stored in association with each other. The B marker 21 b is provided on the surface of the writing instrument 27, and information indicating the distance between the position of the B marker 21 b on the writing instrument 27 and the tip of the writing instrument 27 is stored in association with each other.

撮像部10は、例えば、デジタルカメラやデジタルビデオカメラのような、撮影により、画像を構成する複数の画素の各画像データを生成するCCDセンサーなどの撮像素子により、光情報を電気情報に変換するように構成されている。   The imaging unit 10 converts optical information into electrical information by an imaging element such as a CCD sensor that generates image data of a plurality of pixels constituting an image by photographing, such as a digital camera or a digital video camera. It is configured as follows.

表示部16は、画像を構成する複数の画素の画像データを、各素子に対応させて表示することが可能な、例えば液晶パネルなどにて構成されている。ここで、各画素の画像データとは、例えば、各画素をR(レッド)成分、G(グリーン)成分、B(ブルー)成分に分解した各成分を示すデータである。   The display unit 16 is configured by, for example, a liquid crystal panel that can display image data of a plurality of pixels constituting an image corresponding to each element. Here, the image data of each pixel is, for example, data indicating each component obtained by decomposing each pixel into an R (red) component, a G (green) component, and a B (blue) component.

操作部18は、画像合成装置1を使用する使用者が、画像合成装置1に対し撮影等の操作を行ったり、設定を変更するなどの操作を行う部位であり、少なくとも実画像20を撮影するための所謂シャッター、及び、筆記具27の先端に対応する画素の画像データの色を変更するための色変更スイッチを有している。色変更スイッチは、例えば、使用者が操作部18を操作することにより、ペン型仮想画像23bにおける先端の位置に対応する画素の画像データを所定の色、例えば黒色に変更することができるように設定されている。   The operation unit 18 is a part where a user who uses the image composition device 1 performs an operation such as photographing or changing settings on the image composition device 1, and photographs at least the actual image 20. A so-called shutter, and a color change switch for changing the color of the image data of the pixel corresponding to the tip of the writing instrument 27. The color change switch can change the image data of the pixel corresponding to the position of the tip in the pen-type virtual image 23b to a predetermined color, for example, black, by the user operating the operation unit 18, for example. Is set.

記憶部14は、本画像合成装置1にて合成画像を生成するための各種情報が記憶されており、また、情報が記憶される情報記憶領域14aと、合成画像を生成する処理の中で画像データが書き換えられていく作業領域となる画像仮想展開領域14bと、撮影した実画像の画像データを、次の撮影による実画像の画像データが生成されるまで保存しておく実画像保存領域14cとを有している。   The storage unit 14 stores various types of information for generating a composite image in the image composition apparatus 1, and also stores an information storage area 14a in which information is stored and an image in the process of generating the composite image. An image virtual development area 14b that is a work area in which data is rewritten, and an actual image storage area 14c that stores image data of a captured real image until image data of the actual image is generated by the next shooting. have.

情報記憶領域14aには、被写体に含まれているAマーカー21aに対応づけられた鉄筋仮想画像23aを特定する情報、Bマーカー21bに対応づけられたペン型仮想画像23bを特定する情報、鉄筋仮想画像23aおよびペン型仮想画像23bの画像データ、鉄筋仮想画像23aの実画像20に対して配置すべき位置を示す位置情報、ペン型仮想画像23bをBマーカー21bと連動させて配置することを示す位置情報、ペン型仮想画像23bのBマーカー21bと先端との距離を示す情報などの合成情報が記憶されている。また、情報記憶領域14aには、撮影時に測定された撮像部10の視点から被写体までの距離を示す情報、Bマーカー21bの方向や傾きを示す情報等、算出された情報も記憶される。   In the information storage area 14a, information for specifying the rebar virtual image 23a associated with the A marker 21a included in the subject, information for specifying the pen-type virtual image 23b associated with the B marker 21b, rebar virtual The image data of the image 23a and the pen-type virtual image 23b, the position information indicating the position to be arranged with respect to the real image 20 of the reinforcing bar virtual image 23a, and the arrangement of the pen-type virtual image 23b in conjunction with the B marker 21b. Composite information such as position information and information indicating the distance between the B marker 21b and the tip of the pen-type virtual image 23b is stored. The information storage area 14a also stores calculated information such as information indicating the distance from the viewpoint of the imaging unit 10 to the subject measured at the time of shooting and information indicating the direction and inclination of the B marker 21b.

画像仮想展開領域14b及び実画像保存領域14cは、撮影された画像データが画素毎に記憶される記憶領域である。上述したように、各画素の画像データはR,G,Bの3つの成分を示すデータを有するので、画像仮想展開領域14b及び実画像保存領域14cは、合成画像を構成する画素数の3倍の記憶領域を有している。   The image virtual development area 14b and the real image storage area 14c are storage areas in which photographed image data is stored for each pixel. As described above, since the image data of each pixel has data indicating three components of R, G, and B, the image virtual development area 14b and the actual image storage area 14c are three times the number of pixels constituting the composite image. Storage area.

画像仮想展開領域14bに記憶される画像データは、合成画像を生成する際には必要に応じて対応する画素の画像データが書き換えられる。そして、画像仮想展開領域14bに画素毎に記憶された3つのデータは、各画素の画像データが書き換えられる場合には、R成分、G成分、B成分の各データがそれぞれ書き換えられる。一方、実画像保存領域14cに記憶される実画像の画像データは、書き換えられることはないが、画像を解析する際に用いられる。画像仮想展開領域14b及び実画像保存領域14cは、記憶領域が表示部16または撮像部10の素子と同様に配列されている必要はなく、各記憶領域の画像データが、表示部16または撮像部10の素子と対応づけられて記憶されていればよい。   The image data stored in the image virtual development area 14b is rewritten with the corresponding pixel image data as necessary when generating a composite image. The three data stored for each pixel in the image virtual development area 14b are rewritten respectively for the R component, the G component, and the B component when the image data of each pixel is rewritten. On the other hand, the image data of the actual image stored in the actual image storage area 14c is not rewritten, but is used when analyzing the image. The image virtual development area 14b and the real image storage area 14c do not have to be arranged in the same manner as the display section 16 or the elements of the imaging section 10, and the image data of each storage area is stored in the display section 16 or the imaging section. It suffices if it is stored in association with 10 elements.

制御部12は、使用者により操作部18が操作されることにより、撮像部10や表示部16を制御したり、撮影された実画像20の画像データからマーカー21を検出し、マーカー21にて示される情報を解析する解析処理、解析された情報に基づいて、実画像20と記憶部14に記憶されている仮想画像23とを合成する画像合成処理等の各種処理を実行する。   The control unit 12 controls the imaging unit 10 and the display unit 16 by operating the operation unit 18 by the user, or detects the marker 21 from the image data of the captured real image 20. Various processes such as an analysis process for analyzing the displayed information and an image synthesis process for synthesizing the actual image 20 and the virtual image 23 stored in the storage unit 14 are executed based on the analyzed information.

次に、本実施形態における制御部12による画像合成方法について説明する。
本実施形態の画像合成方法は、画像合成装置1に設けられ、撮像部10にて撮影するための操作部18であるシャッターが操作されて処理が開始される。このとき、画像合成装置1が、デジタルカメラなどのように、単に実画像を撮影するときと、合成画像を生成するときとで処理を切り替えるスイッチが操作部18に設けられていてもよい。また、常に合成画像を生成する処理が実行されるように設定されており、撮影された実画像にマーカー21が検出されたときのみ合成画像を生成する処理を実行することとしてもよい。
Next, an image composition method by the control unit 12 in the present embodiment will be described.
The image composition method according to the present embodiment is provided in the image composition apparatus 1, and a process is started by operating a shutter which is an operation unit 18 for photographing with the imaging unit 10. At this time, the operation unit 18 may be provided with a switch for switching processing between when the image composition device 1 simply captures a real image and when a composite image is generated, such as a digital camera. Further, it is set to always execute the process of generating the composite image, and the process of generating the composite image may be executed only when the marker 21 is detected in the captured real image.

第1実施形態は、前述したように、画像合成装置1の撮像部10にて撮影するときに、撮影範囲F1内に、QRコード(登録商標)やバーコードなどの情報を示す画像対応被写体としてのマーカー21a、21bが含まれる状態に応じて合成画像24、25を生成する。   As described above, in the first embodiment, when the image capturing unit 10 of the image composition device 1 captures an image, the image corresponding subject indicating information such as a QR code (registered trademark) or a barcode is present in the capturing range F1. The combined images 24 and 25 are generated according to the state in which the markers 21a and 21b are included.

図2は、第1実施形態の画像合成方法を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining the image composition method according to the first embodiment.

図3(a)は、最初の撮影範囲の状態を示す図であり、図3(b)は、撮影範囲に筆記具が移動された状態を示す図であり、図3(c)は、目印が付与された後の状態を示す図である。図4(a)は、第1合成画像を示す図であり、図4(b)は、第2合成画像を示す図であり、図4(c)は、第2合成画像に筆記具27の先端の軌道を表した状態を示す図である。   FIG. 3A is a diagram illustrating a state of the first shooting range, FIG. 3B is a diagram illustrating a state where the writing instrument is moved to the shooting range, and FIG. It is a figure which shows the state after giving. 4A is a diagram showing the first composite image, FIG. 4B is a diagram showing the second composite image, and FIG. 4C is the tip of the writing instrument 27 on the second composite image. It is a figure which shows the state showing these orbits.

使用者により図3(a)に示すように、撮影範囲F1内にAマーカー21aを含ませてシャッターが操作されると、制御部12は、撮像部10にて施工対象壁30を撮影し(S1)、撮影された実画像20を構成する各画素の画像データを生成し、生成した画像データを記憶部14の画像仮想展開領域14bと実画像保存領域14cとにそれぞれ記憶する(S2)。   As shown in FIG. 3A, when the shutter is operated with the A marker 21 a included in the imaging range F <b> 1 by the user, the control unit 12 images the construction target wall 30 with the imaging unit 10 ( S1), image data of each pixel constituting the photographed real image 20 is generated, and the generated image data is stored in the image virtual development area 14b and the real image storage area 14c of the storage unit 14 (S2).

また、制御部12は実画像20の撮影時に撮像部10から取得した情報に基づき、一般的なカメラにも搭載されているオートフォーカス機構の原理を利用して、例えば、レンズの上半分と下半分にて生じる重心位置の違いを利用して被写体と、撮像部10の視点位置との距離を計測し、計測した距離情報を情報記憶領域14aに記憶する。   Further, the control unit 12 uses the principle of an autofocus mechanism mounted on a general camera based on information acquired from the imaging unit 10 at the time of capturing the actual image 20, for example, the upper half and the lower half of the lens. The distance between the subject and the viewpoint position of the imaging unit 10 is measured using the difference in the center of gravity position that occurs in half, and the measured distance information is stored in the information storage area 14a.

次に制御部12は、実画像保存領域14cに記憶されている実画像20の画像データに第1画像対応被写体としてのAマーカー21aが撮影されているか否かを解析する(S3)。このとき、実画像20の画像データにAマーカー21aが撮影されていた場合には(S4)、Aマーカー21aに対応づけられている情報を情報記憶領域14aから取得する(S5)。ここで、取得される情報には、Aマーカー21aに対応づけられている仮想画像23を特定する情報、撮影した実画像20と仮想画像23とを合成するための位置情報、等が含まれる。   Next, the control unit 12 analyzes whether or not the A marker 21a as the first image corresponding subject is captured in the image data of the actual image 20 stored in the actual image storage area 14c (S3). At this time, if the A marker 21a is captured in the image data of the real image 20 (S4), information associated with the A marker 21a is acquired from the information storage area 14a (S5). Here, the acquired information includes information for specifying the virtual image 23 associated with the A marker 21a, position information for combining the captured real image 20 and the virtual image 23, and the like.

また、このとき実画像保存領域14cに記憶されている実画像20の画像データを解析し、実画像20の画像データにAマーカー21aが撮影されていなかった場合には、画像仮想展開領域14bに記憶されている実画像20の画像データに基づいて、実画像20が表示部16に表示される(S13)。   At this time, the image data of the real image 20 stored in the real image storage area 14c is analyzed, and if the A marker 21a is not captured in the image data of the real image 20, the image virtual development area 14b is displayed. Based on the stored image data of the real image 20, the real image 20 is displayed on the display unit 16 (S13).

本実施形態の場合には、実画像保存領域14cに記憶されている実画像20の画像データを解析して(S3)、実画像20の画像データにAマーカー21aが検出され(S4)、Aマーカー21aに対応づけられている情報が記憶部14から取得される(S5)。このとき、撮影した実画像20と合成する鉄筋仮想画像23aを特定する情報、鉄筋仮想画像23aを合成するための位置情報、すなわち、Aマーカー21aの位置に位置あわせして鉄筋仮想画像23aが配置されることを示す情報が取得される(S5)。   In the case of this embodiment, the image data of the actual image 20 stored in the actual image storage area 14c is analyzed (S3), the A marker 21a is detected in the image data of the actual image 20 (S4), and A Information associated with the marker 21a is acquired from the storage unit 14 (S5). At this time, information specifying the rebar virtual image 23a to be combined with the captured real image 20, position information for combining the rebar virtual image 23a, that is, the position of the A marker 21a is aligned with the position of the rebar virtual image 23a. Information indicating that the process is to be performed is acquired (S5).

次に制御部12は、取得した情報に基づいて、画像仮想展開領域14bに記憶されている実画像20の対象となる画素の画像データを、Aマーカー21aに対応づけられて情報記憶領域14aに記憶されている鉄筋仮想画像23aの画像データに書き換えて第1合成画像24を生成する(S6)。ここで、被写体を撮影する工程S1から実画像20と鉄筋仮想画像23aとを合成する工程S6までが第1画像合成工程に相当する。   Next, based on the acquired information, the control unit 12 associates the image data of the target pixel of the real image 20 stored in the image virtual development area 14b with the A marker 21a in the information storage area 14a. The first synthesized image 24 is generated by rewriting the stored image data of the reinforcing bar virtual image 23a (S6). Here, the process from the step S1 for photographing the subject to the step S6 for synthesizing the real image 20 and the reinforcing bar virtual image 23a corresponds to the first image synthesizing step.

次に制御部12は、実画像保存領域14cに記憶されている実画像20の画像データに第2画像対応被写体としてのBマーカー21bが撮影されているか否かを解析する(S7)。   Next, the control unit 12 analyzes whether or not the B marker 21b as the second image corresponding subject is captured in the image data of the actual image 20 stored in the actual image storage area 14c (S7).

本実施形態における最初の撮影では、図3(a)に示すように筆記具27が撮影範囲F1に含まれていないので、画像仮想展開領域14bにて合成されている図4(a)に示すような第1合成画像24を表示部16に表示する(S13)。   In the first shooting in the present embodiment, as shown in FIG. 3A, the writing instrument 27 is not included in the shooting range F1, and as shown in FIG. 4A synthesized in the image virtual development area 14b. The first composite image 24 is displayed on the display unit 16 (S13).

このような、撮影工程S1から表示工程(S13)までの処理を所定の時間間隔にて繰り返し実行する。たとえば、1秒間に15回、上記処理を繰り返し表示部16の画像を書き換えることにより、フレームレートが15fpsの動画が表示部16に表示される。   Such processing from the photographing step S1 to the display step (S13) is repeatedly executed at predetermined time intervals. For example, the above process is repeated 15 times per second to rewrite the image on the display unit 16 so that a moving image with a frame rate of 15 fps is displayed on the display unit 16.

そして、使用者が、表面にBマーカー21bが設けられた筆記具27を撮影範囲F1内に移動させると、繰り返される撮影の中で、図3(b)に示すように、筆記具27が撮影範囲F1内に含まれた実画像20が撮影される。繰り返される撮影の間には、制御部12は、上述した第1合成画像を生成する第1画像合成工程(S1〜S6)を実行しており、Bマーカー21bが検出された際には、撮像部10の視点位置とBマーカー21bとの距離も計測し、計測した距離情報を情報記憶領域14aに記憶する。   Then, when the user moves the writing instrument 27 having the B marker 21b provided on the surface thereof within the imaging range F1, as shown in FIG. 3B, the writing instrument 27 moves within the imaging range F1 during repeated imaging. A real image 20 included in the image is taken. During repeated imaging, the control unit 12 performs the first image synthesis process (S1 to S6) for generating the first synthesized image described above, and when the B marker 21b is detected, imaging is performed. The distance between the viewpoint position of the unit 10 and the B marker 21b is also measured, and the measured distance information is stored in the information storage area 14a.

繰り返される撮影にて撮影毎に第1合成画像24が形成された後に、制御部12は、実画像保存領域14cに記憶されている実画像20の画像データに第2画像対応被写体としてのBマーカー21bが撮影されているか否かを解析する(S7)。このとき、実画像20の画像データにはBマーカー21bが撮影されているので(S7)、Bマーカー21bに対応づけられている情報を記憶部14から取得する(S8)。また、このとき、撮影された筆記具27は施工対象壁30に目印を付与するために用いられているため、施工対象壁30とは平行には配置されない。このため、制御部12は、撮像時に特定したBマーカー21bの位置、Bマーカー21bの幅や傾き、撮影時に計測した距離、に基づいて、Bマーカー21bに対応づけられているペン型仮想画像23bの画像データを筆記具27実体の向きに合わせる補正処理を実行する(S9)。   After the first composite image 24 is formed for each shooting by repeated shooting, the control unit 12 adds the B marker as the second image corresponding subject to the image data of the actual image 20 stored in the actual image storage area 14c. It is analyzed whether 21b is photographed (S7). At this time, since the B marker 21b is captured in the image data of the real image 20 (S7), information associated with the B marker 21b is acquired from the storage unit 14 (S8). At this time, the photographed writing instrument 27 is used to give a mark to the construction target wall 30, and therefore is not arranged in parallel with the construction target wall 30. For this reason, the control part 12 is based on the position of the B marker 21b specified at the time of imaging, the width | variety and inclination of B marker 21b, and the distance measured at the time of imaging | photography, The pen-type virtual image 23b matched with the B marker 21b. A correction process for matching the image data of the image data with the orientation of the writing instrument 27 is executed (S9).

次に制御部12は、補正処理したペン型仮想画像23bの画像データが合成される画素をBマーカー21bの位置に基づいて特定し、画像仮想展開領域14bに記憶されている第1合成画像の対象となる画素の画像データを、補正処理したペン型仮想画像23bの画像データに書き換えて図4(b)に示すような第2合成画像25を生成する(S10)。ここで、Bマーカー21bを検出する工程S7から第1合成画像と補正後のペン型仮想画像23bとを合成する工程S10までが第2画像合成工程に相当する。   Next, the control unit 12 specifies a pixel on which the image data of the corrected pen-type virtual image 23b is synthesized based on the position of the B marker 21b, and the first synthesized image stored in the image virtual development area 14b. The image data of the target pixel is rewritten to the image data of the corrected pen-type virtual image 23b to generate the second composite image 25 as shown in FIG. 4B (S10). Here, the process from step S7 for detecting the B marker 21b to step S10 for synthesizing the first synthesized image and the corrected pen-type virtual image 23b corresponds to the second image synthesizing step.

このとき、制御部12は、色変更スイッチにより信号が入力されたか否かを検出している(S11)。そして、使用者が、ペン型仮想画像23bの先端が所望の位置、すなわち目印を付与したい位置に配置されたときに、色変更スイッチを操作すると、制御部12は、色変更スイッチにより信号が入力されたことを検出して(S11)、画像仮想展開領域14bに記憶されている第2合成画像25のペン型仮想画像23bにおける先端の位置に対応する画素の画像データを黒色に変更する(S12)。   At this time, the control unit 12 detects whether or not a signal is input by the color change switch (S11). When the user operates the color change switch when the tip of the pen-type virtual image 23b is placed at a desired position, that is, a position where a mark is desired to be added, the control unit 12 receives a signal from the color change switch. When this is detected (S11), the image data of the pixel corresponding to the position of the tip in the pen-type virtual image 23b of the second composite image 25 stored in the image virtual development area 14b is changed to black (S12). ).

そして、画像仮想展開領域14bにて合成されている図4(b)に示すような第2合成画像25を表示部16に表示する(S13)。   Then, the second synthesized image 25 as shown in FIG. 4B synthesized in the image virtual development area 14b is displayed on the display unit 16 (S13).

その後、使用者が筆記具27を移動させると、表示部16上にて筆記具27の軌道に対応したペン型仮想画像23bの移動が表示され、ペン型仮想画像23bの先端の軌道に伴って黒色に変更された画素のデータが連なって図4(c)に示すような目印を示す画像28が表示される。すなわち、使用者が撮影範囲F1内にて筆記具27を移動させると、ペン型仮想画像23bも連動して移動するので、施工対象壁30の内部を見ているかのような状態にて、筆記具27を移動させているような画像が表示される。そして、使用者が所望の位置にて筆記具27を施工対象壁30に接触させることにより、図3(c)に示す等に、施工対象壁30に現実に目印26を付与することが可能である。   Thereafter, when the user moves the writing instrument 27, the movement of the pen-type virtual image 23b corresponding to the trajectory of the writing instrument 27 is displayed on the display unit 16, and the black color is displayed along with the trajectory of the tip of the pen-type virtual image 23b. An image 28 showing a mark as shown in FIG. 4C is displayed by connecting the changed pixel data. That is, when the user moves the writing tool 27 within the shooting range F1, the pen-type virtual image 23b also moves in conjunction with the writing tool 27, so that the writing tool 27 looks as if it is looking inside the construction target wall 30. An image that appears to move is displayed. Then, when the user brings the writing instrument 27 into contact with the construction target wall 30 at a desired position, it is possible to actually give the mark 26 to the construction target wall 30 as shown in FIG. .

本実施形態の画像合成方法によれば、鉄筋仮想画像23aが対応づけられたAマーカー21aを撮影して、撮影された実画像20と鉄筋仮想画像23aとを合成した第1合成画像24の範囲内にて、第1合成画像24と合成可能な合成要素としてのペン型仮想画像23bが対応づけられたBマーカー21bを検出したときには、ペン型仮想画像23bを第1合成画像24と合成して第2合成画像25を生成するので、実画像、鉄筋仮想画像23a、及び、ペン型仮想画像23bを合成した第2合成画像25を生成することが可能である。このため、実画像20に鉄筋仮想画像23aが合成された第1合成画像24に、検出されたBマーカー21bに対応づけられたペン型仮想画像23bを合成することにより、生成される第2合成画像25に、現実の部位における実際の変化を反映させることが可能である。   According to the image composition method of the present embodiment, the range of the first composite image 24 obtained by photographing the A marker 21a associated with the rebar virtual image 23a and composing the photographed real image 20 and the rebar virtual image 23a. When the B marker 21b associated with the first composite image 24 and the pen-type virtual image 23b as a composite element that can be combined is detected, the pen-type virtual image 23b is combined with the first composite image 24. Since the second composite image 25 is generated, it is possible to generate the second composite image 25 by combining the real image, the reinforcing bar virtual image 23a, and the pen-type virtual image 23b. For this reason, the 2nd synthetic | combination produced | generated by synthesize | combining the pen type | mold virtual image 23b matched with the detected B marker 21b with the 1st synthetic | combination image 24 which synthesize | combined the rebar virtual image 23a with the real image 20. FIG. It is possible to reflect the actual change in the actual part in the image 25.

このため、例えば上記のように、施工対象壁に貫通孔を施工しようとする場合に、施工対象壁30の内部に埋設されている鉄筋31を傷つけることがないような位置を容易に特定することが可能である。   For this reason, when trying to construct a through hole in the construction target wall as described above, for example, a position that does not damage the reinforcing bar 31 embedded in the construction target wall 30 is easily identified. Is possible.

また、実画像20、鉄筋仮想画像23aが合成された第1合成画像24の範囲内に、Bマーカー21bが設けられた移動可能な筆記具27が検出された場合には、Bマーカー21bが設けられている筆記具27のペン型仮想画像23bが第1合成画像24に合成されるので、鉄筋仮想画像23aと合成された実画像20上に、現実に存在している筆記具27をイメージさせる第2合成画像25を合成することが可能である。   Further, when the movable writing instrument 27 provided with the B marker 21b is detected within the range of the first composite image 24 obtained by combining the real image 20 and the rebar virtual image 23a, the B marker 21b is provided. Since the pen-type virtual image 23b of the writing instrument 27 is synthesized with the first synthesized image 24, the second synthesis is made to image the writing instrument 27 that actually exists on the real image 20 synthesized with the reinforcing bar virtual image 23a. The image 25 can be synthesized.

上記実施形態においては、第1合成画像24に合成可能な合成要素をペン型仮想画像23bとしたが、これに限るものではない。たとえば、撮影された実画像20の筆記具27に相当する部位でなる筆記具27の実画像の画像データを合成要素として第1合成画像24に合成してもよい。   In the above embodiment, the composite element that can be combined with the first composite image 24 is the pen-type virtual image 23b. However, the present invention is not limited to this. For example, the image data of the actual image of the writing instrument 27 that is a part corresponding to the writing instrument 27 of the photographed actual image 20 may be combined with the first composite image 24 as a combining element.

図5は、合成要素を筆記具の先端の軌道に合わせて鉄筋仮想画像を取り除く領域を示す図形とした例を示す図である。   FIG. 5 is a diagram showing an example in which a composite element is made into a figure indicating a region for removing a reinforcing bar virtual image in accordance with the trajectory of the tip of the writing instrument.

また、合成要素を、筆記具27の先端の周囲を、筆記具27の先端の軌道に合わせて、第1合成画像から鉄筋仮想画像23aを取り除く領域を示す、図5に示すような図形29としても構わない。この場合には、鉄筋仮想画像23aが取り除かれた部位に施工対象壁30が表示されるので、実際に施工対象壁30に付与された目印26を表示部16上で視認することが可能である。また、鉄筋仮想画像23aを取り除く領域を示す図形の形状を、筆記具27を示す形状としてもよい。この場合には、筆記具27の形状に鉄筋仮想画像23aが取り除かれるので、第2合成画像25上に、筆記具27をイメージすることが可能であるとともに、鉄筋仮想画像23aと合成された第2合成画像25であっても、筆記具27が存在する位置では実画像が見えるような第2合成画像25を生成することが可能である。   Further, the composite element may be a graphic 29 as shown in FIG. 5 showing a region where the reinforcing bar virtual image 23a is removed from the first composite image by aligning the periphery of the tip of the writing instrument 27 with the trajectory of the tip of the writing instrument 27. Absent. In this case, since the construction target wall 30 is displayed at the site where the rebar virtual image 23a has been removed, the mark 26 actually attached to the construction target wall 30 can be visually recognized on the display unit 16. . Further, the shape of the figure indicating the region from which the reinforcing bar virtual image 23 a is removed may be the shape indicating the writing instrument 27. In this case, since the rebar virtual image 23a is removed from the shape of the writing instrument 27, the writing instrument 27 can be imaged on the second composite image 25, and the second composite synthesized with the rebar virtual image 23a. Even in the case of the image 25, it is possible to generate the second composite image 25 so that the actual image can be seen at the position where the writing instrument 27 is present.

上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることはいうまでもない。   The above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

上記実施形態では、最初は撮影範囲F1に筆記具27が含まれていない例について説明したが、最初から撮影範囲F1に筆記具27が含まれていてもよい。   In the above embodiment, an example in which the writing tool 27 is not included in the shooting range F1 has been described at first. However, the writing tool 27 may be included in the shooting range F1 from the beginning.

また、上記実施形態においては、筆記具27の先端の軌道に対応させて筆記具27の先端が位置する画素の色を変更する処理の開始を操作部18に設けた色変更スイッチの操作としたが、これに限るものではない。たとえば、筆記具に送信部と送信スイッチを備え、画像合成装置に受信部を備えた構成とし、たとえば、筆記具にて目印を付与する際に送信スイッチを操作すると画像合成装置が赤外線などによる信号を受信して処理を実行することとしてもよい。また、筆記具と画像合成装置とをケーブルにて接続して筆記具での操作により処理の開始信号が画像合成装置に送信されることとしてもよい。さらに、圧力センサー等を用いて使用者が目印を付与する動作を検出したときに処理が開始されるように構成してもよい。   In the above embodiment, the process of changing the color of the pixel where the tip of the writing instrument 27 is positioned in correspondence with the trajectory of the tip of the writing instrument 27 is the operation of the color change switch provided in the operation unit 18. This is not a limitation. For example, a writing instrument is provided with a transmission unit and a transmission switch, and an image composition device is provided with a reception unit. For example, when a mark is attached with a writing instrument, the image composition device receives a signal by infrared rays or the like. Then, the process may be executed. Alternatively, the writing tool and the image composition device may be connected by a cable, and a processing start signal may be transmitted to the image composition device by an operation with the writing tool. Further, the processing may be started when the user detects an operation of applying a mark using a pressure sensor or the like.

上記実施形態において説明した、筆記具27の先端の軌道に対応させて筆記具27の先端が位置する画素の色を変更する処理は、筆記具27の先端の周囲を、筆記具27の先端の軌道に合わせて、第1合成画像から鉄筋仮想画像23aを取り除く場合であっても、鉄筋仮想画像上に反映させた合成画像を、画像仮想展開領域とは別に、記憶部に記憶しておくこととしてもよい。これは、たとえば、施工対象壁に目印を付した後に筆記具を移動させた場合に、鉄筋仮想画像が取り除かれる領域も移動することにより、施工対象壁に実際に目印を付した部位が鉄筋仮想画像にて覆われて、施工対象壁上の目印の位置がわからなくなってしまうことを防止するためである。すなわち、目印を付した後に筆記具を移動して、施工対象壁に実際に目印を付した部位が鉄筋仮想画像にて覆われてしまった場合には、鉄筋仮想画像上の目印を表示できるようにするためである。   The process of changing the color of the pixel at which the tip of the writing instrument 27 is located in correspondence with the trajectory of the tip of the writing instrument 27 described in the above embodiment is performed by matching the periphery of the tip of the writing instrument 27 with the trajectory of the tip of the writing instrument 27. Even when the reinforcing bar virtual image 23a is removed from the first combined image, the combined image reflected on the reinforcing bar virtual image may be stored in the storage unit separately from the image virtual development area. This is because, for example, when the writing instrument is moved after marking the wall to be constructed, the region from which the reinforcing bar virtual image is removed also moves, so that the part actually marked on the construction target wall is rebar virtual image This is to prevent the position of the mark on the construction target wall from being lost. In other words, if the writing instrument is moved after attaching the mark, and the part where the mark is actually attached to the construction target wall is covered with the reinforcing bar virtual image, the mark on the reinforcing bar virtual image can be displayed. It is to do.

上記実施形態では、動画を表示する例について説明したが、シャッターを操作する毎に静止画像を表示する形態であっても構わない。   In the above embodiment, an example in which a moving image is displayed has been described. However, a still image may be displayed every time the shutter is operated.

1 画像合成装置
10 撮像部
12 制御部
14 記憶部
14a 情報記憶領域
14b 画像仮想展開領域
14c 実画像保存領域
16 表示部
18 操作部
20 実画像
21 マーカー
21a Aマーカー
21b Bマーカー
23 仮想画像
23a 鉄筋仮想画像
23b ペン型仮想画像
24 第1合成画像
25 第2合成画像
26 目印
27 筆記具
28 目印を示す画像
29 仮想画像を取り除く領域を示す図形
30 施工対象壁
31 鉄筋
F1 撮影範囲
DESCRIPTION OF SYMBOLS 1 Image composition apparatus 10 Imaging part 12 Control part 14 Storage part 14a Information storage area 14b Image virtual expansion | deployment area 14c Real image storage area 16 Display part 18 Operation part 20 Real image 21 Marker 21a A marker 21b B marker 23 Virtual image 23a Reinforcing bar virtual Image 23b Pen-type virtual image 24 First composite image 25 Second composite image 26 Mark 27 Writing instrument 28 Image showing mark 29 Graphic showing region for removing virtual image 30 Construction target wall 31 Rebar F1 Shooting range

Claims (5)

仮想画像として、壁内部の状態を撮影した画像を予め記憶する工程と、
前記仮想画像が対応づけられた第1画像対応被写体を含む壁を、撮影範囲にて撮影して、撮影された前記壁の実画像と前記仮想画像とを合成して第1合成画像を生成する第1画像合成工程と、
前記撮影範囲内に、前記第1合成画像と合成可能な合成要素が対応づけられた第2画像対応被写体としての筆記具を検出したときに、前記合成要素を前記第1合成画像に合成して第2合成画像を生成する第2画像合成工程と、
前記筆記具を移動させた際に、当該筆記具が移動する軌道に基づいて前記第2合成画像を変更するとともに、当該筆記具を前記壁に接触させて当該壁に現実に目印を付与する工程と、
を有することを特徴とする画像合成方法。
A step of preliminarily storing an image obtained by photographing a state inside the wall as a virtual image;
Said wall virtual image includes a first image corresponding object associated, by shooting at shooting ranges, to generate a first combined images by combining the real images captured the wall and the virtual image A first image composition step;
When a writing instrument as a second image-corresponding subject in which a composite element that can be combined with the first composite image is associated with the first composite image is detected within the photographing range, the composite element is combined with the first composite image and the first composite image is combined. A second image composition step for generating two composite images;
When the writing instrument is moved, changing the second composite image based on the trajectory that the writing instrument moves, and bringing the writing instrument into contact with the wall to actually mark the wall;
An image synthesizing method characterized by comprising:
請求項1に記載の画像合成方法であって、
前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具を示す第2の仮想画像であることを特徴とする画像合成方法。
The image composition method according to claim 1 ,
The image composition method, wherein the composition element associated with the second image-corresponding subject is a second virtual image showing the writing instrument provided with the second image-corresponding subject.
請求項1に記載の画像合成方法であって、
前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具の実画像であることを特徴とする画像合成方法。
The image composition method according to claim 1 ,
The image composition method, wherein the composition element associated with the second image-corresponding subject is a real image of the writing instrument provided with the second image-corresponding subject.
請求項1に記載の画像合成方法であって、
前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具に対応づけた位置おいて前記仮想画像を取り除く領域を示す図形であることを特徴とする画像合成方法。
The image composition method according to claim 1 ,
The composite element associated with the second image-corresponding subject is a figure indicating a region from which the virtual image is removed at a position associated with the writing instrument on which the second image-corresponding subject is provided. An image composition method.
請求項1に記載の画像合成方法であって、
前記第2画像対応被写体と対応づけられた前記合成要素は、前記第2画像対応被写体が設けられている前記筆記具の形状に前記仮想画像を取り除く領域を示す図形であることを特徴とする画像合成方法。
The image composition method according to claim 1 ,
The composition element associated with the second image-corresponding subject is a figure indicating a region for removing the virtual image in the shape of the writing instrument provided with the second image-corresponding subject. Method.
JP2011038752A 2011-02-24 2011-02-24 Image composition method Active JP5691632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011038752A JP5691632B2 (en) 2011-02-24 2011-02-24 Image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011038752A JP5691632B2 (en) 2011-02-24 2011-02-24 Image composition method

Publications (2)

Publication Number Publication Date
JP2012174219A JP2012174219A (en) 2012-09-10
JP5691632B2 true JP5691632B2 (en) 2015-04-01

Family

ID=46977030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011038752A Active JP5691632B2 (en) 2011-02-24 2011-02-24 Image composition method

Country Status (1)

Country Link
JP (1) JP5691632B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202981B2 (en) * 2013-10-18 2017-09-27 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP4298407B2 (en) * 2002-09-30 2009-07-22 キヤノン株式会社 Video composition apparatus and video composition method
JP2004227332A (en) * 2003-01-23 2004-08-12 Hitachi Ltd Information display method
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
JP2005339267A (en) * 2004-05-27 2005-12-08 Canon Inc Information processing method, information processor and imaging device
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP2006085375A (en) * 2004-09-15 2006-03-30 Canon Inc Image processing method and image processor
JP4533087B2 (en) * 2004-10-28 2010-08-25 キヤノン株式会社 Image processing method and image processing apparatus
JP2006343954A (en) * 2005-06-08 2006-12-21 Canon Inc Image processing method and image processor
JP4739002B2 (en) * 2005-06-30 2011-08-03 キヤノン株式会社 Image processing method and image processing apparatus
JP4847195B2 (en) * 2006-04-21 2011-12-28 キヤノン株式会社 How to get color information from an image
JP5077097B2 (en) * 2008-06-26 2012-11-21 沖電気工業株式会社 Video processing system
JP5249805B2 (en) * 2009-02-10 2013-07-31 ソフトバンクテレコム株式会社 Image composition system and image composition method

Also Published As

Publication number Publication date
JP2012174219A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
KR101813834B1 (en) Image processing device, image processing method, image processing program and photographing assist equipment
KR100279140B1 (en) Image pickup device and image pickup image processing device
JP4656975B2 (en) Image display device, image display method, and program for causing computer to execute the method
US9699367B2 (en) Imaging device and method for displaying multiple objects of an imaging view
US20110228044A1 (en) Imaging apparatus, imaging method and recording medium with program recorded therein
JP2007164258A (en) Image synthesizing device and method
JP2010177741A (en) Image capturing apparatus
JP2014057247A (en) Imaging apparatus, imaging processing method and program
US20160212331A1 (en) Image pickup apparatus and image pickup method
JP5691629B2 (en) Image composition method
JP2007086995A (en) Pointing device
CN103856715B (en) Imaging device and method
JP5691632B2 (en) Image composition method
JP6404483B2 (en) Ranging device, ranging control method, and ranging control program
JP5776218B2 (en) Image composition method
JP2007174301A (en) Image photographing apparatus
JP5764969B2 (en) Image composition method
JP5691630B2 (en) Image composition method
JP4807194B2 (en) Image processing apparatus and program
JP6494059B2 (en) Information processing apparatus, information processing method, and program
JP6494060B2 (en) Information processing apparatus, information processing method, and program
JP5691631B2 (en) Image composition method
JP5914714B2 (en) Imaging equipment and method
WO2017056544A1 (en) Distance measuring device, distance measuring method, and distance measuring program
JP2004173300A (en) Image pickup device and picked-up image working method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5691632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150