JP2016082477A - Image processing device, method for controlling the same, control program, and imaging apparatus - Google Patents

Image processing device, method for controlling the same, control program, and imaging apparatus Download PDF

Info

Publication number
JP2016082477A
JP2016082477A JP2014213684A JP2014213684A JP2016082477A JP 2016082477 A JP2016082477 A JP 2016082477A JP 2014213684 A JP2014213684 A JP 2014213684A JP 2014213684 A JP2014213684 A JP 2014213684A JP 2016082477 A JP2016082477 A JP 2016082477A
Authority
JP
Japan
Prior art keywords
image
images
area
external device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014213684A
Other languages
Japanese (ja)
Inventor
賢治 小貫
Kenji Konuki
賢治 小貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014213684A priority Critical patent/JP2016082477A/en
Publication of JP2016082477A publication Critical patent/JP2016082477A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To synthesize a plurality of images, without increasing a storage capacity and an arithmetic amount.SOLUTION: When synthesizing the plurality of images obtained as a consecutive photographing result, to generate a synthetic image, a camera 100 extracts a predetermined area as an extraction area for each of the plurality of images and transmits the extraction area to a PC being an external device. The PC generates synthetic information used when synthesizing the plurality of images on the basis of the extraction area and transmits the synthetic information to the camera. The camera synthesizes the plurality of images, according to the synthetic information received from the PC, to obtain the synthetic image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、複数の画像データを合成処理するための画像処理装置に関する。   The present invention relates to an image processing apparatus, a control method thereof, a control program, and an imaging apparatus, and more particularly to an image processing apparatus for synthesizing a plurality of image data.

一般に、撮影の結果得られた複数の画像データを合成処理して1枚の画像データでは得られない画角を有する合成画像データを得る手法が知られている。例えば、撮像装置を動かして画角を変化させつつ連続的に撮影を行って得られた画像データを繋ぎ合わせる処理を行って広角の画像データを生成するパノラマ合成処理がある。さらには、連続的に撮影を行って得られた画像データを合成処理して画角内に存在する邪魔な移動被写体を除去する手法がある。   In general, a technique is known in which a plurality of pieces of image data obtained as a result of shooting are combined to obtain combined image data having an angle of view that cannot be obtained with a single piece of image data. For example, there is a panorama synthesis process in which image data obtained by continuously capturing images while moving the imaging device while changing the angle of view is generated to generate wide-angle image data. Furthermore, there is a method of removing the disturbing moving subject existing in the angle of view by synthesizing image data obtained by continuously photographing.

ところが、上述の手法においては、撮影の結果得られた複数の画像データの全てを撮像装置又は外部処理装置に記憶して合成処理を行っており、この結果、撮影枚数が多くなるに伴って必要とする記録容量および処理に要する演算時間が増大してしまう。   However, in the above-described method, all of a plurality of image data obtained as a result of photographing is stored in an imaging device or an external processing device and composite processing is performed. As a result, it is necessary as the number of images to be photographed increases. And the calculation time required for processing increases.

例えば、撮像装置による連続的な撮影の結果得られた画像データを、主記憶装置を用いて合成処理して移動被写体を除去してパノラマ画像を生成するようにしたものがある(特許文献1参照)。   For example, image data obtained as a result of continuous shooting by an imaging device is synthesized using a main storage device to remove a moving subject and generate a panoramic image (see Patent Document 1). ).

特開2004−88678号公報JP 2004-88678 A

上述の特許文献1に記載の手法においては、複数の画像データを、主記憶装置を用いて合成処理する結果、撮影枚数が多くなるに従って、主記憶装置で必要な記憶容量および合成処理の際の演算量が増大してしまうことになる。   In the method described in Patent Document 1 described above, as a result of combining a plurality of pieces of image data using the main storage device, as the number of shots increases, the storage capacity required for the main storage device and the combination processing are increased. The amount of calculation will increase.

従って、本発明の目的は、記憶容量および演算量が増大することなく、複数の画像データを合成処理することのできる画像処理装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus, a control method thereof, a control program, and an imaging apparatus capable of synthesizing a plurality of image data without increasing storage capacity and calculation amount. is there.

上記の目的を達成するため、本発明による画像処理装置は、連続的な撮影の結果得られた複数の画像を合成して合成画像を得る画像処理装置であって、前記複数の画像の各々について所定の領域を抽出領域として抽出する抽出手段と、前記抽出領域を外部装置に送信する送信手段と、前記外部装置において前記抽出領域に基づいて求められ前記複数の画像を合成する際に用いられる合成情報を前記外部装置から受けて、前記合成情報に応じて前記複数の画像を合成処理して合成画像を得る合成手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that obtains a composite image by combining a plurality of images obtained as a result of continuous shooting, and for each of the plurality of images. An extraction unit that extracts a predetermined region as an extraction region, a transmission unit that transmits the extraction region to an external device, and a synthesis that is obtained based on the extraction region in the external device and is used when combining the plurality of images Synthesizing means for receiving information from the external device and synthesizing the plurality of images in accordance with the synthesis information to obtain a synthesized image.

本発明による撮像装置は、複数の画像を撮像する撮像手段と、上記の画像処理装置と、前記合成画像を記録媒体に記録する記録手段と、を有することを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that captures a plurality of images, the above-described image processing apparatus, and a recording unit that records the composite image on a recording medium.

本発明による制御方法は、連続的な撮影の結果得られた複数の画像を合成して合成画像を得る画像処理装置での制御方法あって、前記複数の画像の各々について所定の領域を抽出領域として抽出する抽出ステップと、前記抽出領域を外部装置に送信する送信ステップと、前記外部装置において前記抽出領域に基づいて求められ前記複数の画像を合成する際に用いられる合成情報を前記外部装置から受けて、前記合成情報に応じて前記複数の画像を合成処理して合成画像を得る合成ステップと、を有することを特徴とする。   A control method according to the present invention is a control method in an image processing apparatus that obtains a composite image by combining a plurality of images obtained as a result of continuous shooting, wherein a predetermined region is extracted from each of the plurality of images. An extraction step for extracting the extracted region as an external device, and a transmission step for transmitting the extraction region to the external device, and combining information used when combining the plurality of images obtained based on the extraction region in the external device from the external device. And a synthesis step of synthesizing the plurality of images according to the synthesis information to obtain a synthesized image.

本発明による制御プログラムは、連続的な撮影の結果得られた複数の画像を合成して合成画像を得る画像処理装置で用いられる制御プログラムあって、前記画像処理装置が備えるコンピュータに、前記複数の画像の各々について所定の領域を抽出領域として抽出する抽出ステップと、前記抽出領域を外部装置に送信する送信ステップと、前記外部装置において前記抽出領域に基づいて求められ前記複数の画像を合成する際に用いられる合成情報を前記外部装置から受けて、前記合成情報に応じて前記複数の画像を合成処理して合成画像を得る合成ステップと、を実行させることを特徴とする。   The control program according to the present invention is a control program used in an image processing apparatus that obtains a composite image by combining a plurality of images obtained as a result of continuous shooting, and the computer provided in the image processing apparatus includes the plurality of the plurality of images. An extraction step of extracting a predetermined region as an extraction region for each of the images, a transmission step of transmitting the extraction region to an external device, and a step of combining the plurality of images obtained based on the extraction region in the external device And a synthesis step of receiving the synthesis information used in the above-mentioned external device and synthesizing the plurality of images according to the synthesis information to obtain a synthesized image.

本発明によれば、画像合成を行う際に、外部装置から画像合成を行うための合成情報を得て、当該合成情報によって複数の画像を合成する。これによって、画像処理装置においては記憶容量および演算量が増大することなく、複数の画像を合成処理することができる。   According to the present invention, when image synthesis is performed, synthesis information for performing image synthesis is obtained from an external device, and a plurality of images are synthesized based on the synthesis information. As a result, the image processing apparatus can synthesize a plurality of images without increasing the storage capacity and the calculation amount.

本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus including an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態による画像処理装置とともに用いられる外部装置の一例であるPCについてその構成を示すブロック図である。1 is a block diagram showing the configuration of a PC that is an example of an external device used with an image processing apparatus according to a first embodiment of the present invention. 図1に示すカメラによる連続的な撮影の結果得られた画像データの一例を示す図である。It is a figure which shows an example of the image data obtained as a result of continuous imaging | photography with the camera shown in FIG. 図1に示すカメラで行われる画像合成処理の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of an image composition process performed by the camera shown in FIG. 1. 図1に示すカメラで行われるのりしろ領域の抽出を示す図である。It is a figure which shows extraction of the marginal area | region performed with the camera shown in FIG. 図1に示すカメラで行われる画像の合成処理を説明するための図であり、(A)は基準画像を示す図、(B)は基準画像以外の画像を示す図、(C)は2つの画像を合成した合成画像を示す図、(D)は全ての画像を合成した合成画像を示す図である。It is a figure for demonstrating the synthetic | combination process of the image performed with the camera shown in FIG. 1, (A) is a figure which shows a reference | standard image, (B) is a figure which shows images other than a reference | standard image, (C) is two figures The figure which shows the synthesized image which synthesize | combined the image, (D) is a figure which shows the synthesized image which synthesize | combined all the images. 図2に示すPCで行われる射影変換係数の算出についてその一例を説明するためのフローチャートである。It is a flowchart for demonstrating the example about the calculation of the projection transformation coefficient performed with PC shown in FIG. 図2に示すPCで行われる動きベクトルの算出を説明するための図であり、(A)は基準画像とそののりしろ領域を示す図、(B)は基準画像以外の画像を示す図である。FIG. 3 is a diagram for explaining calculation of a motion vector performed by the PC shown in FIG. 2, (A) is a diagram showing a reference image and its marginal region, and (B) is a diagram showing an image other than the reference image. 図2に示すPCで行われる射影変換係数の算出についてその一例を説明するための図である。It is a figure for demonstrating the example about the calculation of the projection transformation coefficient performed with PC shown in FIG. 図1に示すカメラで行われる射影変換係数を用いた画像合成処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the image synthesis process using the projective transformation coefficient performed with the camera shown in FIG. 図1に示すカメラで行われる射影変換係数を用いた画像合成処理の得られた最終的な合成画像の一例を示す図である。It is a figure which shows an example of the final synthetic | combination image obtained by the image synthetic | combination process using the projective transformation coefficient performed with the camera shown in FIG. 本発明の第2の実施形態によるカメラで行われる邪魔もの領域抽出処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the baffle area extraction process performed with the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラで連続的な撮影を行った結果得られた画像データの一例を示す図である。It is a figure which shows an example of the image data obtained as a result of having performed continuous imaging | photography with the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラで抽出された邪魔もの領域の一例を示す図である。It is a figure which shows an example of the obstruction | occlusion area | region extracted with the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラとともに用いられるPCで行われる画像合成処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the image composition process performed with PC used with the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラで行われる画像合成処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image-synthesis process performed with the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラで得られる合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image obtained with the camera by the 2nd Embodiment of this invention.

以下に、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。
[第1の実施形態]
Hereinafter, an example of an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]

図1は、本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。なお、以下の説明では、撮像装置としてデジタルカメラ(以下単にカメラと呼ぶ)を例に挙げ、当該カメラと通信を行う外部装置としてパーソナルコンピュータ(PC)を例に挙げて説明する。   FIG. 1 is a block diagram showing a configuration of an example of an imaging apparatus including an image processing apparatus according to the first embodiment of the present invention. In the following description, a digital camera (hereinafter simply referred to as a camera) is taken as an example of an imaging device, and a personal computer (PC) is taken as an example of an external device that communicates with the camera.

カメラ100は制御部101を有しており、この制御部101は、例えば、CPUである。制御部101はROM102から制御プログラム(動作プログラムともいう)を読み出して、当該制御プログラムをRAM103に展開して実行する。これによって、制御部101はカメラ100全体の制御を行う。   The camera 100 has a control unit 101, and this control unit 101 is, for example, a CPU. The control unit 101 reads out a control program (also referred to as an operation program) from the ROM 102, expands the control program in the RAM 103, and executes it. As a result, the control unit 101 controls the entire camera 100.

ROM102は、例えば、書き換え可能な不揮発性メモリであって、ROM102にはカメラ100の動作プログラムに加えて、カメラ100の動作に必要なパラメータなどが記憶される。RAM103は、書き換え可能な揮発性メモリであって、RAM103はカメラ100の動作によって得られた画像データなどのデータを一時的に記憶する記憶領域として用いられる。   The ROM 102 is, for example, a rewritable nonvolatile memory, and the ROM 102 stores parameters necessary for the operation of the camera 100 in addition to the operation program of the camera 100. The RAM 103 is a rewritable volatile memory, and the RAM 103 is used as a storage area for temporarily storing data such as image data obtained by the operation of the camera 100.

光学系104は光学像(被写体像)を撮像部105に結像する。なお、光学系104はカメラ100の動きを検出して、当該動きの方向および大きさを出力する。   The optical system 104 forms an optical image (subject image) on the imaging unit 105. The optical system 104 detects the movement of the camera 100 and outputs the direction and magnitude of the movement.

撮像部105は、例えば、CCD又はCMOSイメージセンサなどの撮像素子であり、光学系104によって結像した光学像を光電変換してアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、アナログ画像信号をA/D変換してデジタル画像信号を画像データとしてRAM103に出力する。   The imaging unit 105 is an imaging device such as a CCD or CMOS image sensor, for example, and photoelectrically converts an optical image formed by the optical system 104 and outputs an analog image signal to the A / D conversion unit 106. The A / D converter 106 A / D converts the analog image signal and outputs the digital image signal to the RAM 103 as image data.

画像処理部107は、RAM103に記憶された画像データに対して所定の画像処理を行って、処理済み画像データとしてRAM103に記録する。記録媒体108はカメラ100に対して着脱可能なメモリカードなどである。記録媒体108には、RAM103に記憶された処理済み画像データ又はA/D変換部106でA/D変換された画像データなどが記録画像データとして記録される。   The image processing unit 107 performs predetermined image processing on the image data stored in the RAM 103 and records the processed image data in the RAM 103. The recording medium 108 is a memory card that can be attached to and detached from the camera 100. The recording medium 108 records processed image data stored in the RAM 103 or image data A / D converted by the A / D converter 106 as recorded image data.

通信部109は、無線LANなどの公衆モバイル通信網を用いて、記録媒体108に記録された画像データなどを外部装置(図示せず)に送信する。さらに、通信部109は外部装置から各種データを受信する。   The communication unit 109 transmits image data or the like recorded on the recording medium 108 to an external device (not shown) using a public mobile communication network such as a wireless LAN. Further, the communication unit 109 receives various data from the external device.

図2は、本発明の第1の実施形態による画像処理装置とともに用いられる外部装置の一例であるPCについてその構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of a PC which is an example of an external apparatus used with the image processing apparatus according to the first embodiment of the present invention.

PC200は、制御部201を有しており、この制御部201は、例えば、CPUである。制御部201はROM202から制御プログラム(動作プログラムともいう)を読み出して、当該制御プログラムをRAM203に展開して実行する。これによって、制御部201はPC200全体の制御を行う。   The PC 200 has a control unit 201, and this control unit 201 is, for example, a CPU. The control unit 201 reads a control program (also referred to as an operation program) from the ROM 202, expands the control program in the RAM 203, and executes it. As a result, the control unit 201 controls the entire PC 200.

ROM202は、例えば、書き換え可能な不揮発性メモリであって、ROM202にはPC200の動作プログラムに加えて、PC200の動作に必要なパラメータなどが記憶される。RAM203は、書き換え可能な揮発性メモリであって、RAM103はPC200の動作によって得られたデータを一時的に記憶する記憶領域として用いられる。   The ROM 202 is, for example, a rewritable nonvolatile memory, and the ROM 202 stores parameters necessary for the operation of the PC 200 in addition to the operation program of the PC 200. The RAM 203 is a rewritable volatile memory, and the RAM 103 is used as a storage area for temporarily storing data obtained by the operation of the PC 200.

通信部204は、無線LANなどの公衆モバイル通信網を用いて、外部機器からデータを受信するとともに、外部機器に対してデータを送信する。例えば、通信部204は、図1に示すカメラ100から画像データを受信する。   The communication unit 204 receives data from an external device and transmits data to the external device using a public mobile communication network such as a wireless LAN. For example, the communication unit 204 receives image data from the camera 100 illustrated in FIG.

記録媒体205は、例えば、内蔵ハードディスク装置であり、記録媒体205には、通信部204で受信した画像データなどが保存される。そして、記録媒体205に保存された画像データはRAM203に展開されて、画像処理部206によって所定の画像処理(例えば、合成処理)が行われる。   The recording medium 205 is, for example, a built-in hard disk device, and image data received by the communication unit 204 is stored in the recording medium 205. Then, the image data stored in the recording medium 205 is expanded in the RAM 203, and predetermined image processing (for example, synthesis processing) is performed by the image processing unit 206.

図3は、図1に示すカメラ100による連続的な撮影の結果得られた画像データの一例を示す図である。   FIG. 3 is a diagram showing an example of image data obtained as a result of continuous shooting by the camera 100 shown in FIG.

いま、カメラ100を用いて被写体を連続的に撮影して複数枚の画像データを得たとする。ここでは、図3に示す画像300〜303の順に画像を得るものとする。   Now, assume that a subject is continuously photographed using the camera 100 to obtain a plurality of pieces of image data. Here, it is assumed that images are obtained in the order of images 300 to 303 shown in FIG.

図4は、図1に示すカメラ100で行われる画像合成処理の一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、制御部101の制御下で行われる。   FIG. 4 is a flowchart for explaining an example of the image composition processing performed by the camera 100 shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the control unit 101.

カメラ100では、連続的な撮影の結果得られた画像データに対して所定の画像処理を行って、図3に示す複数枚の画像データ(以下単に画像とも呼ぶ)300〜303を得る(ステップS400)。そして、制御部101はこれら画像300〜303を記録媒体108に保存する。   In the camera 100, predetermined image processing is performed on the image data obtained as a result of continuous shooting to obtain a plurality of pieces of image data (hereinafter also simply referred to as images) 300 to 303 shown in FIG. 3 (step S400). ). The control unit 101 stores these images 300 to 303 in the recording medium 108.

続いて、制御部101は画像300〜303から基準画像を選択する(ステップS401)。ここで、基準画像とは、後述する射影変換処理において変換先となる画像をいい、図示の例では、制御部101は最初に撮影した画像300を基準画像として選択するものとする。なお、画像300以外の画像301〜303のいずれかを基準画像として選択するようにしてもよい。以下射影変換処理された画像301〜303をそれぞれ変換画像301〜303とする。   Subsequently, the control unit 101 selects a reference image from the images 300 to 303 (step S401). Here, the reference image refers to an image that is a conversion destination in a projective conversion process to be described later. In the illustrated example, the control unit 101 selects an image 300 that is first captured as a reference image. Note that any one of the images 301 to 303 other than the image 300 may be selected as the reference image. Hereinafter, the images 301 to 303 that have undergone the projective transformation processing are referred to as converted images 301 to 303, respectively.

続いて、制御部101は、基準画像以外の画像301〜303の全てについて画像処理部107による後述する所定の画像処理が終了したか否かを判定する(ステップS402)。画像301〜303の全てについて画像処理が終了していないと(ステップS402において、NO)、制御部101は画像処理部107によって基準画像300および画像301〜303の各々からのりしろ領域を抽出領域として抽出して、PC200に送信する(ステップS403)。ここで、のりしろ領域とは互いに隣接する2つの画像において互いに共通する画角の画像領域をいう。   Subsequently, the control unit 101 determines whether or not predetermined image processing described later by the image processing unit 107 has been completed for all the images 301 to 303 other than the reference image (step S402). If image processing has not been completed for all of the images 301 to 303 (NO in step S402), the control unit 101 uses the image processing unit 107 to extract a marginal region from each of the reference image 300 and the images 301 to 303 as an extraction region. Then, it transmits to PC200 (step S403). Here, the marginal area refers to an image area having a common angle of view in two adjacent images.

以下の説明では、基準画像300と画像301とを例に挙げて説明する。例えば、制御部101は、光学系104の動き検出結果に応じて、基準画像300を撮影したカメラ100の位置からカメラ100が水平右方向に動いて画像301を撮影したことを判定する。そして、制御部101は画像処理部107によって基準画像300の右端の領域と画像301の左端の領域とを共通するのりしろ領域として抽出する。   In the following description, the reference image 300 and the image 301 will be described as examples. For example, the control unit 101 determines that the camera 100 has moved in the horizontal right direction from the position of the camera 100 that has captured the reference image 300 and has captured the image 301 according to the motion detection result of the optical system 104. Then, the control unit 101 extracts the right end region of the reference image 300 and the left end region of the image 301 as a common margin region by the image processing unit 107.

図5は、図1に示すカメラ100で行われるのりしろ領域の抽出を示す図である。   FIG. 5 is a diagram showing marginal area extraction performed by the camera 100 shown in FIG.

図5に示す例では、基準画像300および画像301はそれぞれ破線で示す複数のブロック単位500および503に分割されている(ここでは、画像300および301におけるブロック単位500および503の数および大きさは同一である)。そして、実線で示すブロック単位は501および504はそれぞれ基準画像300および画像301におけるのりしろ領域を示す。   In the example shown in FIG. 5, the reference image 300 and the image 301 are each divided into a plurality of block units 500 and 503 indicated by broken lines (here, the numbers and sizes of the block units 500 and 503 in the images 300 and 301 are The same). Block units 501 and 504 indicated by solid lines indicate marginal areas in the reference image 300 and the image 301, respectively.

図5においては、全てのブロック単位のうち3分の1をのりしろ領域として抽出しているが、カメラ100の水平右方向の動きに応じてのりしろ領域を変更するようにしてもよい。例えば、水平右方向の動きの大きさが所定の値以上であると、制御部101はのりしろ範囲を大きくする(例えば、全てのブロック単位の2分の1)。また、水平右方向の動きの大きさが所定の値未満であると、制御部101はのりしろ領域を小さくする(例えば、全てのブロック単位の4分の1)。そして、制御部101は通信部109によって実線で示すのりしろ領域をPC200に送信する。   In FIG. 5, one third of all the block units is extracted as the marginal area, but the marginal area may be changed according to the movement of the camera 100 in the horizontal right direction. For example, if the magnitude of the horizontal rightward movement is greater than or equal to a predetermined value, the control unit 101 increases the margin range (for example, half of all block units). If the amount of horizontal rightward movement is less than a predetermined value, the control unit 101 reduces the marginal area (for example, a quarter of all blocks). Then, the control unit 101 transmits a marginal area indicated by a solid line to the PC 200 by the communication unit 109.

続いて、制御部101は画像処理部107によって画像300および301を光学系104の動き検出結果に基づいて加重加算合成処理する(ステップS404:画像連結)。ここでは、制御部101は動き検出結果に基づいて基準画像300および画像301における合成領域を決定する。   Subsequently, the control unit 101 causes the image processing unit 107 to perform weighted addition synthesis processing on the images 300 and 301 based on the motion detection result of the optical system 104 (step S404: image connection). Here, the control unit 101 determines a synthesis region in the reference image 300 and the image 301 based on the motion detection result.

図6は、図1に示すカメラで行われる画像の合成処理を説明するための図である。そして、図6(A)は基準画像を示す図であり、図6(B)は基準画像以外の画像を示す図である。また、図6(C)は2つの画像を合成した合成画像を示す図であり、図6(D)は全ての画像を合成した合成画像を示す図である。   FIG. 6 is a diagram for explaining an image composition process performed by the camera shown in FIG. 1. FIG. 6A shows a reference image, and FIG. 6B shows an image other than the reference image. FIG. 6C is a diagram showing a synthesized image obtained by synthesizing two images, and FIG. 6D is a diagram showing a synthesized image obtained by synthesizing all images.

図6(A)および図6(B)に示す画像300および301において、のりしろ領域600および601を除く画像領域がそれぞれおおよその合成領域602および603とされる。ここでは、2つの合成領域602および603の境界は必ずしも高精度に一致する必要はない。そして、制御部101は画像処理部107によって2つの合成領域602および603を加重平均して繋ぎ合わせて、図6(C)に示す簡易合成画像610を得る。この簡易合成画像610はカメラ100において確認用に用いられる確認用合成画像であり、記録用の合成画像は後述するようにして生成される。   In the images 300 and 301 shown in FIGS. 6A and 6B, the image areas excluding the marginal areas 600 and 601 are approximate synthesis areas 602 and 603, respectively. Here, the boundary between the two synthesis regions 602 and 603 does not necessarily coincide with high accuracy. Then, the control unit 101 obtains a simple composite image 610 shown in FIG. 6C by connecting the two composite regions 602 and 603 by weighted average using the image processing unit 107. The simple composite image 610 is a confirmation composite image used for confirmation in the camera 100, and the recording composite image is generated as described later.

その後、制御部101はステップS402の処理に戻る。つまり、制御部101は全ての画像300〜303を繋ぎ合わせた簡易合成画像を得るまで、ステップS402〜404の処理を行う。つまり、画像300と画像301とを繋ぎ合わせた後、制御部101は、ステップS403で画像301および302についてのりしろ領域を抽出して当該のりしろ領域をPC200に送信する。そして、制御部101は前述のようにして、ステップS404において画像301および302を加算平均して合成処理を行う。   Thereafter, the control unit 101 returns to the process of step S402. That is, the control unit 101 performs steps S402 to 404 until a simple composite image obtained by connecting all the images 300 to 303 is obtained. That is, after connecting the image 300 and the image 301, the control unit 101 extracts a marginal area for the images 301 and 302 in step S403 and transmits the marginal area to the PC 200. Then, as described above, the control unit 101 adds and averages the images 301 and 302 in step S404 to perform a combining process.

同様にして、制御部101は画像302および304についてステップS403およびS404の処理を行い、続いて、制御部101は3つの合成画像について、同様にして合成処理を行う。これによって、全ての画像300〜303が合成処理されて図6(D)に示す合成画像620が得られる。   Similarly, the control unit 101 performs the processes of steps S403 and S404 on the images 302 and 304, and then the control unit 101 performs the combining process on the three combined images in the same manner. As a result, all the images 300 to 303 are combined and a combined image 620 shown in FIG. 6D is obtained.

画像301〜303の全てについて画像処理部107による画像処理が終了すると(ステップS402において、YES)、つまり、画像300〜303の合成処理が終了すると、制御部101は合成画像620を記録媒体108に記録する(ステップS405)。そして、制御部101は画像処理を終了する。   When the image processing by the image processing unit 107 is completed for all of the images 301 to 303 (YES in step S402), that is, when the synthesis processing of the images 300 to 303 is completed, the control unit 101 stores the synthesized image 620 on the recording medium 108. Recording is performed (step S405). Then, the control unit 101 ends the image processing.

図7は、図2に示すPC200で行われる射影変換係数の算出についてその一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、制御部201の制御下で行われる。   FIG. 7 is a flowchart for explaining an example of the calculation of the projective transformation coefficient performed by the PC 200 shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the control unit 201.

まず、制御部201は通信部204によって画像300〜303ののりしろ領域を受信する(ステップS410)。続いて、制御部201は基準画像300ののりしろ領域に関してその動きベクトルを後述するブロック単位毎に算出する(ステップS411)。   First, the control unit 201 receives a marginal area of the images 300 to 303 through the communication unit 204 (step S410). Subsequently, the control unit 201 calculates a motion vector of the marginal area of the reference image 300 for each block unit described later (step S411).

図8は、図2に示すPC200で行われる動きベクトルの算出を説明するための図である。そして、図8(A)は基準画像とそののりしろ領域を示す図であり、図8(B)は基準画像以外の画像を示す図である。   FIG. 8 is a diagram for explaining calculation of motion vectors performed by the PC 200 shown in FIG. FIG. 8A shows a reference image and a marginal area thereof, and FIG. 8B shows an image other than the reference image.

基準画像300において、のりしろ領域701は太線の領域で示されている。制御部201は基準画像300においてのりしろ領域701を複数のブロック単位に分割して、これら分割ブロック毎に画像301ののりしろ領域とパターンマッチングを行って、ブロック単位毎の動きベクトルを算出する。つまり、制御部201は分割ブロック単位毎にその差分絶対値の総和(SAD)が最小となる位置をブロック単位の移動先座標とする。   In the reference image 300, the marginal area 701 is indicated by a thick line area. The control unit 201 divides the marginal area 701 in the reference image 300 into a plurality of blocks, performs pattern matching with the marginal area of the image 301 for each of these divided blocks, and calculates a motion vector for each block. That is, the control unit 201 sets the position where the sum of the absolute differences (SAD) is the smallest for each divided block unit as the movement destination coordinate in the block unit.

但し、ブロック単位によっては信頼性が低い動きベクトルが算出されることがあるので、これらの信頼性の低い動きベクトルを除く必要がある。例えば、エッジを含まない低コントラスト領域ではSADが最小となる位置が多数出現することがある。このため、既知のようにエッジ信号の積分値が所定の値よりも小さい場合には、当該動きベクトルを除くようにする。   However, since motion vectors with low reliability may be calculated depending on the block unit, it is necessary to exclude these motion vectors with low reliability. For example, in a low-contrast region that does not include an edge, many positions where the SAD is minimum may appear. For this reason, when the integral value of the edge signal is smaller than a predetermined value as is known, the motion vector is excluded.

さらには、基準画像300には基準画像301に存在しない領域が含まれているので、当該存在しない領域に動きベクトルを除く必要がある。ここでは、制御部201はブロック単位毎のSADについてその値が小さいものから順に所定の数の動きベクトルを選択して、移動先座標を有しないブロックに係る動きベクトルを除くようにする。   Furthermore, since the reference image 300 includes a region that does not exist in the reference image 301, it is necessary to remove a motion vector from the non-existing region. Here, the control unit 201 selects a predetermined number of motion vectors in ascending order of SAD values for each block unit, and excludes motion vectors related to blocks having no destination coordinates.

再び図7を参照して、制御部201は動きベクトルに基づいて射影変換係数(合成情報)を求めて、当該射影変換係数をカメラ100に送信する(ステップS412)。同様にして、制御部201は画像301〜302について、のりしろ領域のブロック単位毎にその動きベクトルを算出して、当該動きベクトルに応じた射影変換係数をカメラ100に送信する。そして、PCは射影変換係数の算出を終了する。   Referring to FIG. 7 again, the control unit 201 obtains a projective transformation coefficient (synthesis information) based on the motion vector, and transmits the projective transformation coefficient to the camera 100 (step S412). Similarly, the control unit 201 calculates a motion vector for each block of the marginal area for the images 301 to 302 and transmits a projective transformation coefficient corresponding to the motion vector to the camera 100. Then, the PC ends the calculation of the projective transformation coefficient.

ここで、図2に示すPC200で行われる射影変換係数の算出手法について説明する。   Here, a method for calculating the projective transformation coefficient performed by the PC 200 shown in FIG. 2 will be described.

図9は、図2に示すPC200で行われる射影変換係数の算出についてその一例を説明するための図である。   FIG. 9 is a diagram for explaining an example of the calculation of the projective transformation coefficient performed by the PC 200 shown in FIG.

いま、図8(A)に示す基準画像300の中心位置を(0,0)とし、のりしろ領域701におけるブロック単位の中心位置を(x’、y’)とする。図示の例では、のりしろ領域701は72個のブロック単位に分割されており、左上隅に位置するブロック単位の中心位置を(x0’,y0’)で表され、右上隅に位置するブロック単位の中心位置を(x5’,y0’)で表される。また、左下隅に位置するブロック単位の中心位置を(x0’,y11’)で表され、右下隅に位置するブロック単位の中心位置を(x11’,y11’)で表される。   Now, assume that the center position of the reference image 300 shown in FIG. 8A is (0, 0), and the center position of the block unit in the marginal area 701 is (x ′, y ′). In the illustrated example, the marginal area 701 is divided into 72 block units, the center position of the block unit located in the upper left corner is represented by (x0 ′, y0 ′), and the block unit located in the upper right corner is represented by (x0 ′, y0 ′). The center position is represented by (x5 ′, y0 ′). The center position of the block unit located at the lower left corner is represented by (x0 ′, y11 ′), and the center position of the block unit located at the lower right corner is represented by (x11 ′, y11 ′).

画像301において移動先座標(x、y)に対応する基準画像300(つまり、のりしろ領域701)の座標(x’、y’)は次の(1)及び式(2)で示す射影変換で表される。   In the image 301, the coordinates (x ′, y ′) of the reference image 300 (that is, the marginal area 701) corresponding to the movement destination coordinates (x, y) are expressed by the projective transformation represented by the following (1) and Expression (2). Is done.

式(1)および式(2)において、a0〜a7は射影変換係数を示し、射影変換係数a7〜a0は次の式(3)および式(4)で表される。   In Expressions (1) and (2), a0 to a7 indicate projective conversion coefficients, and the projective conversion coefficients a7 to a0 are expressed by the following Expressions (3) and (4).

式(3)および式(4)において、h、h、X、およびb〜bは次の式(5)〜式(15)で表される。 In Formula (3) and Formula (4), h 0 , h k , X, and b 0 to b 7 are represented by the following Formula (5) to Formula (15).

ここで、Nは動きベクトルを算出する要素数を示し、図示の例では、N=5とする。上述の式を用いて、制御部201は基準画像300に対する画像301の射影変換係数を第1の射影変換係数として算出する。同様にして、制御部201は画像301および画像302と画像302および画像303とについてその射影変換係数を求めて、それぞれ第2および第3の射影変換係数とする。そして、制御部210は通信部204によって第1〜第3の射影変換係数をカメラ100に送信する。   Here, N indicates the number of elements for calculating a motion vector, and N = 5 in the illustrated example. Using the above equation, the control unit 201 calculates the projective transformation coefficient of the image 301 with respect to the reference image 300 as the first projective transformation coefficient. Similarly, the control unit 201 obtains projective transformation coefficients for the image 301, the image 302, the image 302, and the image 303, and sets them as second and third projective transformation coefficients, respectively. Then, the control unit 210 transmits the first to third projective transformation coefficients to the camera 100 through the communication unit 204.

図10は、図1に示すカメラ100で行われる射影変換係数を用いた画像合成処理の一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、制御部101の制御下で行われる。   FIG. 10 is a flowchart for explaining an example of an image composition process using the projective transformation coefficient performed by the camera 100 shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the control unit 101.

カメラ100では、制御部101は通信部109によって第1〜第3の射影変換係数を受信する(ステップS420)。続いて、制御部101は、基準画像以外の画像301〜303の全てについて画像処理部107による射影変換処理が終了したか否かを判定する(ステップS421)。画像301〜303の全てについて射影変換処理が終了していないと(ステップS421において、NO)、制御部101は第1〜第3の射影変換係数を用いて画像301〜303について射影変換処理を行う(ステップS422)。   In the camera 100, the control unit 101 receives the first to third projective transformation coefficients through the communication unit 109 (step S420). Subsequently, the control unit 101 determines whether or not the projective transformation process by the image processing unit 107 has been completed for all the images 301 to 303 other than the reference image (step S421). If the projection conversion processing has not been completed for all of the images 301 to 303 (NO in step S421), the control unit 101 performs the projection conversion processing for the images 301 to 303 using the first to third projection conversion coefficients. (Step S422).

ここでは、制御部101はまず第3の射影変換係数を用いて画像303について射影変換処理を行う。これによって、制御部101は画像303ののりしろ領域が画像302ののりしろ領域と位置が合うように変換して、変換画像303を生成する。   Here, the control unit 101 first performs a projective transformation process on the image 303 using the third projective transformation coefficient. As a result, the control unit 101 converts the marginal area of the image 303 so that the marginal area of the image 302 matches the marginal area of the image 302 and generates the converted image 303.

続いて、制御部101は画像処理部107によって変換画像303と画像302とを合成処理して連結する(ステップS423)。例えば、制御部101はのりしろ領域を加算平均して画像302と変換画像303とを繋ぎ合わせて、第1の合成画像を得る。   Subsequently, the control unit 101 combines the converted image 303 and the image 302 by the image processing unit 107 (step S423). For example, the control unit 101 adds and averages the marginal areas and joins the image 302 and the converted image 303 to obtain a first composite image.

その後、制御部101はステップS421の処理に戻る。つまり、制御部101は基準画像300に対して全ての変換画像301〜303を繋ぎ合わせるまで、ステップS421〜423の処理を行う。   Thereafter, the control unit 101 returns to the process of step S421. That is, the control unit 101 performs the processes of steps S421 to 423 until all the converted images 301 to 303 are connected to the reference image 300.

ここでは、制御部101は第1の合成画像について第2の射影変換係数を用いて射影変換処理を行って、当該変換処理後の合成画像を画像301と繋ぎ合わせて、第2の合成画像を得る。そして、制御部101は第2の合成画像を第1の射影変換係数を用いて射影変換処理を行って、当該変換処理後の合成画像を基準画像301と繋ぎ合わせて、最終的な合成画像を得る。   Here, the control unit 101 performs a projective transformation process on the first synthesized image using the second projective transformation coefficient, and joins the synthesized image after the transformation process with the image 301 to obtain the second synthesized image. obtain. Then, the control unit 101 performs a projective transformation process on the second synthesized image using the first projective transformation coefficient, and joins the synthesized image after the transformation process with the reference image 301 to obtain a final synthesized image. obtain.

図11は、図1に示すカメラ100で行われる射影変換係数を用いた画像合成処理の得られた最終的な合成画像の一例を示す図である。   FIG. 11 is a diagram illustrating an example of a final synthesized image obtained by the image synthesizing process using the projective transformation coefficient performed by the camera 100 illustrated in FIG.

図11に示すように、最終的な合成画像710はのりしろ領域にずれが生じることなく、画像301〜303が繋ぎ合わされていることが分かる。   As shown in FIG. 11, it can be seen that the final composite image 710 has the images 301 to 303 joined together without causing a shift in the marginal area.

画像301〜303の全てについて射影変換処理が終了すると(ステップS421において、YES)、つまり、最終的な合成画像が生成されると、制御部101は当該最終的な合成画像(つまり、パノラマ画像)によって記録媒体108に記録された簡易合成画像620を更新する(ステップS424)。そして、制御部101は画像合成処理を終了する。   When the projective transformation process is completed for all of the images 301 to 303 (YES in step S421), that is, when a final composite image is generated, the control unit 101 determines the final composite image (that is, a panoramic image). The simple composite image 620 recorded on the recording medium 108 is updated by (Step S424). Then, the control unit 101 ends the image composition process.

このように、本発明の第1の実施形態では、カメラにおいて複数の画像を合成してパノラマ画像などの合成画像を生成する際に合成処理の際に必要な射影変換係数をPCなどの外部装置で算出するようにしたので、合成枚数が増加してもカメラで合成処理を行う際の記憶容量および演算量の増大を防止することができる。   As described above, in the first embodiment of the present invention, when a camera generates a composite image such as a panoramic image by combining a plurality of images, a projective transformation coefficient necessary for the combining process is set to an external device such as a PC. Therefore, even if the number of combined images increases, it is possible to prevent an increase in storage capacity and calculation amount when performing combining processing with the camera.

さらには、カメラ100においては、射影変換係数を用いて合成処理を行う前に、のりしろ領域に応じて複数の画像を繋ぎ合わせて簡易合成画像を生成するようにしたので、ユーザは簡易合成画像によって合成結果を予め確認することができる。   Furthermore, in the camera 100, a simple composite image is generated by connecting a plurality of images in accordance with the marginal area before performing the composite processing using the projective transformation coefficient. The synthesis result can be confirmed in advance.

さらには、カメラ100は射影変換係数の算出に必要なのりしろ領域をPCなどの外部装置に送信するようにしたので、カメラ100と外部装置との通信データ量の増大を抑えることができる。   Furthermore, since the camera 100 transmits the marginal area necessary for calculating the projective transformation coefficient to an external device such as a PC, an increase in the amount of communication data between the camera 100 and the external device can be suppressed.

なお、上述の第1の実施形態では、カメラ100を水平方向にスイングして4枚の画像を連続的に撮影する例について説明したが、水平方向に限らず垂直又は水平および垂直方向にカメラ100を動かした場合についても同様にして合成画像を生成するようにすればよい。
[第2の実施形態]
In the above-described first embodiment, an example in which the camera 100 is swung in the horizontal direction and four images are continuously captured has been described. The synthesized image may be generated in the same manner when moving.
[Second Embodiment]

続いて、本発明の第2の実施形態による画像処理装置であるPCおよびカメラの一例について説明する。なお、第2の実施形態によるカメラおよびPCの構成はそれぞれ図1および図2に示すカメラおよびPCと同様である。   Next, an example of a PC and a camera that are image processing apparatuses according to the second embodiment of the present invention will be described. The configurations of the camera and PC according to the second embodiment are the same as those of the camera and PC shown in FIGS. 1 and 2, respectively.

第2の実施形態においては、カメラを動かすことなく連続的な撮影を行って、ユーザが意図しない邪魔な移動被写体を合成処理によって除く処理について説明する。   In the second embodiment, a process of performing continuous shooting without moving the camera and removing a disturbing moving subject unintended by the user by the synthesis process will be described.

図12は、本発明の第2の実施形態によるカメラ100で行われる邪魔もの領域抽出処理の一例を説明するためのフローチャートである。   FIG. 12 is a flowchart for explaining an example of an obstacle area extraction process performed by the camera 100 according to the second embodiment of the present invention.

カメラ100では、連続的な撮影の結果得られた画像データに対して所定の画像処理を行って複数枚の画像データを得る(ステップS800)。   In the camera 100, predetermined image processing is performed on the image data obtained as a result of continuous shooting to obtain a plurality of pieces of image data (step S800).

図13は、本発明の第2の実施形態によるカメラ100で連続的な撮影を行った結果得られた画像データの一例を示す図である。   FIG. 13 is a diagram illustrating an example of image data obtained as a result of continuous shooting with the camera 100 according to the second embodiment of the present invention.

図示の例では、画像900〜903の順に撮影が行われたものとし、ユーザはカメラ100を動かすことなく、連続的に撮影を行ったものとする。   In the illustrated example, it is assumed that images are captured in the order of the images 900 to 903, and the user continuously captures images without moving the camera 100.

続いて、制御部101は、画像900〜903から、後述する邪魔もの除去処理において基準となる画像である基準画像を選択する(ステップS801)。基準画像の選択の際には、例えば、制御部101はユーザの選択に応じて基準画像を選択する。なお、制御部101は一枚目の画像を基準画像として選択するようにしてもよい。ここでは、制御部101は画像900を基準画像として選択したものとする。   Subsequently, the control unit 101 selects, from the images 900 to 903, a reference image that is a reference image in the obstacle removal process described later (step S801). When selecting the reference image, for example, the control unit 101 selects the reference image according to the user's selection. Note that the control unit 101 may select the first image as the reference image. Here, it is assumed that the control unit 101 selects the image 900 as the reference image.

次に、制御部101は基準画像および他の画像において邪魔もの領域を抽出して、当該邪魔もの領域を、通信部109によってPC200に送信する(ステップS802)。邪魔もの領域を抽出する際には、例えば、ユーザはカメラ100に備えられたLCDなどに基準画像を表示して、矩形枠で少なくとも1つの範囲を指定する。制御部101は当該指定範囲に基づいて基準画像900およびそれ以外の画像901〜903から指定範囲に応じた領域を邪魔もの領域として抽出する。   Next, the control unit 101 extracts an obstacle area in the reference image and other images, and transmits the obstacle area to the PC 200 by the communication unit 109 (step S802). When extracting the obstacle area, for example, the user displays a reference image on an LCD provided in the camera 100 and designates at least one range with a rectangular frame. Based on the designated range, the control unit 101 extracts an area corresponding to the designated range from the reference image 900 and the other images 901 to 903 as an obstacle area.

図14は、本発明の第2の実施形態によるカメラ100で抽出された邪魔もの領域の一例を示す図である。   FIG. 14 is a diagram illustrating an example of a baffle area extracted by the camera 100 according to the second embodiment of the present invention.

図示の例では、自動車を含む邪魔もの領域1000と人を含む邪魔もの領域1001とが基準画像900から抽出されており、制御部101は画像901〜903の各々において、邪魔もの領域1000および1001と同一の位置で対応する領域を抽出する。そして、前述のように、制御部101は邪魔もの領域1000および1001と抽出した全ての領域をPC200に送信する。   In the illustrated example, a baffle area 1000 including a car and a baffle area 1001 including a person are extracted from the reference image 900, and the control unit 101 includes a baffle area 1000 and 1001 in each of the images 901 to 903. A corresponding region is extracted at the same position. Then, as described above, the control unit 101 transmits all areas extracted as the disturbing areas 1000 and 1001 to the PC 200.

その後、制御部101は基準画像900を記録媒体108に記録して(ステップS803)、邪魔もの領域抽出処理を終了する。   Thereafter, the control unit 101 records the reference image 900 on the recording medium 108 (step S803), and ends the obstacle area extraction processing.

図15は、本発明の第2の実施形態によるカメラとともに用いられるPCで行われる画像合成処理の一例を説明するためのフローチャートである。   FIG. 15 is a flowchart for explaining an example of an image composition process performed by a PC used with the camera according to the second embodiment of the present invention.

まず、制御部201は通信部204によって画像900〜903における邪魔もの領域を受信する(ステップS810)。続いて、制御部201は基準画像900以外の全ての画像901〜903における邪魔もの領域について画像処理が完了したか否かを判定する(ステップS811)。画像処理が完了していないと(ステップS811において、NO)、制御部201は、基準画像900の邪魔もの領域に基づいて、画像901の邪魔もの領域について射影変換を行う(ステップS812)。なお、射影変換係数の算出の際には、第1の実施形態で説明した手法と同様の手法が用いられる。   First, the control unit 201 receives a disturbing area in the images 900 to 903 through the communication unit 204 (step S810). Subsequently, the control unit 201 determines whether or not the image processing has been completed for the obstacle area in all the images 901 to 903 other than the reference image 900 (step S811). If the image processing has not been completed (NO in step S811), the control unit 201 performs projective transformation on the obstacle area of the image 901 based on the obstacle area of the reference image 900 (step S812). Note that a method similar to the method described in the first embodiment is used when calculating the projective transformation coefficient.

続いて、制御部201は基準画像900および射影変換済みの画像(変換画像)901に基づいて移動している被写体領域(つまり、自動車および人)を除去して合成する処理を行う(ステップS813:移動体除去合成)。   Subsequently, the control unit 201 performs processing for removing and compositing the moving subject area (that is, a car and a person) based on the reference image 900 and the projective transformed image (converted image) 901 (step S813). Mobile body removal synthesis).

なお、ここで用いられる合成手法として、例えば、特開2012−119817号公報に記載の手法が用いられる。例えば、制御部201は基準画像900を複数のブロックに分割して、ブロック毎に他の画像901とブロックマッチングを行う。これによって、制御部201はブロック毎に動きベクトルを算出して、移動している被写体の輪郭を検出する。   As a synthesis method used here, for example, a method described in Japanese Patent Application Laid-Open No. 2012-119817 is used. For example, the control unit 201 divides the reference image 900 into a plurality of blocks, and performs block matching with another image 901 for each block. Accordingly, the control unit 201 calculates a motion vector for each block and detects the contour of the moving subject.

次に、制御部201は基準画像900の移動被写体と画像901の邪魔もの領域とをパターンマッチング処理して、画像901の邪魔もの領域に移動被写体が存在するか否かを判定する。そして、その判定結果に応じて、制御部201は基準画像900の移動被写体領域(つまり、邪魔もの領域)を移動被写体が存在しない領域で置き換えて移動被写体を除去する。この結果、基準画像以外の画像の枚数が多い程、移動被写体が存在しない領域が存在する可能性が高くなって、邪魔ものを除去できる確率が向上することになる。   Next, the control unit 201 performs pattern matching processing on the moving subject in the reference image 900 and the obstacle area in the image 901 to determine whether or not the moving subject exists in the obstacle area in the image 901. Then, according to the determination result, the control unit 201 removes the moving subject by replacing the moving subject area (that is, the obstacle area) of the reference image 900 with an area where there is no moving subject. As a result, as the number of images other than the reference image increases, there is a higher possibility that there will be a region where no moving subject exists, and the probability that an obstacle will be removed increases.

再び図15を参照して、ステップS813の処理の後、制御部101はステップS811の処理に戻る。つまり、制御部101は画像901〜903の邪魔もの領域について射影変換および移動体除去合成を行うまで、ステップS811〜813の処理を行う。画像901〜903の邪魔もの領域の全てについて画像処理が終了すると(ステップS811において、YES)、制御部201は、ステップS813の処理で生成した合成画像(邪魔もの領域合成画像)を通信部204によってカメラ100に送信する(ステップS814)。そして、制御部201は画像合成処理を終了する。   Referring to FIG. 15 again, after the process of step S813, control unit 101 returns to the process of step S811. That is, the control unit 101 performs the processes of steps S811 to 813 until projective transformation and moving object removal / combination are performed on the obstructive areas of the images 901 to 903. When the image processing is completed for all of the disturbing areas of the images 901 to 903 (YES in step S811), the control unit 201 causes the communication unit 204 to display the combined image (disturbed area combined image) generated in the process of step S813. It transmits to the camera 100 (step S814). Then, the control unit 201 ends the image composition process.

図16は、本発明の第2の実施形態によるカメラ100で行われる画像合成処理を説明するためのフローチャートである。   FIG. 16 is a flowchart for explaining an image composition process performed by the camera 100 according to the second embodiment of the present invention.

まず、制御部101は通信部109によってPC200から邪魔もの領域合成画像を受信する(ステップS820)。続いて、制御部101は、記録媒体108から記録済みの基準画像900を読み出して、画像処理部107によって前述のステップS802で抽出した邪魔もの領域を受信した邪魔もの領域合成画像に置き換えて、邪魔ものが除去された合成画像を得る(ステップS821)。   First, the control unit 101 receives a disturbing area composite image from the PC 200 through the communication unit 109 (step S820). Subsequently, the control unit 101 reads the recorded reference image 900 from the recording medium 108, replaces the disturbing area extracted in step S802 described above by the image processing unit 107 with the received disturbing area composite image, and A composite image from which the object has been removed is obtained (step S821).

図17は、本発明の第2の実施形態によるカメラ100で得られる合成画像の一例を示す図である。   FIG. 17 is a diagram illustrating an example of a composite image obtained by the camera 100 according to the second embodiment of the present invention.

図示のように、この合成画像においては、邪魔ものである移動する被写体(つまり、自動車および人)が除去されていることが分かる。   As shown in the figure, it can be seen that the moving object (that is, the car and the person) that is an obstacle is removed from the composite image.

続いて、制御部101は上述のようにして得られた合成画像を記録媒体108に保存画像として記録して、記録済みの画像を更新する(ステップS822)。そして、制御部101は画像合成処理を終了する。   Subsequently, the control unit 101 records the composite image obtained as described above as a stored image on the recording medium 108, and updates the recorded image (step S822). Then, the control unit 101 ends the image composition process.

このように、本発明の第2の実施形態では、複数の画像を用いて邪魔もの領域を除去して合成画像を生成する際に必要な射影変換係数をPCなどの外部装置で算出して射影変換を行うようにしたので、カメラにおいては基準画像のみを保持すればよい。この結果、合成枚数が増加してもカメラの記憶容量および演算量の増大を防止することができる。   As described above, in the second embodiment of the present invention, the projection transformation coefficient necessary for generating a composite image by removing an obstacle area using a plurality of images is calculated by an external device such as a PC. Since the conversion is performed, the camera need only hold the reference image. As a result, it is possible to prevent an increase in the storage capacity and calculation amount of the camera even if the number of combined images increases.

さらには、カメラ100は射影変換係数の算出に必要な邪魔もの領域をPCなどの外部装置に送信するようにしたので、カメラ100と外部装置との通信データ量の増大を抑えることができる。   Furthermore, since the camera 100 is configured to transmit an obstacle area necessary for calculating the projective transformation coefficient to an external device such as a PC, an increase in the amount of communication data between the camera 100 and the external device can be suppressed.

上述の説明から明らかなように、図1に示す例では、少なくとも制御部101、画像処理部107、および通信部(送信手段)109が画像処理装置を構成する。また、制御部101および画像処理部107は抽出手段および合成手段として機能し、制御部101は記録手段として機能する。さらに、光学系104、撮像部105、およびA/D変換部106は撮像手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, at least the control unit 101, the image processing unit 107, and the communication unit (transmission means) 109 constitute an image processing apparatus. The control unit 101 and the image processing unit 107 function as an extraction unit and a synthesis unit, and the control unit 101 functions as a recording unit. Furthermore, the optical system 104, the imaging unit 105, and the A / D conversion unit 106 function as an imaging unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.

100 カメラ
101,201 制御部
102,202 ROM
103,203 RAM
104 光学系
105 撮像部
107,206 画像処理部
108,205 記録媒体
109,204 通信部
200 パーソナルコンピュータ(PC)
100 Camera 101, 201 Control unit 102, 202 ROM
103, 203 RAM
DESCRIPTION OF SYMBOLS 104 Optical system 105 Imaging part 107,206 Image processing part 108,205 Recording medium 109,204 Communication part 200 Personal computer (PC)

Claims (10)

連続的な撮影の結果得られた複数の画像を合成して合成画像を得る画像処理装置であって、
前記複数の画像の各々について所定の領域を抽出領域として抽出する抽出手段と、
前記抽出領域を外部装置に送信する送信手段と、
前記外部装置において前記抽出領域に基づいて求められ前記複数の画像を合成する際に用いられる合成情報を前記外部装置から受けて、前記合成情報に応じて前記複数の画像を合成処理して合成画像を得る合成手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that obtains a composite image by combining a plurality of images obtained as a result of continuous shooting,
Extraction means for extracting a predetermined area as an extraction area for each of the plurality of images;
Transmitting means for transmitting the extraction region to an external device;
The external device receives synthesis information obtained based on the extraction area and used to synthesize the plurality of images in the external device from the external device, and synthesizes the plurality of images according to the synthesis information. A synthesis means to obtain
An image processing apparatus comprising:
前記抽出手段は、互いに隣接する画像において共通する領域であるのりしろ領域を前記所定の領域として抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction unit extracts a marginal area, which is a common area in adjacent images, as the predetermined area. 前記外部装置は、前記のりしろ領域を複数のブロックに分割して、前記互いに隣接する画像において当該ブロック毎の動きベクトルを求めて、当該動きベクトルに応じて射影変換処理で用いられる射影変換係数を前記合成情報として求めることを特徴とする請求項2に記載の画像処理装置。   The external device divides the marginal area into a plurality of blocks, obtains a motion vector for each block in the adjacent images, and calculates a projective transformation coefficient used in a projective transformation process according to the motion vector. The image processing apparatus according to claim 2, wherein the image processing apparatus is obtained as composite information. 前記合成手段は、前記複数の画像のうちの一つを、前記射影変換処理における変換先となる基準画像として、前記射影変換係数に応じて前記複数の画像を繋ぎ合わせて前記合成画像を生成することを特徴とする請求項3に記載の画像処理装置。   The synthesizing unit generates one of the plurality of images as a reference image serving as a conversion destination in the projective transformation process, and combines the plurality of images according to the projective transformation coefficient to generate the synthesized image. The image processing apparatus according to claim 3. 前記抽出手段は、前記複数の画像のうちの一つを基準画像として当該基準画像において指定された指定範囲を前記所定の領域である邪魔もの領域として抽出するとともに、前記基準画像を除く他の画像において前記指定範囲に対応する領域を邪魔もの領域として抽出することを特徴とする請求項1に記載の画像処理装置。   The extraction means extracts one of the plurality of images as a reference image and a specified range specified in the reference image as an obstacle area that is the predetermined area, and other images excluding the reference image The image processing apparatus according to claim 1, wherein an area corresponding to the specified range is extracted as an obstructive area. 前記外部装置は、前記基準画像の邪魔もの領域に基づいて、前記基準画像を除く他の画像の邪魔もの領域について射影変換を行って、前記邪魔もの領域に存在する被写体を除去して前記合成情報を生成することを特徴とする請求項5に記載の画像処理装置。   The external device performs projective transformation on the disturbing areas of other images excluding the reference image based on the disturbing areas of the reference image, and removes the subject existing in the disturbing areas to generate the composite information. The image processing apparatus according to claim 5, wherein: 前記合成手段は、前記基準画像についてその邪魔もの領域を前記合成情報で置き換えて前記合成画像を生成することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the synthesizing unit generates the synthesized image by replacing an area of an obstacle in the reference image with the synthesized information. 前記複数の画像を撮像する撮像手段と、
請求項1〜7のいずれか1項に記載の画像処理装置と、
前記合成画像を記録媒体に記録する記録手段と、
を有することを特徴とする撮像装置。
Imaging means for imaging the plurality of images;
The image processing apparatus according to any one of claims 1 to 7,
Recording means for recording the composite image on a recording medium;
An imaging device comprising:
連続的な撮影の結果得られた複数の画像を合成して合成画像を得る画像処理装置での制御方法あって、
前記複数の画像の各々について所定の領域を抽出領域として抽出する抽出ステップと、
前記抽出領域を外部装置に送信する送信ステップと、
前記外部装置において前記抽出領域に基づいて求められ前記複数の画像を合成する際に用いられる合成情報を前記外部装置から受けて、前記合成情報に応じて前記複数の画像を合成処理して合成画像を得る合成ステップと、
を有することを特徴とする制御方法。
There is a control method in an image processing apparatus that combines a plurality of images obtained as a result of continuous shooting to obtain a composite image,
An extraction step of extracting a predetermined area as an extraction area for each of the plurality of images;
A transmitting step of transmitting the extraction region to an external device;
The external device receives synthesis information obtained based on the extraction area and used to synthesize the plurality of images in the external device from the external device, and synthesizes the plurality of images according to the synthesis information. A synthesis step to obtain
A control method characterized by comprising:
連続的な撮影の結果得られた複数の画像を合成して合成画像を得る画像処理装置で用いられる制御プログラムあって、
前記画像処理装置が備えるコンピュータに、
前記複数の画像の各々について所定の領域を抽出領域として抽出する抽出ステップと、
前記抽出領域を外部装置に送信する送信ステップと、
前記外部装置において前記抽出領域に基づいて求められ前記複数の画像を合成する際に用いられる合成情報を前記外部装置から受けて、前記合成情報に応じて前記複数の画像を合成処理して合成画像を得る合成ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an image processing apparatus that obtains a composite image by combining a plurality of images obtained as a result of continuous shooting,
In the computer provided in the image processing apparatus,
An extraction step of extracting a predetermined area as an extraction area for each of the plurality of images;
A transmitting step of transmitting the extraction region to an external device;
The external device receives synthesis information obtained based on the extraction area and used to synthesize the plurality of images in the external device from the external device, and synthesizes the plurality of images according to the synthesis information. A synthesis step to obtain
A control program characterized by causing
JP2014213684A 2014-10-20 2014-10-20 Image processing device, method for controlling the same, control program, and imaging apparatus Pending JP2016082477A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014213684A JP2016082477A (en) 2014-10-20 2014-10-20 Image processing device, method for controlling the same, control program, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213684A JP2016082477A (en) 2014-10-20 2014-10-20 Image processing device, method for controlling the same, control program, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2016082477A true JP2016082477A (en) 2016-05-16

Family

ID=55956567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213684A Pending JP2016082477A (en) 2014-10-20 2014-10-20 Image processing device, method for controlling the same, control program, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2016082477A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019184482A (en) * 2018-04-13 2019-10-24 株式会社大林組 Hole wall observation system
KR102061867B1 (en) 2018-09-10 2020-01-02 한성욱 Apparatus for generating image and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019184482A (en) * 2018-04-13 2019-10-24 株式会社大林組 Hole wall observation system
JP7020260B2 (en) 2018-04-13 2022-02-16 株式会社大林組 Hole wall observation system
KR102061867B1 (en) 2018-09-10 2020-01-02 한성욱 Apparatus for generating image and method thereof

Similar Documents

Publication Publication Date Title
JP4535114B2 (en) Imaging apparatus and imaging method, display control apparatus and display control method, and program
JP2010278878A (en) Stereoscopic image device and display image switching method thereof
JP2007166269A (en) Image processor, image pickup device and image processing method
JP4669032B2 (en) Image processing apparatus and method, and program
JP2011097246A (en) Image processing apparatus, method, and program
US20160078598A1 (en) Image processor and image processing method
JP6700935B2 (en) Imaging device, control method thereof, and control program
JP2013165488A (en) Image processing apparatus, image capturing apparatus, and program
JP2018061130A (en) Image processing device, image processing method, and program
JP2016082477A (en) Image processing device, method for controlling the same, control program, and imaging apparatus
JP7030427B2 (en) Imaging device with line-of-sight detection function
JP2013247543A (en) Imaging device, display device, image processing method and program
JP5889022B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP6274744B2 (en) Image processing apparatus and image processing method
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP6648916B2 (en) Imaging device
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP6332864B2 (en) Image processing apparatus, image processing method, and program
JP2015213261A (en) Imaging device, image processing system, and control method therefor
JP6218520B2 (en) Image processing apparatus, image processing method, and program
JP2016092518A (en) Image processor, control method therefor, control program, and imaging apparatus
JP4665781B2 (en) Imaging apparatus, image processing method, and program
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
JP2017184007A (en) Image processing apparatus, imaging apparatus, control method, and program
JP2018174461A (en) Image processing apparatus, image processing method, and program