JP5531865B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5531865B2 JP5531865B2 JP2010197654A JP2010197654A JP5531865B2 JP 5531865 B2 JP5531865 B2 JP 5531865B2 JP 2010197654 A JP2010197654 A JP 2010197654A JP 2010197654 A JP2010197654 A JP 2010197654A JP 5531865 B2 JP5531865 B2 JP 5531865B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- boundary
- data
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置及び画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
従来より、通行人や通過物体といった不要な動物体が含まれる画像から、当該動物体を除去したいという要望が存在する。
かかる要望に応える従来の技術として、略同一の画角で撮像した複数のフレームのデータから、画素毎の平均や多数決により動物体像のない状態を推定する技術が、特許文献1に開示されている。
また、かかる要望に応える別の従来の技術として、略同一の画角で撮像した複数のフレームのデータについて、フレーム番号をラベルとするMRF(Markov Random Field)上の多値ラベル最適化問題として解くことにより、物体の途切れを最小限に抑える技術が、非特許文献1に記載されている。
Conventionally, there is a desire to remove an animal body from an image including an unnecessary animal body such as a passerby or a passing object.
As a conventional technique that meets such demands, Patent Document 1 discloses a technique for estimating a state in which there is no moving object image by averaging or majority voting for each pixel from data of a plurality of frames captured at substantially the same angle of view. Yes.
In addition, as another conventional technique that meets such demands, it is solved as a multi-value label optimization problem on an MRF (Markov Random Field) with a frame number as a label for data of a plurality of frames captured at substantially the same angle of view. Therefore, Non-Patent Document 1 describes a technique for minimizing the discontinuity of an object.
しかしながら、特許文献1に記載の技術を採用した場合、ほぼ動いていないが完全には静止していない動物体像の領域や、複数の動物体像の通行量の多い領域において、動物体像の一部が途切れて残ったり、ぼんやりした痕跡が残ってしまう。
一方、非特許文献1の技術を採用した場合は、グラフカット法を用いることで、痕跡をあまり残さずに動物体像を除去すること自体は可能になるが、計算処理が膨大になる多値ラベルのグラフカットが必要になる。
However, when the technique described in Patent Document 1 is employed, in the region of an animal image that is not substantially moved but is not completely stationary, or in the region where there is a large amount of traffic of a plurality of animal images, Some of them are left uninterrupted, or vague traces remain.
On the other hand, when the technique of Non-Patent Document 1 is adopted, the graph cut method can be used to remove the animal image without leaving much traces, but the multi-value that makes the calculation process enormous. A graph cut of the label is required.
本発明は、このような状況に鑑みてなされたものであり、連続的に取得された画像を利用して、障害物となる当該動物体像を除いた、より自然な合成画像を生成するための画像処理の負担を軽くすることを目的とする。 The present invention has been made in view of such a situation, and uses a continuously acquired image to generate a more natural composite image excluding the animal image as an obstacle. The purpose is to reduce the burden of image processing.
上記目的達成のため、請求項1に記載の発明は、
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段と、
前記画像取得手段により取得された複数の画像データに基づいて、画像合成のための基準画像データを生成する生成手段と、
前記生成手段により生成された基準画像データに基づいて、少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段と、
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、
前記境界設定手段により設定された境界に基づいて、前記選択手段により選択された二つ以上の画像データを合成する合成手段と
を備えることを特徴とする画像処理装置を提供する。
また、請求項2に記載の発明は、
前記生成手段は、前記複数の画像データに撮像された動体の影響が当該複数の画像データよりも少ない基準画像データを生成することを特徴とする。
また、請求項3に記載の発明は、
前記生成手段は、前記画像取得手段により取得された複数の画像データの各画素の平均値又は中央値を算出することにより、前記基準画像データを生成することを特徴とする。
また、上記目的達成のため、請求項4に記載の発明は、
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段と、
画像合成のための基準画像データを取得する基準画像取得手段と、
前記基準画像取得手段により取得された基準画像データに基づいて、合成の結果の画像が前記基準画像データの画像に類似すると判断できる少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段と、
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、
前記境界設定手段により設定された境界に基づいて、前記選択手段により選択された二つ以上の画像データを合成する合成手段と
を備えることを特徴とする画像処理装置を提供する。
In order to achieve the above object, the invention described in claim 1
Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Generating means for generating reference image data for image synthesis based on a plurality of image data acquired by the image acquisition means;
Selection means for selecting at least two or more image data from a plurality of image data acquired by the image acquisition means based on the reference image data generated by the generation means;
Boundary setting means for setting a boundary between two or more image data selected by the selection means;
Based on the boundaries set by the boundary setting means, to provide an image processing apparatus, characterized in that it comprises a <br/> and synthesizing means for synthesizing two or more image data selected by said selection means.
The invention according to claim 2
The generating means generates reference image data in which the influence of a moving object imaged on the plurality of image data is less than that of the plurality of image data.
The invention according to claim 3
The generation unit generates the reference image data by calculating an average value or a median value of each pixel of the plurality of image data acquired by the image acquisition unit.
In order to achieve the above object, the invention described in claim 4
Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Reference image acquisition means for acquiring reference image data for image composition;
Based on the reference image data acquired by the reference image acquisition means, a plurality of image data acquired by the image acquisition means that is at least two or more image data that can be determined to be similar to the image of the reference image data. Selecting means for selecting from the image data of
Boundary setting means for setting a boundary between two or more image data selected by the selection means;
Combining means for combining two or more image data selected by the selection means based on the boundary set by the boundary setting means;
An image processing apparatus is provided.
また、請求項5に記載の発明は、The invention according to claim 5
前記選択手段は、The selection means includes
合成の結果の画像が前記基準画像データの画像に最も類似するような少なくとも二つ以上の画像データを選択することを特徴とする。It is characterized in that at least two or more pieces of image data are selected so that the combined result image is most similar to the image of the reference image data.
また、請求項6に記載の発明は、The invention according to claim 6
前記選択手段により選択された画像データ間の相違度を、各画像データ中の隣接する画素に対して算出する第1の相違度算出手段と、First dissimilarity calculating means for calculating the dissimilarity between the image data selected by the selecting means with respect to adjacent pixels in each image data;
前記選択手段により選択された二つ以上の画像データの前記基準画像データに対する相違度を算出する第2の相違度算出手段と、Second dissimilarity calculating means for calculating the dissimilarity of the two or more image data selected by the selecting means with respect to the reference image data;
前記第1の相違度算出手段により算出された相違度と前記第2の相違度算出手段により算出された相違度とを変数とする関数を設定する関数設定手段と、Function setting means for setting a function having the difference calculated by the first difference calculation means and the difference calculated by the second difference calculation means as variables;
を更に備え、Further comprising
前記境界設定手段は、前記関数設定手段により設定された関数が最小の値となるように、選択された二つ以上の画像データに境界を設定するThe boundary setting unit sets a boundary for two or more selected image data so that the function set by the function setting unit has a minimum value.
ことを特徴とする。It is characterized by that.
また、上記目的達成のため、請求項7に記載の発明は、In order to achieve the above object, the invention described in claim 7
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段と、Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
画像合成のための基準画像データを取得する基準画像取得手段と、Reference image acquisition means for acquiring reference image data for image composition;
前記基準画像取得手段により取得された前記基準画像データに画素値が類似した少なくとも一つの画像データを、前記画像取得手段により取得された複数の画像データから選択する第1の選択手段と、First selection means for selecting, from a plurality of image data acquired by the image acquisition means, at least one image data having a pixel value similar to the reference image data acquired by the reference image acquisition means;
合成結果の画像が前記基準画像データの画像に更に類似した画像となるような前記第1の選択手段により選択された画像データとは異なる画像データを、前記画像取得手段により取得された複数の画像データから少なくとも一つ選択する第2の選択手段と、A plurality of images acquired by the image acquisition unit, the image data different from the image data selected by the first selection unit, such that the resultant image becomes an image more similar to the image of the reference image data. Second selection means for selecting at least one from the data;
前記第1の選択手段及び前記第2の選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、Boundary setting means for setting a boundary between two or more image data selected by the first selection means and the second selection means;
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段と、Combining means for combining the two or more image data based on the boundary set by the boundary setting means;
を備えることを特徴とする画像処理装置を提供する。An image processing apparatus is provided.
また、請求項8に記載の発明は、Further, the invention according to claim 8 is
前記第1の選択手段及び前記第2の選択手段により選択された画像データ間の相違度を、各画像データ中の隣接する画素に対して算出する第1の相違度算出手段と、First difference calculation means for calculating a difference between the image data selected by the first selection means and the second selection means for adjacent pixels in each image data;
前記第1の選択手段及び前記第2の選択手段により選択された二つ以上の画像データの前記基準画像データに対する相違度を算出する第2の相違度算出手段と、Second dissimilarity calculating means for calculating the dissimilarity of the two or more image data selected by the first selecting means and the second selecting means with respect to the reference image data;
前記第1の相違度算出手段により算出された相違度と前記第2の相違度算出手段により算出された相違度とを変数とする関数を設定する関数設定手段と、Function setting means for setting a function having the difference calculated by the first difference calculation means and the difference calculated by the second difference calculation means as variables;
を更に備え、Further comprising
前記境界設定手段は、前記関数設定手段により設定された関数が最小の値となるように、前記二つ以上の画像データに境界を設定するThe boundary setting unit sets a boundary in the two or more image data so that the function set by the function setting unit has a minimum value.
ことを特徴とする。It is characterized by that.
また、請求項9に記載の発明は、前記基準画像取得手段は、前記画像取得手段により取得された複数の画像データに基づいて、画像合成のための基準画像データを生成する生成手段を含むことを特徴とする。In the invention described in claim 9, the reference image acquisition means includes generation means for generating reference image data for image composition based on a plurality of image data acquired by the image acquisition means. It is characterized by.
また、請求項10に記載の発明は、
時間的に連続して略同一画角で複数回撮像し、前記複数回の撮像の結果得られる画像データを出力する撮像手段をさらに備え、
前記画像取得手段は、前記撮像手段から出力された複数の画像データを、前記時間的に連続した略同一画角の複数の画像データとして取得する、
ことを特徴とする。
また、請求項11に記載の発明は、
前記複数の画像データの情報量を小さくさせるよう加工する加工手段と、
を更に備えることを特徴とする。
Further, the invention described in 請 Motomeko 10,
It further includes imaging means for imaging a plurality of times at substantially the same angle of view continuously in time, and outputting image data obtained as a result of the plurality of times of imaging,
The image acquisition means acquires a plurality of image data output from the imaging means as a plurality of image data having substantially the same angle of view that is continuous in time.
It is characterized by that .
The invention according to claim 11 is
Processing means for processing to reduce the amount of information of the plurality of image data;
Is further provided.
また、上記目的達成のため、請求項12に記載の発明は、
時間的に連続した略同一画角の複数の画像データを取得する画像取得ステップと、
前記画像取得ステップにより取得された複数の画像データに基づいて、画像合成のための基準画像データを生成する生成ステップと、
前記生成ステップにより生成された基準画像データに基づいて、前記画像取得ステップにて取得された複数の画像データから少なくとも二つ以上の画像データを選択する選択ステップと、
前記選択ステップにて選択された二つ以上の画像データに境界を設定する境界設定ステップと、
前記境界設定ステップにて設定された境界に基づいて、前記選択ステップにて選択された二つ以上の画像データを合成する合成ステップと
を含むことを特徴とする画像処理方法を提供する。
また、上記目的達成のため、請求項13に記載の発明は、
時間的に連続した略同一画角の複数の画像データを取得する画像取得ステップと、
画像合成のための基準画像データを取得する基準画像取得ステップと、
前記基準画像取得ステップにより取得された基準画像データに基づいて、合成の結果の画像が前記基準画像データの画像に類似すると判断できる少なくとも二つ以上の画像データを前記画像取得ステップにて取得された複数の画像データから選択する選択ステップと、
前記選択ステップにて選択された二つ以上の画像データに境界を設定する境界設定ステップと、
前記境界設定ステップにて設定された境界に基づいて、前記選択ステップにて選択された二つ以上の画像データを合成する合成ステップと
を含むことを特徴とする画像処理方法を提供する。
また、上記目的達成のため、請求項14に記載の発明は、
時間的に連続した略同一画角の複数の画像データを取得する画像取得ステップと、
画像合成のための基準画像データを取得する基準画像取得ステップと、
前記基準画像取得ステップにより取得された前記基準画像データに画素値が類似した少なくとも一つの画像データを、前記画像取得ステップにより取得された複数の画像データから選択する第1の選択ステップと、
合成結果の画像が前記基準画像データの画像に更に類似した画像となるような前記第1の選択ステップにより選択された画像データとは異なる画像データを、前記画像取得ステップにより取得された複数の画像データから少なくとも一つ選択する第2の選択ステップと、
前記第1の選択ステップ及び前記第2の選択ステップにより選択された二つ以上の画像データに境界を設定する境界設定ステップと、
前記境界設定ステップにより設定された境界に基づいて、前記二つ以上の画像データを合成する合成ステップと
を含むことを特徴とする画像処理方法を提供する。
In order to achieve the above object, the invention according to claim 12 is
An image acquisition step of acquiring a plurality of image data having substantially the same angle of view that is continuous in time;
A generating step for generating reference image data for image synthesis based on the plurality of image data acquired by the image acquiring step;
A selection step of selecting at least two or more image data from the plurality of image data acquired in the image acquisition step based on the reference image data generated in the generation step ;
A boundary setting step for setting a boundary between two or more image data selected in the selection step;
And a synthesis step of synthesizing two or more image data selected in the selection step based on the boundary set in the boundary setting step.
In order to achieve the above object, the invention according to claim 13 is
An image acquisition step of acquiring a plurality of image data having substantially the same angle of view that is continuous in time;
A reference image acquisition step of acquiring reference image data for image synthesis;
Based on the reference image data acquired in the reference image acquisition step, at least two or more pieces of image data that can be determined to be similar to the image of the reference image data are acquired in the image acquisition step. A selection step of selecting from a plurality of image data;
A boundary setting step for setting a boundary between two or more image data selected in the selection step;
A combining step of combining two or more image data selected in the selection step based on the boundary set in the boundary setting step;
An image processing method is provided.
In order to achieve the above object, the invention according to claim 14
An image acquisition step of acquiring a plurality of image data having substantially the same angle of view that is continuous in time;
A reference image acquisition step of acquiring reference image data for image synthesis;
A first selection step of selecting at least one image data similar in pixel value to the reference image data acquired by the reference image acquisition step from a plurality of image data acquired by the image acquisition step;
A plurality of images acquired by the image acquisition step, the image data different from the image data selected by the first selection step so that the image of the synthesis result is an image more similar to the image of the reference image data A second selection step of selecting at least one from the data;
A boundary setting step for setting a boundary between two or more image data selected by the first selection step and the second selection step;
A combining step of combining the two or more image data based on the boundary set by the boundary setting step;
An image processing method is provided.
また、上記目的達成のため、請求項15に記載の発明は、
コンピュータを、
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段、
前記画像取得手段により取得された複数の画像データに基づいて、画像合成のための基準画像データを生成する生成手段、
前記生成手段により生成された基準画像データに基づいて、少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段、
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段
として機能させるためのプログラムを提供する。
また、上記目的達成のため、請求項16に記載の発明は、
コンピュータを、
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段、
画像合成のための基準画像データを取得する基準画像取得手段、
前記基準画像取得手段により取得された基準画像データに基づいて、合成の結果の画像が前記基準画像データの画像に類似すると判断できる少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段、
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段、
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段、
として機能させるためのプログラムを提供する。
また、上記目的達成のため、請求項17に記載の発明は、
コンピュータを、
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段、
画像合成のための基準画像データを取得する基準画像取得手段、
前記基準画像取得手段により取得された前記基準画像データに画素値が類似した少なくとも一つの画像データを、前記画像取得手段により取得された複数の画像データから選択する第1の選択手段、
合成結果の画像が前記基準画像データの画像に更に類似した画像となるような前記第1の選択手段により選択された画像データとは異なる画像データを、前記画像取得手段により取得された複数の画像データから少なくとも一つ選択する第2の選択手段、
前記第1の選択手段及び前記第2の選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段、
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段、
として機能させるためのプログラムを提供する。
In order to achieve the above object, the invention according to claim 15 is
Computer
Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Generating means for generating reference image data for image synthesis based on a plurality of image data acquired by the image acquiring means;
Selection means for selecting at least two or more image data from a plurality of image data acquired by the image acquisition means based on the reference image data generated by the generation means;
Boundary setting means for setting a boundary between two or more image data selected by the selection means;
Combining means for combining the two or more image data based on the boundary set by the boundary setting means
Provide a program to function as
In order to achieve the above object, the invention described in claim 16 provides:
Computer
Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Reference image acquisition means for acquiring reference image data for image synthesis;
Based on the reference image data acquired by the reference image acquisition means, a plurality of image data acquired by the image acquisition means that is at least two or more image data that can be determined to be similar to the image of the reference image data. Selection means for selecting from the image data of
Boundary setting means for setting a boundary between two or more image data selected by the selection means;
Based on the boundaries set by the demarcation means, combining means for combining the two or more image data,
Provide a program to function as
In order to achieve the above object, the invention described in claim 17
Computer
Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Reference image acquisition means for acquiring reference image data for image synthesis;
First selection means for selecting, from a plurality of image data acquired by the image acquisition means, at least one image data having a pixel value similar to the reference image data acquired by the reference image acquisition means;
A plurality of images acquired by the image acquisition unit, the image data different from the image data selected by the first selection unit, such that the resultant image becomes an image more similar to the image of the reference image data. A second selection means for selecting at least one from the data;
Boundary setting means for setting a boundary between two or more image data selected by the first selection means and the second selection means;
A combining means for combining the two or more image data based on the boundary set by the boundary setting means;
Provide a program to function as
本発明によれば、連続的に取得された画像を利用して、障害物となる当該動物体像を除いた、より自然な合成画像を生成できる。 ADVANTAGE OF THE INVENTION According to this invention, the more natural synthetic | combination image except the said animal body image used as an obstruction can be produced | generated using the image acquired continuously.
以下、本発明の一実施形態を図面に基づいて説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明に係る画像処理装置の一実施形態としての撮像装置1のハードウェアの構成を示すブロック図である。撮像装置1は、例えばデジタルカメラにより構成することができる。 FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus 1 as an embodiment of an image processing apparatus according to the present invention. The imaging device 1 can be configured by a digital camera, for example.
撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、操作部18と、表示部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。 The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging unit. 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22.
CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.
The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.
画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
例えば、画像処理部14は、後述する撮像部17から入力される撮像画像のデータに対して、ノイズ低減、ホワイトバランス、手ぶれ補正等の画像処理を施す。
ここで、本実施形態では、撮像装置1による画像の処理単位は一枚の静止画像であり、このような処理単位としての静止画像が、本明細書では「フレーム」と呼ばれている。以下、特に断りがない限り、画像とはフレームを意味するものとする。
また、本実施形態では、画像処理部14を含め撮像装置1により画像処理が施される場合の画像のサイズ(解像度)は、原則として、後述するリムーバブルメディア31に記録されるサイズであるものとする。このようなサイズを、以下、「通常サイズ」と呼ぶ。
本実施形態では、画像処理部14は、さらに、連写画像取得部41と、画像合成部42と、を備えている。詳細については図2を参照して後述するが、連写画像取得部41の縮小部51により、画像のデータのサイズが、通常サイズから、それよりも小さいサイズ、例えばQVGA(Quarter-Video Graphics Array)のサイズに縮小される。このような縮小後のサイズの画像のデータが、画像合成部42の処理対象になる。
The image processing unit 14 includes a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various types of image processing on image data in cooperation with the CPU 11.
For example, the image processing unit 14 performs image processing such as noise reduction, white balance, and camera shake correction on captured image data input from the imaging unit 17 described later.
Here, in this embodiment, the processing unit of the image by the imaging apparatus 1 is one still image, and the still image as such a processing unit is referred to as a “frame” in this specification. Hereinafter, unless otherwise specified, an image means a frame.
In the present embodiment, the image size (resolution) when image processing is performed by the imaging apparatus 1 including the image processing unit 14 is, as a general rule, the size recorded on the removable medium 31 described later. To do. Hereinafter, such a size is referred to as a “normal size”.
In the present embodiment, the image processing unit 14 further includes a continuous shot image acquisition unit 41 and an image composition unit 42. Although details will be described later with reference to FIG. 2, the reduction unit 51 of the continuous-shot image acquisition unit 41 changes the size of the image data from a normal size to a smaller size, for example, a QVGA (Quarter-Video Graphics Array). ). The image data of such a reduced size is a processing target of the image composition unit 42.
CPU11、ROM12、RAM13、及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、表示部19、記憶部20、通信部21、及びドライブ22が接続されている。 The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.
撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。 Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.
光学レンズ部は、被写体を撮像するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured with a lens that collects light, such as a focus lens and a zoom lens, in order to capture an image of the subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
なお、このような撮像部17の出力信号が、本明細書では「撮像画像のデータ」と呼ばれている。従って、撮像部17からは撮像画像のデータがフレーム単位で出力されて、CPU11や画像処理部14等に適宜供給される。以下、特に断りがない限り、撮像画像とはフレームを意味するものとする。
The image sensor includes a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Note that such an output signal of the imaging unit 17 is referred to as “captured image data” in this specification. Therefore, captured image data is output from the imaging unit 17 in units of frames and is supplied to the CPU 11, the image processing unit 14, and the like as appropriate. Hereinafter, unless otherwise specified, the captured image means a frame.
操作部18は、各種釦等で構成され、ユーザの指示操作を受け付ける。
表示部19は、液晶ディスプレイ等で構成され、各種画像を表示する。
記憶部20は、DRAM(Dynamic Random Access Memory)等で構成され、画像処理部14等から出力された画像のデータを一時的に記憶する。また、記憶部20は、画像処理部14等の処理に必要な各種データも記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The operation unit 18 includes various buttons and the like, and accepts user instruction operations.
The display unit 19 is composed of a liquid crystal display or the like and displays various images.
The storage unit 20 is configured by a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores image data output from the image processing unit 14 or the like. The storage unit 20 also stores various data necessary for processing by the image processing unit 14 and the like.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.
ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。 A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.
図2は、このような撮像装置1のうち、画像処理部14の機能的構成を示す機能ブロック図である。 FIG. 2 is a functional block diagram showing a functional configuration of the image processing unit 14 in such an imaging apparatus 1.
図2に示すように、画像処理部14は、連写画像取得部41と、画像合成部42と、を備えている。 As shown in FIG. 2, the image processing unit 14 includes a continuous-shot image acquisition unit 41 and an image composition unit 42.
連写画像取得部41は、連写された結果得られる複数の画像のデータを取得する。
連写とは、撮像装置1等が時間的に連続して複数回略同一画角で撮像することをいう。
ここで、撮像装置1等と記載しているのは、連写画像取得部41が取得する画像のデータは、撮像装置1の撮像部17から出力された撮像画像のデータである必要は特になく、他の撮像装置により撮像された画像のデータでもよいからである。ただし、ここでは説明の簡略上、撮像装置1が固定された状態で、撮像部17が連写した結果得られる複数の撮像画像のデータが、連写画像取得部41によって取得されるものとする。
なお、連写のタイミングは、連写画像取得部41の取得タイミングよりも前であれば足り、連写画像取得部41の取得タイミングの直前である必要は特にない。
また、本実施形態では、連写された結果得られる複数の画像のデータのサイズは、通常サイズであるものとする。
The continuous image acquisition unit 41 acquires data of a plurality of images obtained as a result of continuous shooting.
Continuous shooting means that the imaging device 1 or the like captures images at substantially the same angle of view a plurality of times in succession in time.
Here, what is described as the imaging device 1 or the like is that the image data acquired by the continuous-shot image acquisition unit 41 is not necessarily the data of the captured image output from the imaging unit 17 of the imaging device 1. This is because data of an image captured by another imaging device may be used. However, for simplification of description, data of a plurality of captured images obtained as a result of continuous shooting by the imaging unit 17 in a state where the imaging device 1 is fixed are acquired by the continuous image acquisition unit 41. .
Note that it is sufficient that the continuous shooting timing is before the acquisition timing of the continuous-shot image acquisition unit 41, and it is not particularly necessary to be immediately before the acquisition timing of the continuous-shot image acquisition unit 41.
In the present embodiment, it is assumed that the size of data of a plurality of images obtained as a result of continuous shooting is a normal size.
連写画像取得部41は、縮小部51を備えている。
縮小部51は、連写画像取得部41により取得された複数の画像のデータのサイズ(解像度)を、通常サイズから、それよりも小さなサイズ(例えばQVGAサイズ)に縮小する。
The continuous shot image acquisition unit 41 includes a reduction unit 51.
The reduction unit 51 reduces the size (resolution) of the data of the plurality of images acquired by the continuous shot image acquisition unit 41 from the normal size to a smaller size (eg, QVGA size).
以下、このようにして縮小部51により縮小された複数の画像データの各々を「縮小化連写データ」と呼び、各縮小連写データの各々を個々に区別すべく、P[i]の符号を用いる。ここで、iは、連写画像取得部41により取得された複数の画像のデータの各々に対して一意に付された番号(以下、「フレーム番号」と呼ぶ)を示している。連写画像取得部41によりn枚(nは2以上の整数値)の複数の画像データが取得された場合には、i=1乃至nのうちの何れかのフレーム番号を示している。即ち、縮小化連写データP[i]とは、フレーム番号iの画像のデータの縮小データを指す。 Hereinafter, each of the plurality of image data reduced by the reduction unit 51 in this way is referred to as “reduced continuous shooting data”, and the code of P [i] is used to distinguish each of the reduced continuous shooting data individually. Is used. Here, i indicates a number (hereinafter referred to as “frame number”) uniquely assigned to each of a plurality of image data acquired by the continuous-shot image acquisition unit 41. When a plurality of n (n is an integer value of 2 or more) image data is acquired by the continuous image acquisition unit 41, any frame number from i = 1 to n is shown. That is, the reduced continuous shooting data P [i] indicates reduced data of the image data of frame number i.
なお、縮小部51は、連写画像取得部41にとって必須な構成要素ではない。
しかしながら、本発明の目的の1つ、即ち、連続的に取得された画像を利用して、障害物となる当該動物体像を除いた、より自然な合成画像を生成するための画像処理の負担を軽くするという目的の達成のためには、後述する画像合成部42の計算処理の負担を少しでも抑制することが必要である。
そこで、本実施形態では、後述する画像合成部42は、連写画像取得部41により取得された複数の画像のデータ(通常サイズのデータ)をそのまま用いるのではなく、データ容量が小さくなった縮小化連写データP[1]乃至P[n]を用いることによって、計算処理の負担を抑制するようにしている。このため、本実施形態では、縮小部51が連写画像取得部41に設けられているのである。
その他、縮小部51が設けられている理由は、画像合成部42が縮小後の画像データを用いることにより、連写画像取得部41により取得された複数の画像のデータが三脚不使用で撮像されたものである場合等に生ずる位置ズレがさほど問題にならないからである。もちろん、必要に応じて画像の幾何変換による位置合わせを行ってもよく、そのほうがより良い結果となる。
Note that the reduction unit 51 is not an essential component for the continuous-shot image acquisition unit 41.
However, one of the objects of the present invention, that is, the burden of image processing for generating a more natural composite image excluding the animal body image that becomes an obstacle using continuously acquired images. In order to achieve the purpose of reducing the weight, it is necessary to suppress the burden of calculation processing of the image composition unit 42 described later as much as possible.
Therefore, in the present embodiment, the image composition unit 42 described later does not directly use the data (normal size data) of a plurality of images acquired by the continuous shot image acquisition unit 41, but reduces the data volume. By using the normalized continuous shooting data P [1] to P [n], the burden of calculation processing is suppressed. For this reason, in the present embodiment, the reduction unit 51 is provided in the continuous-shot image acquisition unit 41.
In addition, the reduction unit 51 is provided because the image composition unit 42 uses the reduced image data, and the data of a plurality of images acquired by the continuous shot image acquisition unit 41 is captured without using a tripod. This is because misalignment that occurs in the case of a problem is not a problem. Of course, if necessary, alignment by geometric transformation of the image may be performed, and a better result is obtained.
画像合成部42は、縮小化連写データP[1]乃至P[n]から、合成対象の複数の画像のデータを選択して取得する。画像合成部42は、合成対象の複数の画像のデータ夫々を分割するための境界を設定する。画像合成部42は、合成対象の複数の画像のデータの夫々を境界に沿って分割し、分割後の各画像のデータのうち一部のデータを、境界に沿って繋げるように合成することで、合成画像のデータを生成する。
画像合成部42は、この境界を適切に設定することによって、連写により得られた複数の画像の少なくとも一部に含まれる障害物である動物体像が除去された合成画像のデータを生成することが可能になる。
The image synthesis unit 42 selects and acquires data of a plurality of images to be synthesized from the reduced continuous shooting data P [1] to P [n]. The image composition unit 42 sets boundaries for dividing each of the data of a plurality of images to be synthesized. The image synthesis unit 42 divides each of the data of the plurality of images to be synthesized along the boundary, and synthesizes a part of the data of each divided image so as to be connected along the boundary. Then, the data of the composite image is generated.
The image composition unit 42 appropriately sets this boundary, thereby generating composite image data from which the moving object image that is an obstacle included in at least a part of the plurality of images obtained by continuous shooting is removed. It becomes possible.
画像合成部42は、このような一連の処理を実行して、合成画像のデータを生成すべく、基準画像生成部61と、基準最近似画像選択部62と、相補画像選択部63と、2値ラベリング部64と、合成部65と、を備えている。 The image composition unit 42 executes such a series of processes to generate composite image data, so that a reference image generation unit 61, a reference most approximate image selection unit 62, a complementary image selection unit 63, and 2 A value labeling unit 64 and a combining unit 65 are provided.
図3は、このような機能的構成を有する画像合成部42の処理結果の具体例を示している。
具体的には、図3(A)は、基準画像生成部61、基準最近似画像選択部62、及び、相補画像選択部63の各処理結果の具体例を示している。
図3(B)及び図3(C)は、2値ラベリング部64及び合成部65の各処理結果(途中結果含む)の具体例を示している。
以下、図3を適宜参照しつつ、画像合成部42の機能的構成について説明する。
FIG. 3 shows a specific example of the processing result of the image composition unit 42 having such a functional configuration.
Specifically, FIG. 3A illustrates a specific example of each processing result of the reference image generation unit 61, the reference closest approximate image selection unit 62, and the complementary image selection unit 63.
3B and 3C show specific examples of processing results (including intermediate results) of the binary labeling unit 64 and the synthesis unit 65. FIG.
Hereinafter, the functional configuration of the image composition unit 42 will be described with reference to FIG. 3 as appropriate.
基準画像生成部61は、縮小化連写データP[1]乃至P[n]に基づいて、画像合成の基準となる基準画像Bのデータを生成する。
基準画像Bのデータ生成手法は、移動物体像がある程度除去できる手法であれば足り、例えば、各画素毎、色成分毎に縮小化連写データP[1]乃至P[n]のメディアンや平均をとる等の一般的な手法を採用することができる。あるいはまた、各画素毎に、他のフレームとの各画素の距離(差分絶対値や差分二乗)の総和が最小となるようなフレームのデータを探して、そのフレームの画素値をとることによって基準画像Bのデータを生成する手法を採用することもできる。
基準画像Bは、障害物である動物体像はかなり除去されているが、ぼんやりした痕跡は残るので、最終出力の画像としては不適であるため、本実施形態では、最終出力を推定するための基準として用いられるのである。ここでは例えば、図3(A)に示す画像93のデータが基準画像Bのデータとして生成されたものとする。
The reference image generation unit 61 generates data of a reference image B that serves as a reference for image composition based on the reduced continuous shooting data P [1] to P [n].
The data generation method of the reference image B may be a method that can remove the moving object image to some extent. For example, the median or average of the reduced continuous shooting data P [1] to P [n] for each pixel and each color component A general method such as taking can be adopted. Alternatively, for each pixel, search for frame data that minimizes the sum of the distance (absolute difference value or difference squared) of each pixel from another frame, and take the pixel value of that frame as a reference. A technique for generating image B data can also be employed.
In the reference image B, the animal image that is an obstacle is considerably removed, but a blurred trace remains, so it is unsuitable as an image of the final output.In this embodiment, in this embodiment, the final output is estimated. It is used as a reference. Here, for example, it is assumed that the data of the image 93 shown in FIG. 3A is generated as the data of the reference image B.
基準最近似画像選択部62は、本実施形態では、縮小化連写データP[1]乃至P[n]から、合成対象の1つとして、基準画像Bのデータに画素値が最も近い画像のデータを選択して取得する。このようにして、基準最近似画像選択部62により合成対象の1つとして選択される画像のデータを、以下、「基準最近似画像のデータ」と呼ぶ。
ただし、合成対象の1つである基準最近似画像と、合成対象の別の1つの画像(後述の相補画像)とが合成された結果として、基準画像に最も近い合成画像が得られれば足りるため、基準最近似画像は、必ずしも基準画像Bと最近似である必要はない。以下では、縮小化連写データP[1]乃至P[n]のうち、フレーム番号pの縮小化連写データP[p]が、基準最近似画像のデータとして選択されるものとする。
この場合、フレーム番号pは、次の式(1)によって得られる。
このような式(1)によれば、相違度を全画素について総和した値が最も小さくなるフレームのフレーム番号iが、基準最近似画像のデータP[p]のフレーム番号pとして得られることになる。
ここでは例えば、図3(A)に示す画像91のデータが基準最近似画像のデータP[p]として取得されたものとする。
In this embodiment, the reference closest approximate image selection unit 62 selects the image having the pixel value closest to the data of the reference image B as one of the compositing targets from the reduced continuous shooting data P [1] to P [n]. Select and retrieve data. The image data selected as one of the compositing targets by the reference closest approximate image selection unit 62 in this way is hereinafter referred to as “reference closest approximate image data”.
However, it is sufficient if a synthesized image closest to the reference image is obtained as a result of synthesizing the reference closest approximate image that is one of the synthesis targets and another image to be synthesized (a complementary image described later). The reference closest approximation image does not necessarily need to be the closest approximation to the reference image B. In the following description, it is assumed that the reduced continuous shooting data P [p] of the frame number p among the reduced continuous shooting data P [1] to P [n] is selected as reference closest approximate image data.
In this case, the frame number p is obtained by the following equation (1).
According to the formula (1), the frame number i of the frame having the smallest difference value for all pixels is obtained as the frame number p of the data P [p] of the reference most approximate image. Become.
Here, for example, it is assumed that the data of the image 91 shown in FIG. 3A is acquired as the data P [p] of the reference most approximate image.
相補画像選択部63は、本実施形態では、縮小化連写データP[1]乃至P[n]から、基準最近似画像のデータP[p]と組み合わせて最適に切り貼りした時に、基準画像Bのデータに最も近づけることのできる相補画像のデータを選択して取得する。このようにして、基準最近似画像選択部62により合成対象の1つとして選択される画像のデータを、以下、「相補画像のデータ」と呼ぶ。以下では、縮小化連写データP[1]乃至P[n]のうち、フレーム番号qの縮小化連写データP[q]が、相補画像のデータとして選択されるものとする。
この場合、フレーム番号qは、次の式(2)によって得られる。
ここでは例えば、図3(A)に示す画像92のデータが相補画像のデータP[q]として取得されたものとする。
In this embodiment, the complementary image selection unit 63, when optimally cut and pasted from the reduced continuous shooting data P [1] to P [n] in combination with the data P [p] of the reference closest approximate image, The complementary image data that can be closest to the data is selected and acquired. The image data selected as one of the compositing targets by the reference closest approximate image selection unit 62 in this way is hereinafter referred to as “complementary image data”. In the following, it is assumed that the reduced continuous shooting data P [q] of the frame number q is selected as the complementary image data among the reduced continuous shooting data P [1] to P [n].
In this case, the frame number q is obtained by the following equation (2).
Here, for example, it is assumed that the data of the image 92 shown in FIG. 3A is acquired as the complementary image data P [q].
2値ラベリング部64は、基準最近似画像のデータP[p]と相補画像のデータP[q]とを切り貼りするために、各画素に対して、p(つまり基準最近似画像のデータP[p]由来の画素)又はq(つまり相補画像のデータP[q]由来の画素)という2値のラベルを付す。
このような2値ラベリング部64の処理を、以下、「2値ラベリング」と呼ぶ。
2値ラベリングの手法は、特に限定されず各種各様の手法を採用することができるが、本実施形態ではグラフカット法を用いる手法が採用されているものとする。
2値ラベリング部64は、基準最近似画像のデータP[p]と相補画像のデータP[q]から、後述するコスト関数の2つの項である平滑化項とデータ項を算出する。
2値ラベリング部64は、このコスト関数が最小となるように全ての画素をp側とq側に分割する2値ラベリングを、後述するグラフカット法により探索する。
なお、コスト関数とグラフカット法の詳細に関しては、非特許文献1を参照するとよい。
2値ラベリング部64は、この2値ラベリングを実行することによって、基準最近似画像のデータP[p]と相補画像のデータP[q]とを最適に切り貼りするための境界線を設定することが可能になる。
2値ラベリング部64は、このような一連の処理を実行して、最適な境界線を設定すべく、第1相違度算出部71と、第2相違度算出部72と、コスト関数設定部73と、境界設定部74と、を備えている。
In order to cut and paste the data P [p] of the reference closest approximation image and the data P [q] of the complementary image, the binary labeling unit 64 applies p (that is, data P [of the reference closest approximation image) to each pixel. p] -derived pixels) or q (that is, pixels derived from complementary image data P [q]).
Such processing of the binary labeling unit 64 is hereinafter referred to as “binary labeling”.
The binary labeling method is not particularly limited, and various methods can be employed. In the present embodiment, a method using a graph cut method is employed.
The binary labeling unit 64 calculates a smoothing term and a data term, which are two terms of a cost function described later, from the data P [p] of the reference most approximate image and the data P [q] of the complementary image.
The binary labeling unit 64 searches for binary labeling that divides all pixels into the p side and the q side so as to minimize the cost function by a graph cut method described later.
Refer to Non-Patent Document 1 for details of the cost function and the graph cut method.
The binary labeling unit 64 sets a boundary line for optimally cutting and pasting the data P [p] of the reference closest approximate image and the data P [q] of the complementary image by executing this binary labeling. Is possible.
The binary labeling unit 64 executes such a series of processes to set an optimal boundary line, so that a first difference calculation unit 71, a second difference calculation unit 72, and a cost function setting unit 73 are set. And a boundary setting unit 74.
具体的には、図3(B)は、第2相違度算出部72の処理結果の具体例を示している。
即ち、図3(A)の例では、上述したように、基準最近似画像のデータP[p]が画像91のデータで表され、相補画像のデータP[q]が画像92のデータで表され、基準画像Bのデータが画像93のデータで表されている。
このような図3(A)の各画像91乃至93のデータについて、データ項Cpとして得られたデータをグレイスケール画像で表したものが、図3(B)に示す画像101であり、データ項Cqとして得られたデータをグレイスケール画像で表したものが、図3(B)に示す画像102である。
Specifically, FIG. 3B shows a specific example of the processing result of the second difference degree calculation unit 72.
That is, in the example of FIG. 3A, as described above, the data P [p] of the reference closest approximate image is represented by the data of the image 91, and the data P [q] of the complementary image is represented by the data of the image 92. The data of the reference image B is represented by the data of the image 93.
For the data of each of the images 91 to 93 in FIG. 3A, the data obtained as the data term Cp is represented by a gray scale image as the image 101 shown in FIG. An image 102 shown in FIG. 3B represents data obtained as Cq as a grayscale image.
第1相違度算出部71は、本実施形態では、式(3)に従って、隣接画素ペア(u,v)の関数C(u,v)を算出する。式(3)の意味は後述するが、以下、この関数Cを「平滑化項」と呼ぶ。
この平滑化項が小さいほど、基準最近似画像のデータP[p]と相補画像のデータP[q]で似通った領域となることを意味するため、このような領域で境界線を引けば、切れ目を目立たないようにすることが可能になる。ただし、その境界線で分割された2つの領域のどちら側が排除すべき領域、即ち動物体像の領域かを判定するためには、次の第2相違度算出部72により算出されるデータ項が必要となる。
In the present embodiment, the first difference calculation unit 71 calculates the function C (u, v) of the adjacent pixel pair (u, v) according to the equation (3). Although the meaning of the expression (3) will be described later, the function C is hereinafter referred to as “smoothing term”.
The smaller this smoothing term is, the more similar the data P [p] of the reference most approximate image and the data P [q] of the complementary image become, so if the boundary line is drawn in such a region, It is possible to make the cuts inconspicuous. However, in order to determine which side of the two areas divided by the boundary line should be excluded, that is, the area of the moving body image, the data term calculated by the second difference calculating unit 72 is Necessary.
第2相違度算出部72は、本実施形態では、式(4)と式(5)に従って、画素uの関数Cp(u)と関数Cq(u)を算出する。これらの関数Cp(u)と関数Cq(u)の意味は後述するが、以下、これらの関数Cpと関数Cqをまとめて「データ項」と呼ぶ。
基準画像Bにおいては、障害物である動物体像の痕跡は少なくなっていると考えられるので、このデータ項が小さいほど、背景領域である可能性が高い。それゆえ、このデータ項が小さい領域を切り出すような境界線を、平滑化項が小さい領域で引くことができれば、動物体像を横切らずに、基準画像Bのデータに近い合成画像のデータを得ることが可能になる。
In the present embodiment, the second dissimilarity calculator 72 calculates the function Cp (u) and the function Cq (u) of the pixel u according to the equations (4) and (5). Although the meanings of these functions Cp (u) and Cq (u) will be described later, these functions Cp and Cq are hereinafter collectively referred to as “data terms”.
In the reference image B, it is considered that the trace of the moving object image that is an obstacle is reduced. Therefore, the smaller this data term is, the higher the possibility of being the background region. Therefore, if a boundary line that cuts out a region where this data term is small can be drawn in a region where the smoothing term is small, the synthesized image data close to the data of the reference image B is obtained without crossing the animal image. It becomes possible.
コスト関数設定部73は、第1相違度算出部71によって算出された平滑化項Cと、第2相違度算出部72によって算出されたデータ項Cp及びCqを用いて、コスト関数を設定する。このコスト関数が、全画素の各々を、基準最近似画像のデータP[p]から切り出すべき領域と相補画像のデータP[q]から切り出すべき領域のどちらかに切り分けるのに最適な境界線を探すための関数となる。
コスト関数設定部73は、コスト関数を設定するために、以下のようなノードの集合とノード間に張ったエッジの集合から構成されるグラフを想定する。
即ち、先ず、コスト関数設定部73は、基準最近似画像のデータP[p]と相補画像のデータP[q]を切り貼りして作成できたと仮想する合成画像データの全画素をノードとし、その全ての隣接画素ペア(u,v)間にエッジを張る。
次に、コスト関数設定部73は、そのグラフの裏表にp側の空間とq側の空間を想定し、両空間に1つずつ仮想的なノードを追加する。
なお、以下、p側の空間に仮想的に追加したノードを「sourceノード」と呼び、q側の空間に仮想的に追加したノードを「sinkノード」と呼ぶ。
さらに、コスト関数設定部73は、sourceノードから全画素へ張ったエッジと、全画素からsinkノードへ張ったエッジを追加する。
コスト関数設定部73は、各隣接画素ペア(u,v)間に張ったエッジに、第1相違度算出部71によって算出された平滑化項C(u,v)の重みを与える。
コスト関数設定部73は、sourceノードから各画素へ張ったエッジに、第2相違度算出部72によって算出されたデータ項Cq(u)の重みを与える。また、コスト関数設定部73は、各画素からsinkノードへ張ったエッジに、第2相違度算出部72によって算出されたデータ項Cp(u)の重みを与える。
このように重みを与えられたグラフを、以下では「重み付きグラフ」と呼ぶ。
コスト関数設定部73は、このコスト関数を算出するために必要な重み付きグラフを準備して、境界設定部74に供給する。
The cost function setting unit 73 sets a cost function using the smoothing term C calculated by the first difference calculation unit 71 and the data terms Cp and Cq calculated by the second difference calculation unit 72. This cost function determines the optimal boundary line for dividing each pixel into either a region to be cut out from the data P [p] of the reference closest approximation image or a region to be cut out from the data P [q] of the complementary image. This is a function for searching.
In order to set the cost function, the cost function setting unit 73 assumes a graph composed of a set of nodes and a set of edges extending between the nodes as follows.
That is, first, the cost function setting unit 73 uses, as nodes, all the pixels of the synthesized image data that are virtually created by cutting and pasting the data P [p] of the reference closest approximate image and the data P [q] of the complementary image. Edges are set between all adjacent pixel pairs (u, v).
Next, the cost function setting unit 73 assumes a p-side space and a q-side space on the front and back sides of the graph, and adds one virtual node to each space.
Hereinafter, a node virtually added to the p-side space is referred to as a “source node”, and a node virtually added to the q-side space is referred to as a “sink node”.
Further, the cost function setting unit 73 adds an edge extending from the source node to all pixels and an edge extending from all pixels to the sink node.
The cost function setting unit 73 gives the weight of the smoothing term C (u, v) calculated by the first dissimilarity calculation unit 71 to the edge extending between each adjacent pixel pair (u, v).
The cost function setting unit 73 gives the weight of the data term Cq (u) calculated by the second difference calculation unit 72 to the edge extending from the source node to each pixel. Further, the cost function setting unit 73 gives the weight of the data term Cp (u) calculated by the second difference calculation unit 72 to the edge extending from each pixel to the sink node.
The graph thus weighted is hereinafter referred to as a “weighted graph”.
The cost function setting unit 73 prepares a weighted graph necessary for calculating the cost function and supplies the graph to the boundary setting unit 74.
以上の内容を踏まえて、境界設定部74の理解を容易なものとすべく、グラフカットとコスト関数について説明する。
あるグラフGにおいて、Gのエッジ集合のある部分集合Eに属するエッジを全て切り離した時、Gのノード集合が二つの部分集合に切り分けられる場合、そのエッジの部分集合Eを「グラフGのカットE」と呼ぶ。
このカットEに属する全てのエッジに与えられた重みを合計したものを、以下、「カットEのコスト関数」と呼ぶ。
Based on the above contents, the graph cut and the cost function will be described so that the boundary setting unit 74 can be easily understood.
In a graph G, when all the edges belonging to a subset E of the edge set of G are separated, if the node set of G is cut into two subsets, the subset E of the edge is expressed as “cut E of graph G "
The sum of the weights given to all the edges belonging to the cut E is hereinafter referred to as “the cost function of the cut E”.
境界設定部74は、コスト関数設定部73から供給された重み付きグラフをp側のノード集合とq側のノード集合に切り離すような全てのカットEを調べる。 The boundary setting unit 74 examines all cuts E that separate the weighted graph supplied from the cost function setting unit 73 into a p-side node set and a q-side node set.
重み付きグラフがカットEによってp側のノード集合とq側のノード集合に切り離された場合、p側の画素とq側の画素の境界線上で隣接する全てのp側の画素とq側の画素のペアを結んでいたエッジは切り離されているので、カットEに属する。
そこで、全ての隣接するp側の画素uとq側の画素vについて、それを結んでいたエッジの重み(平滑化項)C(u,v)が、カットEのコスト関数に加算される。
この重みC(u,v)が小さいほど、画素ペア(u,v)の近傍では基準最近似画像のデータP[p]と相補画像のデータP[q]の差がなく、したがって境界線が目立たないことになる。
When the weighted graph is cut into the p-side node set and the q-side node set by cut E, all the p-side pixels and q-side pixels that are adjacent on the boundary line between the p-side pixel and the q-side pixel Since the edges that connected the pair are separated, they belong to cut E.
Therefore, for all adjacent p-side pixels u and q-side pixels v, the edge weight (smoothing term) C (u, v) connecting them is added to the cost function of cut E.
As the weight C (u, v) is smaller, there is no difference between the data P [p] of the reference most approximate image and the data P [q] of the complementary image in the vicinity of the pixel pair (u, v). It will not stand out.
また、p側に属するsourceノードとq側に入れられた全ての画素とを結んでいたエッジも必然的に切り離されるので、カットEに属する。
そこで、全てのq側の画素uについて、それとsourceノードを結んでいたエッジの重み(データ項)Cq(u)が、カットEのコスト関数に加算される。
この重みCq(u)が小さいほど、画素uにおいては相補画像のデータP[q]と基準画像Bのデータの差がなく、従って、この画素uにおいては相補画像のデータP[q]の画素値を採用して良かったということになる。
In addition, since the edge connecting the source node belonging to the p side and all the pixels placed on the q side is inevitably separated, it belongs to the cut E.
Therefore, for all the pixels u on the q side, the edge weight (data term) Cq (u) connecting the source node is added to the cost function of the cut E.
The smaller this weight Cq (u), the smaller the difference between the complementary image data P [q] and the reference image B data at the pixel u, and therefore the complementary image data P [q] pixel at this pixel u. It means that it was good to adopt the value.
逆に、q側に属するsinkノードとp側に入れられた全ての画素とを結んでいたエッジも必然的に切り離されるので、カットEに属する。
そこで、全てのp側の画素uについて、それとsinkノードを結んでいたエッジの重み(データ項)Cp(u)が、カットEのコスト関数に加算される。
この重みCp(u)が小さいほど、画素uにおいては基準最近似画像のデータP[p]と基準画像Bのデータの差がなく、したがって、この画素uにおいては基準最近似画像のデータP[p]の画素値を採用して良かったということになる。
Conversely, the edge connecting the sink node belonging to the q side and all the pixels placed on the p side is inevitably separated, and therefore belongs to the cut E.
Therefore, for all the p-side pixels u, the edge weight (data term) Cp (u) connecting the sink node is added to the cost function of the cut E.
As the weight Cp (u) is smaller, there is no difference between the data P [p] of the reference most approximate image and the data of the reference image B at the pixel u. Therefore, the data P [ It was good to adopt the pixel value of p].
重み付きグラフの全ての可能なカットの中から、このように計算されたコスト関数が最小となるようなカットEを求めれば、そのカットEが、p側の画素とq側の画素の間に境界線を設定して、基準最近似画像のデータP[p]と相補画像のデータP[q]を切り貼りするための、ほぼ最適な2値ラベリングとなる。 If a cut E that minimizes the cost function calculated in this way is obtained from all possible cuts of the weighted graph, the cut E is between the p-side pixel and the q-side pixel. The boundary line is set, and the nearly optimal binary labeling for cutting and pasting the data P [p] of the reference most approximate image and the data P [q] of the complementary image is achieved.
以上説明した一連の手法が、グラフカットと呼ばれる手法であり、その具体的なアルゴリズムは幾つか知られている。
また、同じグラフカットでも、非特許文献1に記載された多値ラベルのグラフカットでは、上述の計算を何度も繰り返す必要があるため、計算処理が膨大となる。これに対して、上述した本実施形態のグラフカットでは、2つのフレームの縮小化連写データを切り貼りするだけなので、2値ラベルのグラフカットとなり、計算処理の負担が軽くなるという効果を奏することが可能になる。
The series of methods described above is a method called a graph cut, and several specific algorithms are known.
In addition, even in the same graph cut, the multi-value label graph cut described in Non-Patent Document 1 requires the above calculation to be repeated many times, and the calculation process becomes enormous. On the other hand, since the graph cut of the present embodiment described above only cuts and pastes the reduced continuous shooting data of two frames, it becomes a graph cut of a binary label and has an effect of reducing the burden of calculation processing. Is possible.
境界設定部74は、このようにして得られた2値ラベルを、合成部65に供給する。 The boundary setting unit 74 supplies the binary label obtained in this way to the synthesis unit 65.
合成部65は、境界設定部74によって決定された2値ラベルを用いて、p側の画素では基準最近似画像のデータP[p]から対応する画素値を採用し、q側の画素では相補画像のデータP[q]から対応する画素値を採用することによって、合成画像のデータを生成する。
合成部65は、合成画像のデータを、表示制御部81に供給する。
The synthesizing unit 65 uses the binary label determined by the boundary setting unit 74 and adopts the corresponding pixel value from the data P [p] of the reference most approximate image for the p-side pixel, and complementary for the q-side pixel. By adopting the corresponding pixel value from the image data P [q], the composite image data is generated.
The composition unit 65 supplies the composite image data to the display control unit 81.
具体的には、図3(C)は、境界設定部74と合成部65の処理結果の具体例を示している。
即ち、図3(A)の例では、基準最近似画像のデータP[p]が画像91のデータで表され、相補画像のデータP[q]が画像92のデータで表され、基準画像Bのデータが画像93のデータで表されている。
この場合、境界設定部74によって作成された2値ラベルについて、基準最近似画像のデータP[p]の画素値を採用すべき領域を白で表し、破棄すべき領域を黒で表すように表示した画像が、図3(C)の画像111である。逆に、相補画像のデータP[q]の画素値を採用すべき領域を白で表し、破棄すべき領域を黒で表すように表示した画像が、図3(C)の画像112である。このように、画像111と画像112は、白黒反転した関係になっている。
このような画像111及び画像112の黒白の境界線(図中点線)として、基準最近似画像のデータP[p]と相補画像のデータP[q]が切り貼りされることによって、図3(C)の合成画像113のデータが得られることになる。
Specifically, FIG. 3C shows a specific example of processing results of the boundary setting unit 74 and the combining unit 65.
That is, in the example of FIG. 3A, the data P [p] of the reference most approximate image is represented by the data of the image 91, the data P [q] of the complementary image is represented by the data of the image 92, and the reference image B These data are represented by the data of the image 93.
In this case, the binary label created by the boundary setting unit 74 is displayed so that the area where the pixel value of the data P [p] of the reference most approximate image should be adopted is represented in white and the area to be discarded is represented in black. The obtained image is the image 111 of FIG. Conversely, an image 112 shown in FIG. 3C is displayed such that the area where the pixel value of the complementary image data P [q] should be adopted is represented in white and the area to be discarded is represented in black. As described above, the image 111 and the image 112 have a black and white reversed relationship.
As the black and white boundary line (dotted line in the figure) of the image 111 and the image 112, the data P [p] of the reference most approximate image and the data P [q] of the complementary image are cut and pasted, so that FIG. ) Of the composite image 113 is obtained.
次に、図4を参照して、図2の画像処理部14が主に実行する画像合成処理について説明する。
図4は、画像合成処理の流れを説明するフローチャートである。
Next, with reference to FIG. 4, an image composition process mainly executed by the image processing unit 14 in FIG. 2 will be described.
FIG. 4 is a flowchart for explaining the flow of the image composition process.
画像合成処理は、操作部18に設けられた釦あるいは選択メニューから入力するユーザの画像合成開始の指示を契機として開始され、次のようなステップS1乃至S13の処理が実行される。 The image composition process is started in response to a user's instruction to start image composition input from a button or selection menu provided on the operation unit 18, and the following processes in steps S1 to S13 are executed.
図4のステップS1において、連写画像取得部41の縮小部51は、連写された結果得られる複数の画像(ここではn枚の画像)のデータの各々を縮小することによって、縮小化連写データP[1]乃至P[n]を生成する。 In step S1 of FIG. 4, the reduction unit 51 of the continuous shot image acquisition unit 41 reduces the data of a plurality of images (here, n images in this case) obtained as a result of the continuous shooting, thereby reducing the reduction sequence. Copy data P [1] to P [n] are generated.
ステップS2において、基準画像生成部61は、ステップS1の処理で生成された縮小化連写データP[1]乃至P[n]から、基準画像Bのデータを生成する。
例えば、上述した図3の例では、ステップS2の処理で、画像93のデータが基準画像Bのデータとして生成されることになる。
In step S2, the reference image generation unit 61 generates data of the reference image B from the reduced continuous shooting data P [1] to P [n] generated in the process of step S1.
For example, in the example of FIG. 3 described above, the data of the image 93 is generated as the data of the reference image B in the process of step S2.
ステップS3において、基準最近似画像選択部62は、ステップS1の処理で生成された縮小化連写データP[1]乃至P[n]から、基準最近似画像のデータP[p]を選択する。
例えば、上述した図3の例では、ステップS3の処理で、画像91のデータが基準最近似画像のデータP[p]として生成されることになる。
In step S3, the reference closest approximate image selection unit 62 selects data P [p] of the reference closest approximate image from the reduced continuous shooting data P [1] to P [n] generated in the process of step S1. .
For example, in the example of FIG. 3 described above, the data of the image 91 is generated as the data P [p] of the reference most approximate image in the process of step S3.
ステップS4において、相補画像選択部63は、ステップS1の処理で生成された縮小化連写データP[1]乃至P[n]から、相補画像のデータP[q]を選択する。
例えば、上述した図3の例では、ステップS4の処理で、画像92のデータが相補画像のデータP[q]として生成されることになる。
In step S4, the complementary image selection unit 63 selects complementary image data P [q] from the reduced continuous shooting data P [1] to P [n] generated in the process of step S1.
For example, in the example of FIG. 3 described above, the data of the image 92 is generated as the data P [q] of the complementary image in the process of step S4.
ステップS5において、2値ラベリング部64は、ステップS2の処理で生成された基準画像Bのデータ、ステップS3において選択された基準最近似画像のデータP[p]、およびステップS4において選択された相補画像のデータP[q]から、コスト関数を設定し、コスト最小化により最適な2値ラベリングを求める。
例えば、上述した図3の例では、ステップS5の処理で、画像101のデータが、基準画像Bのデータと基準最近似画像のデータP[p]との相違度を表すデータとして生成される。また、画像102のデータが、基準画像Bのデータと相補画像のデータP[q]との相違度を表すデータとして生成されることになる。これらのデータは、コスト関数のデータ項として用いられる。
In step S5, the binary labeling unit 64 generates the data of the reference image B generated in the process of step S2, the data P [p] of the reference most approximate image selected in step S3, and the complementary selected in step S4. A cost function is set from the image data P [q], and optimum binary labeling is obtained by cost minimization.
For example, in the example of FIG. 3 described above, the data of the image 101 is generated as data representing the degree of difference between the data of the reference image B and the data P [p] of the reference most approximate image in the process of step S5. Further, the data of the image 102 is generated as data representing the degree of difference between the data of the reference image B and the data P [q] of the complementary image. These data are used as data terms of the cost function.
ステップS6において、合成部65は、ステップS5の処理で求められた2値ラベルに従い、基準最近似画像のデータP[p]と相補画像のデータP[q]の各データを合成することによって、合成画像(後述する通常サイズの合成画像と区別すべく、「縮小化合成画像」と呼ぶ)のデータを生成する。
例えば、上述した図3の例では、ステップS5の処理で求められた2値ラベルに従い、基準最近似画像のデータP[p]から選択して切り出すべき領域を白で現した画像111のデータが生成されることになる。また、当該2値ラベルに従い、相補画像のデータP[q]から選択して切り出すべき領域を白で現した画像112のデータが生成されることになる。その結果、ステップS6の処理で、画像113のデータが、縮小化合成画像のデータとして生成されることになる。
縮小化合成画像のデータが、合成部65から表示制御部81に供給されると、処理はステップS7に進む。
In step S6, the synthesizer 65 synthesizes each data of the reference most approximate image data P [p] and the complementary image data P [q] according to the binary label obtained in the process of step S5. Data of a composite image (referred to as a “reduced composite image” to be distinguished from a normal-size composite image described later) is generated.
For example, in the example of FIG. 3 described above, the data of the image 111 in which the region to be cut out by selecting from the data P [p] of the reference closest approximate image is displayed in white according to the binary label obtained in the process of step S5. Will be generated. In addition, according to the binary label, data of an image 112 in which a region to be cut out by selecting from the complementary image data P [q] is generated in white is generated. As a result, in the process of step S6, the data of the image 113 is generated as the data of the reduced composite image.
When the data of the reduced combined image is supplied from the combining unit 65 to the display control unit 81, the process proceeds to step S7.
ステップS7において、表示制御部81は、合成部65から供給されたデータにより表わされる画像、即ち、縮小化合成画像を表示部19に表示させる。 In step S <b> 7, the display control unit 81 causes the display unit 19 to display an image represented by the data supplied from the combining unit 65, that is, a reduced combined image.
ここで、縮小化合成画像の表示形態は特に限定されず、例えば、表示制御部81は、縮小化合成画像をそのままのサイズ(表示部19の表示サイズよりも小さいサイズ)で表示部19の画面の一部として表示させることができる。また例えば、表示制御部81は、縮小化合成画像のサイズを表示部19の表示サイズまで拡大して、表示部19の画面全体として表示させることができる。
いずれにしても、連写により得られた複数の画像と比較して、解像度が劣化した縮小化合成画像が表示部19に表示される。
最終的にユーザが記録対象として求める合成画像は、連写により得られた複数の画像と比較して略同一の画質の合成画像、即ち、連写により得られた複数の画像のサイズと同一サイズ(通常サイズ)の合成画像であるが、画素数の多い画像の通常サイズの合成処理は一般に処理時間が多くかかり、ユーザの気に入るかどうかが不明な段階で一律に処理を行うことは適切でない。合成による被写体の途切れなどの著しい瑕疵が生じているかどうかは縮小化合成画像でも視認可能であることが多いので、プレビューとしてこの表示を行う。
そこで、ユーザは、操作部18を操作することで、表示部19に表示された縮小化合成画像に対応する通常サイズの合成画像を、記録対象として採用するか否かを指示することができる。
Here, the display form of the reduced composite image is not particularly limited. For example, the display control unit 81 uses the screen of the display unit 19 with the size of the reduced composite image as it is (smaller than the display size of the display unit 19). Can be displayed as part of Further, for example, the display control unit 81 can enlarge the size of the reduced composite image to the display size of the display unit 19 and display it as the entire screen of the display unit 19.
In any case, a reduced composite image with reduced resolution is displayed on the display unit 19 as compared with a plurality of images obtained by continuous shooting.
The composite image finally obtained as a recording target by the user is a composite image having substantially the same image quality as that of a plurality of images obtained by continuous shooting, that is, the same size as the size of the plurality of images obtained by continuous shooting. Although it is a (normal size) composite image, the normal size composite processing of an image with a large number of pixels generally takes a long processing time, and it is not appropriate to perform the processing uniformly at a stage where it is unknown whether the user likes it. Whether or not there is a significant wrinkle such as discontinuity of the subject due to the composition is often visible even in the reduced composite image, so this display is performed as a preview.
Therefore, the user can instruct whether or not to adopt a normal size composite image corresponding to the reduced composite image displayed on the display unit 19 by operating the operation unit 18 as a recording target.
ステップS8において、表示制御部81は、合成画像の採用有無確認を示す画像を表示部19に表示させることによって、当該合成画像の採用有無確認を報知する。
なお、報知の手法は、画像表示に特に限定されず、例えば、合成画像の採用有無確認を示す音声(メッセージ)を図示せぬスピーカから出力する手法を採用してもよい。
In step S <b> 8, the display control unit 81 displays an image indicating whether or not the composite image has been employed on the display unit 19, thereby notifying the confirmation of whether or not the composite image has been employed.
Note that the notification method is not particularly limited to image display. For example, a method of outputting a voice (message) indicating whether or not a composite image has been adopted from a speaker (not shown) may be employed.
ステップS9において、画像合成部42は、合成画像の採用が指示されたか否かを判定する。
ユーザが、操作部18を操作することで、表示部19に表示された縮小化合成画像に対応する通常サイズの合成画像を、記録対象として採用することを指示した場合、ステップS9においてYESであると判定されて、処理はステップS10に進む。
In step S9, the image composition unit 42 determines whether or not an instruction to adopt a composite image has been given.
When the user operates the operation unit 18 to instruct to adopt a normal size composite image corresponding to the reduced composite image displayed on the display unit 19 as a recording target, YES is determined in step S9. And the process proceeds to step S10.
ステップS10において、画像合成部42は、通常サイズの合成画像のデータを生成する。
即ち、基準最近似画像選択部62は、通常サイズの基準最近似画像のデータを取得する。通常サイズの基準最近似画像のデータとは、連写された結果得られる複数の画像のデータのうち、基準最近似画像のデータ(縮小化連写データの1つ)が縮小部51によって縮小される前の画像のデータをいう。
相補画像選択部63は、通常サイズの相補画像のデータを取得する。通常サイズの相補画像のデータとは、連写された結果得られる複数の画像のデータのうち、相補画像のデータ(縮小化連写データの1つ)が縮小部51によって縮小される前の画像のデータをいう。
2値ラベリング部64は、ステップS6の処理で用いた2値ラベルを、通常サイズに補間拡大(アップサンプル)する。単純に0または1のラベル値を最近傍法により補間しても良いし、また例えば線形補間法等により0または1のラベル値を補間して、異なるラベル値の中間位置が[0,1]の間の実数値のα値(後述)となってもよい。
合成部65は、通常サイズに拡大された2値ラベルを、通常サイズの基準最近似画像I[p]と通常サイズの相補画像I[q]の各データに適用することにより、通常サイズの合成画像のデータを生成する。具体的に、画素位置uにおける0または1のラベル値または前記のような補間された[0,1]のα値をA(u)とした時、0がフレームp側、1がフレームq側の選択を表すとすれば、出力画素値はR(u)=I[p](u)×(1-A(u))+I[q](u)×A(u)として計算できる。
通常サイズの合成画像のデータが、合成部65から表示制御部81に供給されると、処理はステップS11に進む。
In step S10, the image composition unit 42 generates data of a normal size composite image.
In other words, the reference closest approximate image selection unit 62 acquires data of a reference closest approximate image having a normal size. The normal-size reference closest approximate image data refers to the reference closest approximate image data (one of the reduced continuous shooting data) among the plurality of image data obtained as a result of continuous shooting, and is reduced by the reduction unit 51. This is the image data before the image.
The complementary image selection unit 63 acquires normal-size complementary image data. Normal size complementary image data refers to an image before complementary image data (one of the reduced continuous shooting data) is reduced by the reduction unit 51 among a plurality of image data obtained as a result of continuous shooting. Data.
The binary labeling unit 64 performs interpolation enlargement (upsampling) of the binary label used in the process of step S6 to a normal size. The label value of 0 or 1 may be simply interpolated by the nearest neighbor method, or the label value of 0 or 1 is interpolated by, for example, linear interpolation, and the intermediate position of different label values is [0,1] It may be a real value α value (described later).
The synthesizing unit 65 applies the binary label expanded to the normal size to each data of the reference approximate image I [p] having the normal size and the complementary image I [q] having the normal size, thereby synthesizing the normal size. Generate image data. Specifically, when A (u) is the 0 or 1 label value at the pixel position u or the α value of [0,1] interpolated as described above, 0 is the frame p side, and 1 is the frame q side. In this case, the output pixel value can be calculated as R (u) = I [p] (u) × (1−A (u)) + I [q] (u) × A (u).
When the normal size composite image data is supplied from the compositing unit 65 to the display control unit 81, the process proceeds to step S11.
ステップS11において、表示制御部81は、合成部65から供給されたデータにより表わされる画像、即ち、通常サイズの合成画像を表示部19の画面全体として表示させる。
これにより、画像合成処理は終了となる。
In step S <b> 11, the display control unit 81 displays an image represented by the data supplied from the combining unit 65, that is, a normal size combined image as the entire screen of the display unit 19.
As a result, the image composition process ends.
これに対して、ユーザにとって、ステップS7の処理で表示部19に表示された縮小化合成画像が所望の画像でなかった場合には、合成画像を記録対象として採用しないという指示がなされる。このような場合には、ステップS9においてNOであると判定されて、処理はステップS12に進む。 In contrast, if the reduced composite image displayed on the display unit 19 in step S7 is not a desired image, the user is instructed not to employ the composite image as a recording target. In such a case, it is determined as NO in Step S9, and the process proceeds to Step S12.
ステップS12において、基準最近似画像選択部62は、通常サイズの基準最近似画像のデータを取得する。
通常サイズの基準最近似画像のデータが、基準最近似画像選択部62から合成部65を介して表示制御部81に供給されると、処理はステップS13に進む。
In step S <b> 12, the reference closest approximate image selection unit 62 acquires data of a reference closest approximate image having a normal size.
When the data of the standard closest approximate image having the normal size is supplied from the reference closest approximate image selecting unit 62 to the display control unit 81 via the synthesizing unit 65, the process proceeds to step S13.
ステップS13において、表示制御部81は、基準最近似画像選択部62から合成部65を介して供給されたデータにより表わされる画像、即ち、通常サイズの基準最近似画像を代替画像として表示する。これは、最も動物体の少ない瞬間の画像であることから、ユーザの所望の画像に一応近い画像であると考えられ、また単一の画像であるから合成による瑕疵のない画像である。
これにより、画像合成処理は終了となる。
In step S <b> 13, the display control unit 81 displays an image represented by the data supplied from the reference closest approximation image selection unit 62 via the synthesis unit 65, i.e., a normal size reference closest approximation image as a substitute image. Since this is an image at the moment with the smallest number of moving objects, it is considered to be an image that is close to the user's desired image, and since it is a single image, it is an image free from wrinkles due to synthesis.
As a result, the image composition process ends.
以上説明したように、本実施形態の撮像装置1は、時間的に連続した略同一画角の複数の画像から、二枚の相補的画像を選択し、グラフカットなどの手法によって夫々に最適な境界を設定して、切り貼りを行うことにより、軽い計算処理で、動物体を除去した合成画像を得ることができる。
特許文献1などの手法では、平均化により、ぼんやりした動物体の痕跡が残るという問題があったが、本実施形態では、平均化ではなく切り貼りによって合成するので、そのような痕跡は残らない。また、グラフカット法によれば、動物体を横切るような境界を極力避けることができるので、動物体の切れ端も残りにくい。さらに、多値ラベルのグラフカットは膨大な計算処理が必要であったが、2値ラベルのグラフカットは計算処理を多値ラベルのグラフカットに比べて極めて軽くすることができる。
As described above, the imaging apparatus 1 according to the present embodiment selects two complementary images from a plurality of images having substantially the same angle of view that are temporally continuous, and is optimal for each by a technique such as graph cut. By setting the boundary and cutting and pasting, it is possible to obtain a composite image from which the moving object is removed by light calculation processing.
In the technique of Patent Document 1 or the like, there is a problem that a faint trace of a moving object remains by averaging. However, in the present embodiment, since the synthesis is performed by cutting and pasting instead of averaging, such a trace does not remain. In addition, according to the graph cut method, a boundary that crosses the moving object can be avoided as much as possible, so that it is difficult for the fragments of the moving object to remain. Furthermore, the graph cut of the multi-valued label requires enormous calculation processing, but the graph cut of the binary label can make the calculation processing extremely light compared to the graph cut of the multi-value label.
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
例えば、上述の実施形態では、先ず基準最近似画像のデータを選択してから、次にそれと組み合わせる相補画像のデータを選択していたが、前述の如く、あくまでも2つの画像データを組み合わせた結果が基準画像のデータに最も近似すれば良いのであるから、縮小化連写データの中から任意の2フレームを全て調べ、その中から最適の組み合わせ(p,q)を選択するという実施形態も考えられる。具体的には、数式(1)及び(2)に差し替えて、下記の数式(6)を使用すれば実現できる。
さらに、組み合わせる画像も必ずしも2フレームには限定されず、3フレーム以上を組み合わせることもできる。その場合、3値以上のラベリングとなり、処理時間は増えるが、nより十分少ないフレーム数であれば、十分高速に処理することができる。
また、相違度の設計には、差分絶対値や差分二乗値、相関値の反転、また輝度のみや色成分の和、またそれを単調関数で変換したりクリップしたり、様々なバリエーションがあり得る。
For example, in the above-described embodiment, first, the data of the reference closest approximate image is selected, and then the complementary image data to be combined therewith is selected. However, as described above, the result of combining the two image data is only the result. Since it is only necessary to approximate to the data of the reference image, an embodiment in which any two frames are examined from the reduced continuous shooting data and the optimum combination (p, q) is selected from the two frames is considered. . Specifically, it can be realized by using the following formula (6) instead of formulas (1) and (2).
Furthermore, the images to be combined are not necessarily limited to two frames, and three or more frames can be combined. In this case, the labeling is ternary or more, and the processing time increases. However, if the number of frames is sufficiently smaller than n, the processing can be performed at a sufficiently high speed.
In addition, there can be various variations in the design of the degree of difference, such as the difference absolute value, the difference square value, the inversion of the correlation value, the luminance alone or the sum of the color components, or the conversion or clipping of the sum by a monotone function. .
例えば、上述の実施形態では、画像合成処理の処理対象は、連写された結果得られる複数の画像のデータ(通常サイズのデータ)を縮小したものとされたが、特にこれに限定されない。
例えば、処理時間が許されるのであれば、連写された結果得られる複数の画像のデータ(通常サイズのデータ)を、画像合成処理の処理対象としてもよい。
For example, in the above-described embodiment, the processing target of the image compositing process is obtained by reducing the data (normal size data) of a plurality of images obtained as a result of continuous shooting, but is not particularly limited thereto.
For example, if the processing time is allowed, data of a plurality of images (normal size data) obtained as a result of continuous shooting may be used as the processing target of the image composition processing.
また例えば、上述の実施形態では、本発明が適用される画像処理装置は、デジタルカメラ等の撮像装置として構成される例として説明した。しかしながら、本発明は、撮像装置に特に限定されず、撮像機能の有無を問わず(連写された結果得られる複数の画像のデータは別の装置から取得してもよい)、上述の画像処理を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。 For example, in the above-described embodiment, the image processing apparatus to which the present invention is applied has been described as an example configured as an imaging apparatus such as a digital camera. However, the present invention is not particularly limited to the imaging apparatus, and the above-described image processing is performed regardless of the presence or absence of the imaging function (data of a plurality of images obtained as a result of continuous shooting may be acquired from another apparatus). It can be applied to general electronic devices that can execute the above. Specifically, for example, the present invention can be applied to a personal computer, a video camera, a portable navigation device, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。 The series of processes described above can be executed by hardware or can be executed by software.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。 When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディアは、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。 The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preinstalled in the apparatus main body is configured by, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage unit 20 in FIG.
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、15・・・バス、16・・・入出力インターフェース、17・・・撮像部、18・・・操作部、19・・・表示部、20・・・記憶部、21・・・通信部、22・・・ドライブ、41・・・連写画像取得部、42・・・画像合成部、51・・・縮小部、61・・・基準画像生成部、62・・・最近似画像選択部、63・・・相補画像選択部、64・・・2値ラベリング部、65・・・合成部、71・・・第1相違度算出部、72・・・第2相違度算出部、73・・・コスト関数設定部、74・・・境界設定部、81・・・表示制御部
DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17 ... Image pick-up unit, 18 ... operation unit, 19 ... display unit, 20 ... storage unit, 21 ... communication unit, 22 ... drive, 41 ... continuous-shot image acquisition unit, 42 ..Image composition unit, 51... Reduction unit, 61... Reference image generation unit, 62... Closest approximation image selection unit, 63... Complementary image selection unit, 64. 65... Composition unit, 71... First difference calculation unit, 72... Second difference calculation unit, 73... Cost function setting unit, 74. Display control unit
Claims (17)
前記画像取得手段により取得された複数の画像データに基づいて、画像合成のための基準画像データを生成する生成手段と、
前記生成手段により生成された基準画像データに基づいて、少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段と、
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、
前記境界設定手段により設定された境界に基づいて、前記選択手段により選択された二つ以上の画像データを合成する合成手段と、
を備えることを特徴とする画像処理装置。 Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Generating means for generating reference image data for image synthesis based on a plurality of image data acquired by the image acquisition means;
Selection means for selecting at least two or more image data from a plurality of image data acquired by the image acquisition means based on the reference image data generated by the generation means;
Boundary setting means for setting a boundary between two or more image data selected by the selection means;
A combining unit that combines two or more image data selected by the selection unit based on the boundary set by the boundary setting unit;
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1.
画像合成のための基準画像データを取得する基準画像取得手段と、Reference image acquisition means for acquiring reference image data for image composition;
前記基準画像取得手段により取得された基準画像データに基づいて、合成の結果の画像が前記基準画像データの画像に類似すると判断できる少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段と、Based on the reference image data acquired by the reference image acquisition means, a plurality of image data acquired by the image acquisition means that is at least two or more image data that can be determined to be similar to the image of the reference image data. Selecting means for selecting from the image data of
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、Boundary setting means for setting a boundary between two or more image data selected by the selection means;
前記境界設定手段により設定された境界に基づいて、前記選択手段により選択された二つ以上の画像データを合成する合成手段と、A combining unit that combines two or more image data selected by the selection unit based on the boundary set by the boundary setting unit;
を備えることを特徴とする画像処理装置。An image processing apparatus comprising:
合成の結果の画像が前記基準画像データの画像に最も類似するような少なくとも二つ以上の画像データを選択することを特徴とする請求項4に記載の画像処理装置。5. The image processing apparatus according to claim 4, wherein at least two or more pieces of image data are selected such that an image resulting from the synthesis is most similar to an image of the reference image data.
前記選択手段により選択された二つ以上の画像データの前記基準画像データに対する相違度を算出する第2の相違度算出手段と、Second dissimilarity calculating means for calculating the dissimilarity of the two or more image data selected by the selecting means with respect to the reference image data;
前記第1の相違度算出手段により算出された相違度と前記第2の相違度算出手段により算出された相違度とを変数とする関数を設定する関数設定手段と、Function setting means for setting a function having the difference calculated by the first difference calculation means and the difference calculated by the second difference calculation means as variables;
を更に備え、Further comprising
前記境界設定手段は、前記関数設定手段により設定された関数が最小の値となるように、選択された二つ以上の画像データに境界を設定するThe boundary setting unit sets a boundary for two or more selected image data so that the function set by the function setting unit has a minimum value.
ことを特徴とする請求項1から5の何れかに記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像合成のための基準画像データを取得する基準画像取得手段と、
前記基準画像取得手段により取得された前記基準画像データに画素値が類似した少なくとも一つの画像データを、前記画像取得手段により取得された複数の画像データから選択する第1の選択手段と、
合成結果の画像が前記基準画像データの画像に更に類似した画像となるような前記第1の選択手段により選択された画像データとは異なる画像データを、前記画像取得手段により取得された複数の画像データから少なくとも一つ選択する第2の選択手段と、
前記第1の選択手段及び前記第2の選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段と、
を備えることを特徴とする画像処理装置。 Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Reference image acquisition means for acquiring reference image data for image composition;
First selection means for selecting at least one image data pixel value is similar to the reference image data obtained by the reference image acquiring means, from a plurality of image data obtained by the image obtaining means,
A plurality of images acquired by the image acquisition unit, the image data different from the image data selected by the first selection unit, such that the resultant image becomes an image more similar to the image of the reference image data. Second selection means for selecting at least one from the data ;
Boundary setting means for setting a boundary between two or more image data selected by the first selection means and the second selection means;
Combining means for combining the two or more image data based on the boundary set by the boundary setting means;
The image processing apparatus comprising: a.
前記第1の選択手段及び前記第2の選択手段により選択された二つ以上の画像データの前記基準画像データに対する相違度を算出する第2の相違度算出手段と、
前記第1の相違度算出手段により算出された相違度と前記第2の相違度算出手段により算出された相違度とを変数とする関数を設定する関数設定手段と、
を更に備え、
前記境界設定手段は、前記関数設定手段により設定された関数が最小の値となるように、前記二つ以上の画像データに境界を設定する
ことを特徴とする請求項7に記載の画像処理装置。 First difference calculation means for calculating a difference between the image data selected by the first selection means and the second selection means for adjacent pixels in each image data;
Second dissimilarity calculating means for calculating the dissimilarity of the two or more image data selected by the first selecting means and the second selecting means with respect to the reference image data;
Function setting means for setting a function having the difference calculated by the first difference calculation means and the difference calculated by the second difference calculation means as variables;
Further comprising
The demarcation means such that said function function set by the setting means becomes a minimum value, the image processing apparatus according to claim 7, characterized in that to set the boundary to the two or more image data .
前記画像取得手段は、前記撮像手段から出力された複数の画像データを、前記時間的に連続した略同一画角の複数の画像データとして取得する、
ことを特徴とする請求項1から9の何れかに記載の画像処理装置。 It further includes imaging means for imaging a plurality of times at substantially the same angle of view continuously in time, and outputting image data obtained as a result of the plurality of times of imaging,
The image acquisition means acquires a plurality of image data output from the imaging means as a plurality of image data having substantially the same angle of view that is continuous in time.
The image processing apparatus according to any one of claims 1-9, characterized in that.
を更に備えることを特徴とする請求項1から10の何れかに記載の画像処理装置。 Processing means for processing to reduce the amount of information of the plurality of image data;
The image processing apparatus according to any one of claims 1 to 10, further comprising a.
前記画像取得ステップにより取得された複数の画像データに基づいて、画像合成のための基準画像データを生成する生成ステップと、
前記生成ステップにより生成された基準画像データに基づいて、少なくとも二つ以上の画像データを前記画像取得ステップにより取得された複数の画像データから選択する選択ステップと、
前記選択ステップにより選択された二つ以上の画像データに境界を設定する境界設定ステップと、
前記境界設定ステップにより設定された境界に基づいて、前記選択ステップにより選択された二つ以上の画像データを合成する合成ステップと、
を含むことを特徴とする画像処理方法。 An image acquisition step of acquiring a plurality of image data having substantially the same angle of view that is continuous in time;
A generating step for generating reference image data for image synthesis based on the plurality of image data acquired by the image acquiring step;
A selection step of selecting at least two or more image data from the plurality of image data acquired by the image acquisition step based on the reference image data generated by the generation step;
A boundary setting step for setting a boundary between two or more image data selected by the selection step;
A synthesis step of synthesizing two or more image data selected by the selection step based on the boundary set by the boundary setting step;
An image processing method comprising:
画像合成のための基準画像データを取得する基準画像取得ステップと、A reference image acquisition step of acquiring reference image data for image synthesis;
前記基準画像取得ステップにより取得された基準画像データに基づいて、合成の結果の画像が前記基準画像データの画像に類似すると判断できる少なくとも二つ以上の画像データを前記画像取得ステップにて取得された複数の画像データから選択する選択ステップと、Based on the reference image data acquired in the reference image acquisition step, at least two or more pieces of image data that can be determined to be similar to the image of the reference image data are acquired in the image acquisition step. A selection step of selecting from a plurality of image data;
前記選択ステップにて選択された二つ以上の画像データに境界を設定する境界設定ステップと、A boundary setting step for setting a boundary between two or more image data selected in the selection step;
前記境界設定ステップにて設定された境界に基づいて、前記選択ステップにて選択された二つ以上の画像データを合成する合成ステップと、Based on the boundary set in the boundary setting step, a combining step of combining two or more image data selected in the selection step;
を含むことを特徴とする画像処理方法。An image processing method comprising:
画像合成のための基準画像データを取得する基準画像取得ステップと、A reference image acquisition step of acquiring reference image data for image synthesis;
前記基準画像取得ステップにより取得された前記基準画像データに画素値が類似した少なくとも一つの画像データを、前記画像取得ステップにより取得された複数の画像データから選択する第1の選択ステップと、A first selection step of selecting at least one image data similar in pixel value to the reference image data acquired by the reference image acquisition step from a plurality of image data acquired by the image acquisition step;
合成結果の画像が前記基準画像データの画像に更に類似した画像となるような前記第1の選択ステップにより選択された画像データとは異なる画像データを、前記画像取得ステップにより取得された複数の画像データから少なくとも一つ選択する第2の選択ステップと、A plurality of images acquired by the image acquisition step, the image data different from the image data selected by the first selection step so that the image of the synthesis result is an image more similar to the image of the reference image data A second selection step of selecting at least one from the data;
前記第1の選択ステップ及び前記第2の選択ステップにより選択された二つ以上の画像データに境界を設定する境界設定ステップと、A boundary setting step for setting a boundary between two or more image data selected by the first selection step and the second selection step;
前記境界設定ステップにより設定された境界に基づいて、前記二つ以上の画像データを合成する合成ステップと、A combining step of combining the two or more image data based on the boundary set by the boundary setting step;
を含むことを特徴とする画像処理方法。An image processing method comprising:
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段、
前記画像取得手段により取得された複数の画像データに基づいて、画像合成のための基準画像データを生成する生成手段、
前記生成手段により生成された基準画像データに基づいて、少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段、
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段と、
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段、
として機能させるためのプログラム。 Computer
Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
Generating means for generating reference image data for image synthesis based on a plurality of image data acquired by the image acquiring means;
Selection means for selecting at least two or more image data from a plurality of image data acquired by the image acquisition means based on the reference image data generated by the generation means;
Boundary setting means for setting a boundary between two or more image data selected by the selection means;
A combining means for combining the two or more image data based on the boundary set by the boundary setting means;
Program to function as.
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段、Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
画像合成のための基準画像データを取得する基準画像取得手段、Reference image acquisition means for acquiring reference image data for image synthesis;
前記基準画像取得手段により取得された基準画像データに基づいて、合成の結果の画像が前記基準画像データの画像に類似すると判断できる少なくとも二つ以上の画像データを前記画像取得手段により取得された複数の画像データから選択する選択手段、Based on the reference image data acquired by the reference image acquisition means, a plurality of image data acquired by the image acquisition means that is at least two or more image data that can be determined to be similar to the image of the reference image data. Selection means for selecting from the image data of
前記選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段、Boundary setting means for setting a boundary between two or more image data selected by the selection means;
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段、A combining means for combining the two or more image data based on the boundary set by the boundary setting means;
として機能させるためのプログラム。Program to function as.
時間的に連続した略同一画角の複数の画像データを取得する画像取得手段、Image acquisition means for acquiring a plurality of pieces of image data having substantially the same angle of view continuous in time;
画像合成のための基準画像データを取得する基準画像取得手段、Reference image acquisition means for acquiring reference image data for image synthesis;
前記基準画像取得手段により取得された前記基準画像データに画素値が類似した少なくとも一つの画像データを、前記画像取得手段により取得された複数の画像データから選択する第1の選択手段、First selection means for selecting, from a plurality of image data acquired by the image acquisition means, at least one image data having a pixel value similar to the reference image data acquired by the reference image acquisition means;
合成結果の画像が前記基準画像データの画像に更に類似した画像となるような前記第1の選択手段により選択された画像データとは異なる画像データを、前記画像取得手段により取得された複数の画像データから少なくとも一つ選択する第2の選択手段、A plurality of images acquired by the image acquisition unit, the image data different from the image data selected by the first selection unit, such that the resultant image becomes an image more similar to the image of the reference image data. A second selection means for selecting at least one from the data;
前記第1の選択手段及び前記第2の選択手段により選択された二つ以上の画像データに境界を設定する境界設定手段、Boundary setting means for setting a boundary between two or more image data selected by the first selection means and the second selection means;
前記境界設定手段により設定された境界に基づいて、前記二つ以上の画像データを合成する合成手段、A combining means for combining the two or more image data based on the boundary set by the boundary setting means;
として機能させるためのプログラム。Program to function as.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010197654A JP5531865B2 (en) | 2010-09-03 | 2010-09-03 | Image processing apparatus, image processing method, and program |
US13/224,087 US8731328B2 (en) | 2010-09-03 | 2011-09-01 | Image processing apparatus, method and recording medium for generating a composite image |
CN201410068998.9A CN103856726B (en) | 2010-09-03 | 2011-09-02 | Image processing device and image processing method |
CN2011102581265A CN102387296A (en) | 2010-09-03 | 2011-09-02 | Image processing apparatus, method and recording medium for generating a composite image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010197654A JP5531865B2 (en) | 2010-09-03 | 2010-09-03 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012054873A JP2012054873A (en) | 2012-03-15 |
JP2012054873A5 JP2012054873A5 (en) | 2013-10-17 |
JP5531865B2 true JP5531865B2 (en) | 2014-06-25 |
Family
ID=45770778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010197654A Expired - Fee Related JP5531865B2 (en) | 2010-09-03 | 2010-09-03 | Image processing apparatus, image processing method, and program |
Country Status (3)
Country | Link |
---|---|
US (1) | US8731328B2 (en) |
JP (1) | JP5531865B2 (en) |
CN (2) | CN102387296A (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103312938B (en) * | 2012-03-16 | 2016-07-06 | 富士通株式会社 | Video process apparatus, method for processing video frequency and equipment |
CN103310221B (en) * | 2012-03-16 | 2016-04-13 | 富士通株式会社 | Image processing apparatus, image processing method and equipment |
CN104580882B (en) * | 2014-11-03 | 2018-03-16 | 宇龙计算机通信科技(深圳)有限公司 | The method and its device taken pictures |
CN104361070B (en) * | 2014-11-11 | 2018-05-08 | 惠州Tcl移动通信有限公司 | Save continuous photo storage method, photo restoring method and the system of memory space |
CN106331482A (en) * | 2016-08-23 | 2017-01-11 | 努比亚技术有限公司 | Photo processing device and method |
CN107426486A (en) * | 2017-04-19 | 2017-12-01 | 宇龙计算机通信科技(深圳)有限公司 | Preview image synthetic method and system |
JP7485449B2 (en) * | 2019-07-25 | 2024-05-16 | Necソリューションイノベータ株式会社 | Monitoring device, monitoring method, and program |
KR102279867B1 (en) * | 2020-06-02 | 2021-07-21 | 주식회사 슈프리마아이디 | A method for generating an image that light noise is removed and an image generating device using the method for generating an image |
CN117581529A (en) * | 2021-11-30 | 2024-02-20 | 三菱电机株式会社 | Abnormality detection program, abnormality detection device, and abnormality detection method |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128416A (en) * | 1993-09-10 | 2000-10-03 | Olympus Optical Co., Ltd. | Image composing technique for optimally composing a single image from a plurality of digital images |
JPH11225344A (en) | 1998-02-05 | 1999-08-17 | Matsushita Electric Ind Co Ltd | Digital camera |
US6816627B2 (en) * | 2001-04-12 | 2004-11-09 | Lockheed Martin Corporation | System for morphological image fusion and change detection |
GB0227565D0 (en) * | 2002-11-26 | 2002-12-31 | British Telecomm | Method and system for generating panoramic images from video sequences |
US20040189849A1 (en) * | 2003-03-31 | 2004-09-30 | Hofer Gregory V. | Panoramic sequence guide |
US7747067B2 (en) * | 2003-10-08 | 2010-06-29 | Purdue Research Foundation | System and method for three dimensional modeling |
CN100337473C (en) * | 2004-09-30 | 2007-09-12 | 中国科学院计算技术研究所 | Panorama composing method for motion video |
JP4341629B2 (en) * | 2006-01-27 | 2009-10-07 | カシオ計算機株式会社 | Imaging apparatus, image processing method, and program |
US7925089B2 (en) * | 2007-09-18 | 2011-04-12 | Microsoft Corporation | Optimization of multi-label problems in computer vision |
JP4623199B2 (en) * | 2008-10-27 | 2011-02-02 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP4770924B2 (en) * | 2008-12-17 | 2011-09-14 | ソニー株式会社 | Imaging apparatus, imaging method, and program |
KR101603791B1 (en) * | 2009-03-18 | 2016-03-17 | 삼성전자주식회사 | Method for fabricating a panorama |
CN101771878B (en) * | 2010-01-14 | 2011-05-25 | 广西大学 | Self-adaptively selecting global motion estimation method for panoramic video coding |
-
2010
- 2010-09-03 JP JP2010197654A patent/JP5531865B2/en not_active Expired - Fee Related
-
2011
- 2011-09-01 US US13/224,087 patent/US8731328B2/en not_active Expired - Fee Related
- 2011-09-02 CN CN2011102581265A patent/CN102387296A/en active Pending
- 2011-09-02 CN CN201410068998.9A patent/CN103856726B/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102387296A (en) | 2012-03-21 |
US20120057805A1 (en) | 2012-03-08 |
CN103856726B (en) | 2017-04-12 |
JP2012054873A (en) | 2012-03-15 |
CN103856726A (en) | 2014-06-11 |
US8731328B2 (en) | 2014-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5531865B2 (en) | Image processing apparatus, image processing method, and program | |
US10277812B2 (en) | Image processing to obtain high-quality loop moving image | |
TWI379588B (en) | ||
JP4750854B2 (en) | Image processing method and apparatus and program thereof | |
EP2545411B1 (en) | Panorama imaging | |
JP5664626B2 (en) | Image processing apparatus, image processing method, and program | |
US20110141224A1 (en) | Panorama Imaging Using Lo-Res Images | |
CN112367459B (en) | Image processing method, electronic device, and non-volatile computer-readable storage medium | |
JP2009194896A (en) | Image processing device and method, and imaging apparatus | |
KR20070108817A (en) | Image processing apparatus, image processing method, and program | |
WO2012032412A2 (en) | Stereoscopic (3d) panorama creation on handheld device | |
JP2006094058A (en) | Image processing apparatus, program, and method for pre-process to reproduce stationary image as dynamic image | |
JP2011049952A (en) | Image generating apparatus and electronic camera | |
JP4507948B2 (en) | Imaging apparatus, image processing method and program for captured image | |
JP2014021928A (en) | Image processor, image processing method and program | |
JP6261205B2 (en) | Image processing device | |
JP2018037857A (en) | Image processing system, image processing method and program | |
JP5581728B2 (en) | Image processing apparatus and method, and program | |
JP2011035514A (en) | Image processing device and method, and program | |
JP7057079B2 (en) | Image processing device, image pickup device, image processing method, and program | |
JP2017143354A (en) | Image processing apparatus and image processing method | |
JP2013020528A (en) | Image processing device, method, and program | |
JP2009044329A (en) | Program, image processing method, and image processor | |
CN111698389A (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP7214511B2 (en) | Image processing device, imaging device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130829 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130829 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20130903 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20130920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140325 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5531865 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |