JP2010258885A - Image capturing apparatus and image processing method - Google Patents

Image capturing apparatus and image processing method Download PDF

Info

Publication number
JP2010258885A
JP2010258885A JP2009108059A JP2009108059A JP2010258885A JP 2010258885 A JP2010258885 A JP 2010258885A JP 2009108059 A JP2009108059 A JP 2009108059A JP 2009108059 A JP2009108059 A JP 2009108059A JP 2010258885 A JP2010258885 A JP 2010258885A
Authority
JP
Japan
Prior art keywords
image
image information
shift
images
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009108059A
Other languages
Japanese (ja)
Inventor
Haike Guan
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009108059A priority Critical patent/JP2010258885A/en
Publication of JP2010258885A publication Critical patent/JP2010258885A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image capturing apparatus capable of performing alignment processing by detecting shift between images when synthesizing a dynamic-range enlarged image from a plurality of images. <P>SOLUTION: An image capturing apparatus includes: a first image information capturing means 106 for capturing image information; an image specifying means 105 which calculates a feature value of image information from the image information captured by the first image information capturing means and specifies a partial region representing image features based on the image feature value; a second image information capturing means 101 for capturing image information; an image shift means 102 which inputs a plurality of image information items having different lengths of exposure time by means of the second image information capturing means and uses image partial region information specified by the image specifying means to detect a shift amount between images; a correction means 103 for performing inter-image shift correction processing according to the inter-image shift amount detected by the image shift means; and an image synthesis processing means 104 for synthesizing a wide dynamic-range image while using the images on which the shift correction processing has been performed by the correction means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置、画像処理方法に関するものである。   The present invention relates to an imaging apparatus and an image processing method.

一般に、デジタルカメラ等の撮影装置においては、CCD撮像素子などの固体撮像素子が用いられているが、固体撮像素子のダイナミックレンジは銀塩写真フィルムに比べ極めて狭いという問題点がある。そこで、従来から撮影装置のダイナミックレンジ拡大のために種々の技術が開発されている。   In general, in a photographing apparatus such as a digital camera, a solid-state image pickup device such as a CCD image pickup device is used. However, there is a problem that the dynamic range of the solid-state image pickup device is extremely narrow compared to a silver salt photographic film. Therefore, various techniques have been developed for expanding the dynamic range of the photographing apparatus.

例えば、特許文献1,2に開示されているように、同一被写体に対して露光量の異なる複数回の撮影、すなわち長時間露光と短時間露光の撮影を行って合成処理をし、通常の撮影画像に比べてダイナミックレンジの拡大を図るという方式がある。   For example, as disclosed in Patent Documents 1 and 2, a plurality of shootings with different exposure amounts are performed on the same subject, that is, shooting with long exposure and short exposure is performed, and a normal processing is performed. There is a method of expanding the dynamic range as compared with an image.

上記複数回撮影によるダイナミックレンジの拡大方式では、ダイナミックレンジの拡大効果はあるが、複数回の撮影のため、撮影時に手ぶれが生じないように注意する必要がある。手ぶれが発生すると、そのまま合成した画像は2重像になってしまう。三脚などを使って撮影装置を固定すれば、ダイナミックレンジの拡大を図りつつも手ぶれを抑制して画像間のずれを防ぐことができるが、三脚を使えない場合はよくある。   The above-described dynamic range expansion method by multiple shooting has an effect of expanding the dynamic range, but since multiple shooting is performed, care must be taken not to cause camera shake during shooting. When camera shake occurs, the synthesized image becomes a double image. If the camera is fixed using a tripod or the like, it is possible to prevent camera shake by preventing camera shake while expanding the dynamic range, but often it is not possible to use a tripod.

そこで、画像間のずれ量を測定し、画像間の位置合わせ後、画像合成する方法も考えられるが、得られてから画像間位置ずれの測定とずれ補正処理を撮影装置の内部で行うと、処理時間が長くなるという課題がある。   Therefore, a method of measuring the amount of displacement between images and combining the images after alignment between images is also conceivable, but when measurement and displacement correction processing between images are performed inside the imaging device after being obtained, There exists a subject that processing time becomes long.

本発明は、複数枚の画像によるダイナミックレンジ拡大画像を合成するとき、画像間のずれを検知し、位置合わせ処理を高速に行える画像処理方法と撮像装置を提供することを、その目的とする。   It is an object of the present invention to provide an image processing method and an imaging apparatus that can detect a shift between images and perform alignment processing at a high speed when synthesizing a dynamic range expanded image of a plurality of images.

上記目的を達成するため、本発明にかかる撮影装置では、画像情報を取得する第一の画像情報取得手段と、第一の画像情報取得手段で取得した画像情報から画像情報の特徴量を求め、画像の特徴量による画像の特徴を現す部分領域を特定する画像特定手段と、画像情報を取得する第二の画像情報取得手段と、第二の画像情報取得手段により、露光時間の長さが異なる複数画像情報を入力し、画像特定手段で特定した画像部分領域情報を用いて画像間のずれ量を検知する画像位置ずれ手段と、画像位置ずれ手段で検知された画像間のずれ量による画像間ずれ補正処理する補正手段と、補正手段でずれ補正処理された画像を用いて広いダイナミックレンジ画像を合成処理する画像合成処理手段とを備えている。   In order to achieve the above object, in the photographing apparatus according to the present invention, a first image information acquisition unit for acquiring image information, and a feature amount of the image information from the image information acquired by the first image information acquisition unit, The length of the exposure time differs depending on the image specifying means for specifying the partial region that represents the image feature based on the image feature amount, the second image information acquiring means for acquiring the image information, and the second image information acquiring means. Image position shift means for detecting the shift amount between images using the image partial area information specified by the image specifying means by inputting multiple image information, and between the images based on the shift amount between images detected by the image position shift means A correction unit that performs a shift correction process and an image synthesis process unit that performs a synthesis process on a wide dynamic range image using the image that has been corrected by the correction unit.

本発明にかかる撮影装置において、第一の画像情報取得手段で取得した画像情報の特徴量が画像のコントラストの場合、画像特定手段は、画像情報をブロックに分割し、ブロック毎にコントラストの平均値を求め、コントラスト平均値の高いブロック位置を特定する画像部分領域を特定し、補正手段は、画像特定手段で特定した部分領域情報を用いて、画像間のずれ量を検知、補正する。   In the photographing apparatus according to the present invention, when the feature amount of the image information acquired by the first image information acquisition unit is the contrast of the image, the image specifying unit divides the image information into blocks, and the average value of the contrast for each block The image partial area for specifying the block position having a high contrast average value is specified, and the correction means detects and corrects the shift amount between the images using the partial area information specified by the image specifying means.

本発明にかかる撮影装置において、第一の画像情報取得手段で取得した画像情報の特徴量が画像に映った人物の顔領域の場合、画像特定手段は、顔領域を画像の特徴を現す部分領域とし、補正手段は、画像特定手段で特定した部分領域情報を用いて、画像間のずれ量を検知、補正する。   In the photographing apparatus according to the present invention, when the feature amount of the image information acquired by the first image information acquisition unit is a face region of a person shown in the image, the image specifying unit displays the facial region as a partial region that represents the feature of the image. The correcting means detects and corrects the amount of deviation between images using the partial area information specified by the image specifying means.

本発明に係る画像処理方法は、画像情報を取得する第一の画像情報取得ステップと、第一の画像情報取得ステップで取得した画像情報から画像情報の特徴量を求め、画像の特徴量による画像の特徴を現す部分領域を特定する画像特定ステップと、画像情報を取得す第二の画像情報取得ステップと、第二の画像情報取得ステップにより露光時間の長さが異なる複数画像情報を入力し、画像特定ステップで特定した画像部分領域情報を用いて、画像間のずれ量を検知する画像位置ずれステップと、画像位置ずれステップで検知された画像間のずれ量による画像間ずれ補正処理する補正ステップと、補正ステップでずれ補正処理された画像を用いて、広いダイナミックレンジ画像を合成処理する画像合成処理ステップを備えている。   An image processing method according to the present invention includes: a first image information acquisition step for acquiring image information; a feature amount of the image information is obtained from the image information acquired in the first image information acquisition step; Input a plurality of pieces of image information having different exposure time lengths by an image specifying step for specifying a partial region that expresses the feature of the image, a second image information acquiring step for acquiring image information, and a second image information acquiring step, An image position shift step for detecting a shift amount between images using the image partial area information specified in the image specifying step, and a correction step for performing an image shift correction process based on the shift amount between images detected in the image position shift step. And an image synthesizing process step for synthesizing a wide dynamic range image using the image subjected to the shift correction process in the correcting step.

本発明に係る画像処理方法において、第一の画像情報取得ステップで取得した画像情報の特徴量が画像のコントラストの場合、画像特定ステップでは、画像情報をブロックに分割し、ブロック毎にコントラストの平均値を求め、コントラスト平均値の高いブロック位置を特定する画像部分領域を特定し、補正ステップでは、画像特定ステップで特定した部分領域情報を用いて、画像間のずれ量を検知、補正する。   In the image processing method according to the present invention, when the feature amount of the image information acquired in the first image information acquisition step is the contrast of the image, in the image specifying step, the image information is divided into blocks, and the average of the contrast for each block A value is obtained, and an image partial region that specifies a block position having a high contrast average value is specified. In the correction step, the amount of deviation between images is detected and corrected using the partial region information specified in the image specifying step.

本発明に係る画像処理方法において、第一の画像情報取得ステップで取得した画像情報の特徴量が画像に映った人物の顔領域の場合、画像特定ステップでは、顔領域を画像の特徴を現す部分領域とし、補正ステップでは、画像特定ステップで特定した部分領域情報を用いて、画像間のずれ量を検知、補正する。   In the image processing method according to the present invention, when the feature amount of the image information acquired in the first image information acquisition step is a face region of a person shown in the image, in the image specifying step, the portion indicating the feature of the image in the face region In the correction step, the shift amount between images is detected and corrected using the partial region information specified in the image specifying step.

本発明にかかる画像形成プログラムでは、コンピュータに、上記の何れかに記載の画像処理方法を実行させることを特徴とし、本発明にかかる、コンピュータによって読み取り可能な画像処理プログラムを記録する記憶媒体として、上記画像処理プログラムが記録されていることを特徴としている。   An image forming program according to the present invention causes a computer to execute any one of the image processing methods described above, and a storage medium for recording the computer-readable image processing program according to the present invention, The image processing program is recorded.

本発明にかかる画像処理方法では、第一の画像情報取得手段で画像の特徴を検出するための画像を入力し、入力した画像の縮小処理を行う。次に縮小した画像から画像の特徴を抽出する。特徴量は画像のコントラスト、もしくは人物の顔とする。例えば、画像をブロックに分割し、各ブロック内でコントラスト値の平均値を求め、ブロックの座標と各ブロックのコントラストの平均値を出力する。別の例としては、画像内に人物の顔領域を抽出し、顔領域の座標を出力する。   In the image processing method according to the present invention, an image for detecting the feature of the image is input by the first image information acquisition means, and the input image is reduced. Next, image features are extracted from the reduced image. The feature amount is an image contrast or a human face. For example, the image is divided into blocks, the average value of the contrast value is obtained in each block, and the average value of the block coordinates and the contrast of each block is output. As another example, the face area of a person is extracted from the image, and the coordinates of the face area are output.

本発明では、第二の画像情報取得手段による異なる露光時間の複数枚の画像を入力する。ここでは露光時間の長い画像と露光時間の短い画像を入力する。縮小した画像から画像の特徴を抽出した画像の特徴量を用いて、画像間ずれ量を測定する。ここでは、分割された画像のブロックごとのコントラスト平均値を高い順で並べ、コントラストの高い少数ブロックを選択する。選択されたブロックの座標付近における、第二の画像情報取得手段で入力した画像のずれ検知を行う。選択されたブロックは画像の全画面の一部しか占めない。この部分はコントラストの高いブロックなので、それらのブロックを利用することで、効果的なずれ計測ができる。また、全画像に対してずれ検知しなくてもよいので、処理時間の短縮ができる。   In the present invention, a plurality of images having different exposure times by the second image information acquisition means are input. Here, an image having a long exposure time and an image having a short exposure time are input. An inter-image shift amount is measured using the image feature amount obtained by extracting the image feature from the reduced image. Here, the average contrast values for each block of the divided image are arranged in the descending order, and a small number of blocks with high contrast are selected. Detection of the shift of the image input by the second image information acquisition means in the vicinity of the coordinates of the selected block is performed. The selected block occupies only a part of the full screen of the image. Since this part is a block with high contrast, effective displacement measurement can be performed by using these blocks. In addition, since it is not necessary to detect deviation for all images, the processing time can be shortened.

顔検知モード付撮影装置、つまり顔領域を検知し、顔領域に合わせて焦点、明るさ、色の調整の可能な撮影装置では、コントラストの高いブロック検出の代わりに、画像から人間の顔領域を検知し、顔領域付近で、第二の画像情報取得手段で入力した画像のずれ量計測を行う。顔領域は画像の全領域の一部にしかないので、顔領域付近でずれ量測定の処理時間は全画面でのずれ検知より大幅に処理時間短縮できる。顔領域は注目領域なので、顔領域に合わせて、位置ずれ補正を行うと、全画面の位置ずれ補正誤差があっても、顔領域に確実に精度良く位置ずれ補正ができる。また検知された画像間のずれ量を用いて、画像間のずれ補正を行い、広いダイナミックレンジ画像を合成する。   In a shooting device with a face detection mode, that is, a shooting device that detects the face area and can adjust the focus, brightness, and color according to the face area, instead of detecting a block with high contrast, the human face area is detected from the image. Detect and measure the amount of deviation of the image input by the second image information acquisition means in the vicinity of the face area. Since the face area is only a part of the entire area of the image, the processing time for measuring the amount of deviation near the face area can be significantly reduced compared to the detection of deviation on the entire screen. Since the face area is the attention area, if the misalignment correction is performed in accordance with the face area, the misalignment correction can be performed accurately and accurately on the face area even if there is a misalignment correction error of the entire screen. In addition, by using the detected shift amount between images, shift correction between images is performed, and a wide dynamic range image is synthesized.

本発明によれば、画像情報を取得する第一の画像情報取得手段で画像の特徴を検出するための画像を入力し、この画像から画像特定手段で特徴量を検出して、画面上にもっとも特徴のある領域を抽出するので、特徴領域が画像全体の一部しか占めなくなり、この領域でのずれ検知が効果的に行える。このため、複数枚の画像によるダイナミックレンジ拡大画像を合成するとき、画像間の位置合わせ処理を高速に行え、処理時間の短縮を図ることができる。   According to the present invention, an image for detecting the feature of the image is input by the first image information acquisition means for acquiring the image information, and the feature amount is detected from the image by the image specifying means. Since a characteristic area is extracted, the characteristic area occupies only a part of the entire image, and displacement detection in this area can be effectively performed. For this reason, when synthesizing a dynamic range expanded image of a plurality of images, alignment processing between images can be performed at high speed, and processing time can be shortened.

本発明によれば、画像情報を取得する第二の画像情報取得手段で、露光時間の長い画像と露光時間の短い画像の複数画像情報を入力し、第一の画像情報取得手段で抽出された特徴領域の付近で、画像間のずれ量を求めてずれ補正を行う。このため、画像間のずれを補正することで、ダイナミックレンジ拡大画像を合成するとき、2重像を解消することができる。また、顔検知を設定するとき、画像から検知された顔領域を特徴領域とすると、顔領域は画面全体の一部しかないので、顔領域付近でずれ検知処理すれば、複数枚の画像によるダイナミックレンジ拡大画像を合成するとき、画像間の位置合わせ処理を高速に行え、処理時間の短縮を図ることができる。   According to the present invention, the second image information acquisition unit that acquires image information inputs a plurality of pieces of image information of an image having a long exposure time and an image having a short exposure time, and is extracted by the first image information acquisition unit. In the vicinity of the feature region, a shift amount between images is obtained to perform shift correction. For this reason, by correcting the shift between images, a double image can be eliminated when a dynamic range enlarged image is synthesized. Also, when setting the face detection, if the face area detected from the image is the feature area, the face area is only a part of the whole screen. When synthesizing a range-enlarged image, alignment processing between images can be performed at high speed, and processing time can be shortened.

このため、効果的、高速な画像のずれ検知、ずれ補正を行えるので、広いダイナミックレンジ拡大画像を合成するとき、合成画像の2重像を解消でき、複数枚の画像によるダイナミックレンジ拡大画像を合成するとき、画像間のずれを検知し、位置合わせ処理を高速に行える画像処理方法と撮像装置を提供することができる。   For this reason, effective and high-speed image misalignment detection and misalignment correction can be performed, so when synthesizing a wide dynamic range expanded image, the double image of the synthesized image can be eliminated and a dynamic range expanded image composed of a plurality of images can be synthesized. In this case, it is possible to provide an image processing method and an imaging apparatus that can detect a shift between images and perform alignment processing at high speed.

本発明の第一の実施形態にかかる撮影装置に含まれる画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part contained in the imaging device concerning 1st embodiment of this invention. 画像特徴検知部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of an image feature detection part. 画像特徴検知部において画像のコントラスト情報を特徴量として抽出する際の、画像を分割した状態と、その処理内容を説明するためのブロック図である。It is a block diagram for demonstrating the state which divided | segmented the image at the time of extracting the contrast information of an image as a feature-value in an image feature detection part, and the processing content. 画像特徴検知部におけるエッジ抽出フィルタによるエッジ抽出の例を説明するための図である。It is a figure for demonstrating the example of the edge extraction by the edge extraction filter in an image feature detection part. エッジフィルタ処理後のエッジ画像を示す図である。It is a figure which shows the edge image after an edge filter process. (a)は選択されたコントラストの高いブロック位置を第二の画像入力部で入力した1つの画像に示した図、(b)は第二の画像入力部で入力した別な画像にコントラストの高いブロック位置を示した図である。(A) is a diagram showing a selected high-contrast block position in one image input by the second image input unit, and (b) is a high contrast in another image input by the second image input unit. It is the figure which showed the block position. 画像合成処理部で画像合成に用いる重み関数を示す図である。It is a figure which shows the weight function used for an image composition in an image composition process part. 第一の実施形態が適用された撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device to which 1st embodiment was applied. 図8に示す撮影装置の内部で実行される画像ずれ検知、ずれ補正及び画像合成に係る処理内容を示すフローチャートである。It is a flowchart which shows the processing content regarding the image shift detection, shift correction, and image composition which are performed inside the imaging device shown in FIG. 本発明の第二の実施形態にかかる撮影装置に含まれる画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part contained in the imaging device concerning 2nd embodiment of this invention. (a)は選択された顔領域の位置を第二の画像入力部で入力した1つの画像に示した図、(b)は第二の画像入力部で入力した別な画像に顔領域の位置を示した図である。(A) is the figure which showed the position of the selected face area in one image input with the 2nd image input part, (b) is the position of the face area in another image input with the 2nd image input part. FIG. 第二の実施形態が適用された撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device to which 2nd embodiment was applied. 図12に示す撮影装置の内部で実行される顔領域認識、画像ずれ補正及び画像合成に係る処理内容を示すフローチャートである。FIG. 13 is a flowchart showing processing contents related to face area recognition, image shift correction, and image composition executed in the imaging apparatus shown in FIG. 12. FIG.

以下、本発明にかかる撮像装置、画像処理方法および画像処理プログラムを実施するための形態について、図面を参照して詳細に説明する。各図中、同一又は相当する部分には同一の符号を付し、その重複説明は簡略化ないし省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out an imaging apparatus, an image processing method, and an image processing program according to the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description thereof is simplified or omitted.

また、以下に説明する各撮像装置には、予め本発明にかかる画像処理プログラムがインストールされて記憶されている。画像処理プログラムはコンピュータで読み取り可能なもので、周知の図示しないCDやDVDなどの光学的な記憶媒体となるメディアに記憶されていて、各撮像装置の記憶手段にインストールされることで起動して、本発明に係る画像処理方法が実行されるように構成されている。
(第一の実施の形態)
本発明が適用される撮影装置となるデジタルカメラ200が備えている画像処理部100の構成例について説明する。図1は、本実施の形態にかかる画像処理部100の構成を示すブロック図である。
In addition, an image processing program according to the present invention is installed and stored in advance in each imaging apparatus described below. The image processing program is readable by a computer, stored in a well-known optical storage medium such as a CD or a DVD (not shown), and activated by being installed in a storage unit of each imaging apparatus. The image processing method according to the present invention is configured to be executed.
(First embodiment)
A configuration example of the image processing unit 100 provided in the digital camera 200 serving as a photographing apparatus to which the present invention is applied will be described. FIG. 1 is a block diagram showing a configuration of an image processing unit 100 according to the present embodiment.

図1において、画像処理部100は、第二の画像情報取得手段となる第二の画像入力部101、画像位置ずれ手段となる画像ずれ検知部102、補正手段となる画像ずれ補正部103、画像合成処理手段となる画像合成理部104、画像特定手段となる画像特徴検知部105、第一の画像情報取得手段となる第一の画像入力部106及び画像出力部107を備えている。   In FIG. 1, an image processing unit 100 includes a second image input unit 101 serving as a second image information acquisition unit, an image shift detection unit 102 serving as an image position shift unit, an image shift correction unit 103 serving as a correction unit, and an image. An image composition processing unit 104 serving as a composition processing unit, an image feature detection unit 105 serving as an image specifying unit, a first image input unit 106 serving as a first image information acquisition unit, and an image output unit 107 are provided.

第二の画像入力部101はデジタルカメラ200による画像を入力するもので、広いダイナミックレンジ画像を合成するための露光時間異なる複数の画像情報を入力するためのものである。ここでは、露光時間の長い画像と短い画像のそれぞれの情報を入力する。   The second image input unit 101 inputs an image from the digital camera 200, and inputs a plurality of pieces of image information having different exposure times for synthesizing a wide dynamic range image. In this case, information on each of an image with a long exposure time and a short image is input.

第一の画像入力部106は、第二の画像入力部101と同じ撮影対象を撮影して、その画像を入力するためのものである。画像特徴検知部105の構成と処理の詳細について図2を用いて説明する。画像特徴検知部105は、第一の画像入力部106から入力された画像を縮小画像生成部201により画像を縮小し、縮小画像に対して、その特徴量を特徴情報として画像特徴情報抽出部202を用いて抽出する。本形態において、画像特徴情報抽出部202は、画像のコントラスト情報、つまりエッジ情報を特徴量として抽出する。抽出方法としては、縮小画像に対して、エッジ抽出フィルタによるエッジ抽出フィルタ処理を行う。本形態では、エッジ抽出の例として、表1のエッジ抽出フィルタとなる周知のラプラシアンフィルタを使用する。   The first image input unit 106 is for shooting the same shooting target as the second image input unit 101 and inputting the image. Details of the configuration and processing of the image feature detection unit 105 will be described with reference to FIG. The image feature detection unit 105 reduces the image input from the first image input unit 106 by the reduced image generation unit 201, and an image feature information extraction unit 202 uses the feature amount of the reduced image as feature information. Extract using. In this embodiment, the image feature information extraction unit 202 extracts image contrast information, that is, edge information as a feature amount. As an extraction method, edge extraction filter processing using an edge extraction filter is performed on the reduced image. In this embodiment, as an example of edge extraction, a well-known Laplacian filter serving as the edge extraction filter of Table 1 is used.

Figure 2010258885
Figure 2010258885

本形態では、エッジ抽出フィルタ処理で用いるエッジ抽出フィルタで抽出したエッジ情報(画像情報)に対して図3に示すようにブロック分割を行い、各ブロック内で、エッジ抽出フィルタ処理後のエッジ情報をブロック内で平均化する処理を行なう。本形態では、エッジ抽出フィルタの例としてラプラシアンフィルタの例を説明したが、他のエッジ抽出フィルタを使っても良い。   In this embodiment, the edge information (image information) extracted by the edge extraction filter used in the edge extraction filter processing is divided into blocks as shown in FIG. 3, and the edge information after the edge extraction filter processing is obtained in each block. Performs averaging processing within the block. In this embodiment, an example of a Laplacian filter has been described as an example of an edge extraction filter, but other edge extraction filters may be used.

次にエッジ抽出フィルタによるエッジ抽出の例を説明する。   Next, an example of edge extraction by the edge extraction filter will be described.

図4は横軸にx座標、縦軸に輝度値をとった図である。図4に示すような特性の画像に対して、エッジ抽出すると、図5に示すようなエッジが得られる。つまり、図4において輝度値が屈曲して変化する部分をエッジとして捉える。このエッジの平均値を図3に示す。図3において、色の濃いブロックはコントラストの高いブロックを示す。   FIG. 4 is a diagram in which the horizontal axis represents the x coordinate and the vertical axis represents the luminance value. When an edge is extracted from an image having characteristics as shown in FIG. 4, an edge as shown in FIG. 5 is obtained. That is, in FIG. 4, a portion where the luminance value is bent and changes is regarded as an edge. The average value of this edge is shown in FIG. In FIG. 3, dark blocks indicate high contrast blocks.

図1に示す画像ずれ検知部102は、第二の画像入力部101により入力された複数枚画像に対して、画像間のずれ量を検知する。ここではまず画像特徴検知部105から入力した図3に示す画像特徴検知結果を入力する。その結果からコントラスト平均値の高いブロック(色の濃いブロック)を選択する。選択されたコントラストの高いブロック位置は、第二の画像入力部101で入力した図6(a)に示す画像1での位置を黒いブロックA,B,C,Dで示す。第二の画像入力部101により入力されたもう一枚の画像2の画面上の対応するブロックの位置を、図6(b)の画像2に黒いブロックA’,B’,C’,D’で示す。   The image shift detection unit 102 illustrated in FIG. 1 detects the shift amount between images with respect to a plurality of images input by the second image input unit 101. Here, first, the image feature detection result shown in FIG. 3 input from the image feature detection unit 105 is input. Based on the result, a block having a high contrast average value (a dark block) is selected. The selected high-contrast block position is indicated by black blocks A, B, C, and D in the image 1 shown in FIG. 6A input by the second image input unit 101. The position of the corresponding block on the screen of another image 2 input by the second image input unit 101 is changed to the black blocks A ′, B ′, C ′, D ′ in the image 2 of FIG. It shows with.

次にコントラストの高い黒いブロック付近で、画像間のずれ量検知を行う。図6(a)の画像1のコントラストの高い黒いブロックA,B,C,Dをスタート位置とすると、以下のずれ検知法で図6(b)の画像2のブロックA’,B’,C’,D’のずれ量を検知する。   Next, the amount of shift between images is detected near a black block with high contrast. If the black blocks A, B, C, and D with high contrast in the image 1 in FIG. 6A are set as the start positions, the blocks A ′, B ′, and C in the image 2 in FIG. The amount of deviation of “, D” is detected.

このずれ量の検知方法を数1に示す。図6(a)の画像1のコントラストの高い黒いブロックサイズをM×Nとする。領域内の画像1の画素値f(i,j)と画像2の画素値g(i,j)を用いて下記数1の値を計算する。ここで、(i,j)は画像1上での画素の座標値である。g(i,j)は画像2上での画素の座標値である。E(u,v)は最小となるときの位置(u,v)を求めている。この値は、画像1と画像2の間の対応するブロックのずれ量となる。   This deviation amount detection method is shown in Equation 1. The black block size with high contrast of the image 1 in FIG. Using the pixel value f (i, j) of the image 1 in the region and the pixel value g (i, j) of the image 2, the value of the following equation 1 is calculated. Here, (i, j) is the coordinate value of the pixel on the image 1. g (i, j) is a coordinate value of a pixel on the image 2. The position (u, v) when E (u, v) is minimum is obtained. This value is the shift amount of the corresponding block between image 1 and image 2.

Figure 2010258885
Figure 2010258885

求めた各黒いブロックのずれ量から、画像2と画像1との間の全体のずれ量を計算する。各ブロックのずれ量から画像の平均移動と回転量を求めて、画像間全体のずれ量を求める。   The total shift amount between the image 2 and the image 1 is calculated from the calculated shift amount of each black block. The average shift and rotation amount of the image is determined from the shift amount of each block, and the shift amount of the entire image is determined.

画像ずれ補正部103は、画像1と画像2の画像間ずれを補正するものである。ここでは、画像ずれ検知部102で検知した画像間のずれ量を用い、画像2を全体的にずれ量分で補正する。つまり画像ずれ検知部102で検知した画像の平行移動と回転量を用いて、画像1と画像2の間のずれに対して補正が行われる。補正方法として、画像2を測定された画像の平行移動量と回転量を用いて、画像2のずれを補正する。   The image shift correction unit 103 corrects a shift between images 1 and 2. Here, the amount of deviation between images detected by the image deviation detection unit 102 is used, and the image 2 is entirely corrected by the amount of deviation. In other words, the shift between the image 1 and the image 2 is corrected using the parallel movement and the rotation amount of the image detected by the image shift detection unit 102. As a correction method, the shift of the image 2 is corrected using the translation amount and the rotation amount of the image 2 measured.

画像合成処理部104は、画像ずれの補正後に、ダイナミックレンジ拡大画像合成処理を行うものである。ここで、長い露光時間で撮影した画像と、短い露光時間で撮影した画像の合成例を説明する。図7は画像合成の重み関数を示し、横軸は画像の輝度値であり、縦軸は画像合成の重み係数である。   The image composition processing unit 104 performs dynamic range expansion image composition processing after correcting the image shift. Here, a composite example of an image shot with a long exposure time and an image shot with a short exposure time will be described. FIG. 7 shows an image composition weighting function, the horizontal axis represents the luminance value of the image, and the vertical axis represents the weighting coefficient for image composition.

露光時間の異なる画像を合成するとき、まず下記数2で露光時間の短い画像の正規化を行う。ここで、I'は正規化した短い露光画像の画素値であり、Iは正規化前の画素値である。Kは正規化係数であり、長い露光時間と短い露光時間の比である。 When synthesizing images having different exposure times, first, normalization of images having a short exposure time is performed by the following formula 2. Here, I ′ S is the normalized pixel value of the short exposure image, and I S is the pixel value before normalization. K is a normalization factor, which is the ratio of long exposure time to short exposure time.

Figure 2010258885
Figure 2010258885

次に正規化した画像を、図7に示す重み関数を用いて画像を合成する。図7に示すように画素の輝度値はM2より大きい場合、露光時間の短い画像の画素値を選択する。輝度知M1より小さい場合、露光時間の長い画像の画素値を選択する。輝度値はM1とM2の間であれば、2枚の画像の加重平均で画素値を求める。加重平均の重み係数は、図7に示すM1とM2の間の斜線部分の重み係数を使う。輝度知M1とM2は実験で予め決めている。このようにして、ダイナミックレンジ拡大用の複数の画像を画像合成処理部104で合成する。
図1に示す画像出力部107は処理した画像やそれ以外の画像を出力するものである。
Next, the normalized image is synthesized using a weight function shown in FIG. As shown in FIG. 7, when the luminance value of the pixel is larger than M2, the pixel value of an image having a short exposure time is selected. If it is smaller than the brightness knowledge M1, a pixel value of an image having a long exposure time is selected. If the luminance value is between M1 and M2, the pixel value is obtained by a weighted average of two images. The weighted average weighting factor uses the weighting factor in the hatched portion between M1 and M2 shown in FIG. Luminance knowledge M1 and M2 are determined in advance through experiments. In this manner, the image composition processing unit 104 synthesizes a plurality of images for dynamic range expansion.
An image output unit 107 shown in FIG. 1 outputs a processed image and other images.

次に、上述した画像処理を実施するデジタルカメラ200のハードウェア構成について説明する。
図8は、本実施の形態にかかるデジタルカメラ200のハードウェア構成を示すブロック図である。図8に示すように、デジタルカメラ200は、撮影光学系1、メカシャッタ2、CCD(Charge Coupled Device)3、CDS(Correlated Double Sampling:相関2重サンプリング)回路4、A/D変換器5、駆動源となるモータ6、タイミング信号を発生するタイミング信号発生器7、信号処理回路8、CPU(Central Processing Unit)9、RAM(Random Access Memory)10、ROM(Read Only Memory)11、SDRAM(SynchronousDRAM)12、画像圧縮伸張回路13、メモリカード14、操作部15、液晶ディスプレイ16(以下、「LCD16」と記す)を備えている。
Next, a hardware configuration of the digital camera 200 that performs the above-described image processing will be described.
FIG. 8 is a block diagram showing a hardware configuration of the digital camera 200 according to the present embodiment. As shown in FIG. 8, the digital camera 200 includes a photographing optical system 1, a mechanical shutter 2, a CCD (Charge Coupled Device) 3, a CDS (Correlated Double Sampling) circuit 4, an A / D converter 5, and a drive. Motor 6 as a source, timing signal generator 7 for generating a timing signal, signal processing circuit 8, CPU (Central Processing Unit) 9, RAM (Random Access Memory) 10, ROM (Read Only Memory) 11, SDRAM (Synchronous DRAM) 12, an image compression / decompression circuit 13, a memory card 14, an operation unit 15, and a liquid crystal display 16 (hereinafter referred to as “LCD 16”).

そして、被写体光Lが撮影光学系1を通してCCD3に入射される。撮影光学系1とCCD3との間には、メカシャッタ2が配置されており、このメカシャッタ2によりCCD3への入射光を遮断することができる。なお、撮影光学系1及びメカシャッタ2は、モータ6でそれぞれ駆動される。   The subject light L is incident on the CCD 3 through the photographing optical system 1. A mechanical shutter 2 is disposed between the photographing optical system 1 and the CCD 3, and incident light to the CCD 3 can be blocked by the mechanical shutter 2. The photographing optical system 1 and the mechanical shutter 2 are each driven by a motor 6.

CCD3は、撮像面に結像された光学像を電気信号に変換して、アナログの画像データとして出力するものである。CCD3から出力された画像情報は、CDS回路4によりノイズ成分を除去され、A/D変換器5によりデジタル値に変換された後、画像処理回路8に対して出力される。   The CCD 3 converts an optical image formed on the imaging surface into an electrical signal and outputs it as analog image data. The image information output from the CCD 3 is subjected to noise component removal by the CDS circuit 4, converted into a digital value by the A / D converter 5, and then output to the image processing circuit 8.

信号処理回路8は、画像データを一時格納するSDRAM12を用いて、YCrCb変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う機能を備えている。なお、ホワイトバランス処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する周知の画像処理である。画像処理回路8は、信号処理や画像処理が施された画像情報を液晶ディスプレイ16(以下、「LCD16」と略記する)に表示する。また、信号処理、画像処理が施された画像情報は、画像圧縮伸張回路13を介して、メモリカード14に記録される。画像圧縮伸張回路13は、操作部15から取得した指示によって、画像処理回路8から出力される画像情報を圧縮してメモリカード14に出力すると共に、メモリカード14から読み出した画像情報を伸張して信号処理回路8に出力する回路である。   The signal processing circuit 8 has a function of performing various image processing such as YCrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing using the SDRAM 12 that temporarily stores image data. The white balance process is an image process that adjusts the color density of image information, and the contrast correction process is an image process that adjusts the contrast of image information. The edge enhancement process adjusts the sharpness of image information, and the color conversion process is a well-known image process that adjusts the hue of image information. The image processing circuit 8 displays image information subjected to signal processing and image processing on a liquid crystal display 16 (hereinafter abbreviated as “LCD 16”). The image information subjected to signal processing and image processing is recorded in the memory card 14 via the image compression / decompression circuit 13. The image compression / decompression circuit 13 compresses the image information output from the image processing circuit 8 according to the instruction acquired from the operation unit 15 and outputs the compressed image information to the memory card 14, and decompresses the image information read from the memory card 14. It is a circuit that outputs to the signal processing circuit 8.

CCD3、CDS回路4及びA/D変換器5は、タイミング信号発生器7を介してCPU9によってタイミングが制御されている。さらに、画像処理回路8、画像圧縮伸張回路13、メモリカード14も、CPU9によって制御されている。   The timing of the CCD 3, the CDS circuit 4, and the A / D converter 5 is controlled by the CPU 9 via the timing signal generator 7. Further, the image processing circuit 8, the image compression / decompression circuit 13, and the memory card 14 are also controlled by the CPU 9.

デジタルカメラ200では、CPU9はプログラムに従って各種演算処理を行い、各種プログラムなどを記憶手段となる読み出し専用メモリであるROM11に格納し、読み出し書き込み自在のメモリであるRAM10が有する各種の処理過程で利用するワークエリア、各種データ格納エリアなどに各種データを展開する。これら画像処理回路8から操作部15までは、バスラインによって相互に通信可能に接続されている。本形態では、画像処理プログラムがROM11に製品出荷前から記憶されている。無論、プログラムのバージョンアップを図る場合には、製品出荷後に最新の画像処理プログラムがROM11にインストールされることになる。   In the digital camera 200, the CPU 9 performs various arithmetic processes according to the program, stores the various programs and the like in the ROM 11 that is a read-only memory serving as a storage unit, and uses the various programs in various processing steps that the RAM 10 that is a read / write memory has. Various data is developed in the work area and various data storage areas. The image processing circuit 8 to the operation unit 15 are connected to be communicable with each other via a bus line. In this embodiment, the image processing program is stored in the ROM 11 before product shipment. Of course, when upgrading the program, the latest image processing program is installed in the ROM 11 after the product is shipped.

このような構成のデジタルカメラ200による処理ステップを図9に示すフローチャートに沿って説明する。   Processing steps by the digital camera 200 having such a configuration will be described with reference to the flowchart shown in FIG.

まずデジタルカメラ200では、画像の特徴情報を取得するための画像情報を第一の画像入力部101で入力し、画像処理回路8を通して縮小した画像情報をSDRAM12のメモリ領域に一時的に保存する。このメモリ領域上の縮小画像データを再度、画像処理回路8により画像のブロックごとのコントラスト平均値を算出して求め、求めたブロック毎のコントラスト平均値をSDRAM12の画像メモリ領域に保存する。これにより、ブロックの番号とブロック毎のコントラスト平均値が保存される。   First, in the digital camera 200, image information for acquiring image feature information is input by the first image input unit 101, and the image information reduced through the image processing circuit 8 is temporarily stored in the memory area of the SDRAM 12. The reduced image data in the memory area is obtained again by calculating the average contrast value for each block of the image by the image processing circuit 8, and the calculated average contrast value for each block is stored in the image memory area of the SDRAM 12. Thereby, the block number and the contrast average value for each block are stored.

次に本撮影を行う。ここでは、画像露光量の異なる2枚の画像を撮影し、第二の画像入力部101から入力された撮影画像をSDRAM12に一時保存する。   Next, actual shooting is performed. Here, two images having different image exposure amounts are photographed, and the photographed image input from the second image input unit 101 is temporarily stored in the SDRAM 12.

デジタルカメラ200では、ROM11に予め記憶された画像処理プログラムの1つである画像ずれ検知プログラムを起動してずれ検知処理を行う。この画像ずれ検知プログラムは、SDRAM12に保存したブロック番号とブロックごとのコントラスト平均値からコントラスト値のもっとも高い複数のブロックを選択する。選択されたブロックの位置で、SDRAM12に保存した本撮影の複数枚の画像情報からずれ量検知を行う。すなわち画像のずれ量を求めて、ブロックのずれ量から画像の平均移動係数と回転係数を求める。   In the digital camera 200, an image shift detection program, which is one of image processing programs stored in advance in the ROM 11, is activated to perform shift detection processing. The image shift detection program selects a plurality of blocks having the highest contrast value from the block number stored in the SDRAM 12 and the contrast average value for each block. At the position of the selected block, the shift amount is detected from the image information of a plurality of main shooting images stored in the SDRAM 12. That is, the image shift amount is obtained, and the average movement coefficient and rotation coefficient of the image are obtained from the block shift amount.

次に、求めたずれ量から求めた画像間の平行移動係数と回転係数およびROM11に保存してある画像合成重み係数パラメータ(図7参照)を呼び出し、SDRAM12に保存してある異なる露光時間の画像情報とともに、画像処理回路8に転送し、画像処理回路8の内部で、画像の平行移動、回転処理による画像間のずれ補正を行い、合成重み係数による広いダイナミックレンジ画像合成処理を行う。各種処理を行われた画像はLCD16に表示されることで画像出力されることとなる。
(第2の実施の形態)
本実施の形態に係る撮影装置となるデジタルカメラ201は、人間の顔を検知して、画像を入力してダイナミックレンジ拡大画像合成する場合、画像間の位置ずれを高速に検知し、画像ずれを補正するものである。
Next, the translation coefficient and rotation coefficient between images obtained from the obtained deviation amount and the image synthesis weight coefficient parameter (see FIG. 7) stored in the ROM 11 are called, and images with different exposure times stored in the SDRAM 12 are retrieved. The information is transferred to the image processing circuit 8 together with the information, and the image processing circuit 8 corrects the shift between the images by parallel movement and rotation processing of the image, and performs wide dynamic range image synthesis processing by the synthesis weight coefficient. An image that has been subjected to various types of processing is displayed on the LCD 16 and is output as an image.
(Second Embodiment)
When the digital camera 201 serving as the photographing apparatus according to the present embodiment detects a human face and inputs an image to synthesize a dynamic range expanded image, the digital camera 201 detects a positional shift between the images at a high speed and detects the image shift. It is to correct.

第2の実施形態にかかるデジタルカメラ201が備えている画像処理部100Aの構成例について図10を用いて説明する。図10は、本形態に係る画像処理部100Aの構成を示すブロック図である。画像処理部100Aは、第二の画像入力部101、画像ずれ検知部102、画像ずれ補正部103、画像合成理部104、第一の画像入力部106、画像出力部107とともに、ここでは、画像特徴検知部として顔領域検知部105Aを備えている。   A configuration example of the image processing unit 100A included in the digital camera 201 according to the second embodiment will be described with reference to FIG. FIG. 10 is a block diagram showing the configuration of the image processing unit 100A according to this embodiment. The image processing unit 100A, together with the second image input unit 101, the image shift detection unit 102, the image shift correction unit 103, the image composition processing unit 104, the first image input unit 106, and the image output unit 107, here, A face area detection unit 105A is provided as a feature detection unit.

第二の画像入力部101はデジタルカメラ201による画像を入力するもので、広いダイナミックレンジ画像を合成するための露光時間の異なる複数の画像情報を入力するものである。ここでは、露光時間の長い画像と露光時間の短い画像のそれぞれの情報を入力する。   The second image input unit 101 inputs an image from the digital camera 201, and inputs a plurality of pieces of image information having different exposure times for synthesizing a wide dynamic range image. Here, information on each of an image having a long exposure time and an image having a short exposure time is input.

第一の画像入力部106は、第二の画像入力部101と同じ撮影対象を撮影し、画像を入力するものである。画像顔領域検知部105Aは入力した画像を縮小し、縮小画像に対して、人間の顔領域を検知し、検知した顔領域の座標を出力する機能を備えている。なお、人間の顔を検知する構成については既に公知であるので、ここではその説明を省略する。   The first image input unit 106 shoots the same shooting target as the second image input unit 101 and inputs an image. The image face area detection unit 105A has a function of reducing an input image, detecting a human face area with respect to the reduced image, and outputting coordinates of the detected face area. In addition, since the structure which detects a human face is already well-known, the description is abbreviate | omitted here.

画像ずれ検知部102は第二の画像入力部101により入力した複数枚の画像情報に対して、画像間のずれ量を検知する。ここでは、まず顔領域検知部105Aから入力した顔領域検知結果を入力する。その結果を用いて、図11(a)の画像1に示す顔領域と第二の画像入力部101が入力したもう一枚の画像2の画面上の対応する顔領域の位置を図11(b)に示す画像2に示す。   The image shift detection unit 102 detects a shift amount between images for a plurality of pieces of image information input by the second image input unit 101. Here, first, the face area detection result input from the face area detection unit 105A is input. Using the result, the position of the face area shown in image 1 of FIG. 11A and the corresponding face area on the screen of another image 2 input by the second image input unit 101 is shown in FIG. The image 2 shown in FIG.

次に画像1の検知された顔領域付近で、画像ずれ検知を行う。図11(a)の画像1の顔領域をスタート位置として、以下のずれ検知法で図11(b)画像2のずれ量を検知する。   Next, image misalignment detection is performed in the vicinity of the detected face area of image 1. With the face area of image 1 in FIG. 11A as the start position, the amount of deviation in image 2 in FIG. 11B is detected by the following deviation detection method.

ずれ量の検知方法には上記の数1を用いる。ここで画像1の顔領域サイズはM×Nとする。領域内の画像1の画素値f(i,j)とずれ対象となる画像2の画素値g(i,j)を用いて数1の値を計算する。ここで、(i,j)は画像1上での画素の座標値である。E(u,v)は最小となるときの位置(u,v)を求める。この値は画像1と画像2の間のずれ量となる。   The above equation 1 is used as the deviation amount detection method. Here, the face area size of the image 1 is M × N. The value of Equation 1 is calculated using the pixel value f (i, j) of the image 1 in the region and the pixel value g (i, j) of the image 2 to be shifted. Here, (i, j) is the coordinate value of the pixel on the image 1. The position (u, v) when E (u, v) is minimum is obtained. This value is the amount of deviation between image 1 and image 2.

求めた各顔領域のずれ量から、画像2と画像1間の全体のずれ量を計算する。画像が複数ある場合、各顔領域のずれ量を平均すれば、画像間全体のずれを求められる。   From the obtained shift amount of each face area, the total shift amount between the image 2 and the image 1 is calculated. In the case where there are a plurality of images, the shift between the images can be obtained by averaging the shift amounts of the face areas.

画像のずれ量を求めた後、画像のずれ補正、画像合成処理は、第1の実施形態と同一の処理内容となる。   After obtaining the image shift amount, the image shift correction and image composition processing are the same as those in the first embodiment.

次に、上述した画像処理を実施するデジタルカメラ201のハードウェア構成について説明する。図12は、本実施の形態にかかるデジタルカメラ201のハードウェア構成を示すブロック図である。図12に示すように、デジタルカメラ201は、撮影光学系1、メカシャッタ2、CCD3、CDS回路4、A/D変換器5、駆動源となるモータ6、タイミング信号を発生するタイミング信号発生器7、信号処理回路8、CPU9、RAM10、ROM11、SDRAM12、画像圧縮伸張回路13、メモリカード14、操作部15、LCD16を備えている。   Next, a hardware configuration of the digital camera 201 that performs the above-described image processing will be described. FIG. 12 is a block diagram showing a hardware configuration of the digital camera 201 according to the present embodiment. As shown in FIG. 12, the digital camera 201 includes a photographing optical system 1, a mechanical shutter 2, a CCD 3, a CDS circuit 4, an A / D converter 5, a motor 6 as a driving source, and a timing signal generator 7 that generates a timing signal. , A signal processing circuit 8, a CPU 9, a RAM 10, a ROM 11, an SDRAM 12, an image compression / decompression circuit 13, a memory card 14, an operation unit 15, and an LCD 16.

そして、被写体光L1が、まず撮影光学系1を通してCCD3に入射される。また、撮影光学系1とCCD3との間には、メカシャッタ2が配置されており、このメカシャッタ2によりCCD3への入射光を遮断することができる。なお、撮影光学系1及びメカシャッタ2は、モータ6より駆動される。   Then, the subject light L1 first enters the CCD 3 through the photographing optical system 1. A mechanical shutter 2 is disposed between the photographing optical system 1 and the CCD 3, and incident light on the CCD 3 can be blocked by the mechanical shutter 2. The photographing optical system 1 and the mechanical shutter 2 are driven by a motor 6.

CCD3は、撮像面に結像された光学像をアナログの画像データとして出力する。CCD3から出力された画像情報は、CDS回路4によりノイズ成分を除去され、A/D変換器5によりデジタル値に変換された後、画像処理回路8に対して出力される。   The CCD 3 outputs an optical image formed on the imaging surface as analog image data. The image information output from the CCD 3 is subjected to noise component removal by the CDS circuit 4, converted into a digital value by the A / D converter 5, and then output to the image processing circuit 8.

画像処理回路8は、画像情報を一時格納するSDRAM12を用いて、YCrCb変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、色変換処理などの各種画像処理を行う。なお、ホワイトバランス処理は、画像情報の色濃さを調整し、コントラスト補正処理は、画像情報のコントラストを調整する画像処理である。エッジ強調処理は、画像情報のシャープネスを調整し、色変換処理は、画像情報の色合いを調整する画像処理である。画像処理回路8は、信号処理や画像処理が施された画像情報をLCD16に表示する。また、信号処理、画像処理が施された画像情報は、画像圧縮伸張回路13を介して、メモリカード14に記録される。画像圧縮伸張回路13は、操作部15から取得した指示によって、画像処理回路8から出力される画像情報を圧縮してメモリカード14に出力すると共に、メモリカード14から読み出した画像情報を伸張して信号処理回路8に出力する回路である。
CCD3、CDS回路4及びA/D変換器5は、タイミング信号発生器7を介してCPU9によってタイミングが制御されている。さらに、画像処理回路8、画像圧縮伸張回路13、メモリカード14も、CPU9によって制御されている。
The image processing circuit 8 performs various image processing such as YCrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color conversion processing using the SDRAM 12 that temporarily stores image information. The white balance process is an image process that adjusts the color density of image information, and the contrast correction process is an image process that adjusts the contrast of image information. The edge enhancement process adjusts the sharpness of image information, and the color conversion process is an image process that adjusts the hue of image information. The image processing circuit 8 displays on the LCD 16 image information that has undergone signal processing and image processing. The image information subjected to signal processing and image processing is recorded in the memory card 14 via the image compression / decompression circuit 13. The image compression / decompression circuit 13 compresses the image information output from the image processing circuit 8 according to the instruction acquired from the operation unit 15 and outputs the compressed image information to the memory card 14, and decompresses the image information read from the memory card 14. It is a circuit that outputs to the signal processing circuit 8.
The timing of the CCD 3, the CDS circuit 4, and the A / D converter 5 is controlled by the CPU 9 via the timing signal generator 7. Further, the image processing circuit 8, the image compression / decompression circuit 13, and the memory card 14 are also controlled by the CPU 9.

デジタルカメラ201では、CPU9はプログラムに従って各種演算処理を行い、各種プログラムなどを記憶手段となる読み出し専用メモリであるROM11に格納し、読み出し書き込み自在のメモリであるRAM10が有する各種の処理過程で利用するワークエリア、各種データ格納エリアなどに各種データを展開する。これら画像処理回路8から操作部15までは、バスラインによって相互に通信可能に接続されている。本形態では、画像処理プログラムがROM11に製品出荷前から記憶されている。無論、プログラムのバージョンアップを図る場合には、製品出荷後に最新の画像処理プログラムがROM11にインストールされることになる。   In the digital camera 201, the CPU 9 performs various arithmetic processes according to the program, stores the various programs in the ROM 11 that is a read-only memory serving as a storage unit, and uses the various programs in various processing processes of the RAM 10 that is a readable / writable memory. Various data is developed in the work area and various data storage areas. The image processing circuit 8 to the operation unit 15 are connected to be communicable with each other via a bus line. In this embodiment, the image processing program is stored in the ROM 11 before product shipment. Of course, when upgrading the program, the latest image processing program is installed in the ROM 11 after the product is shipped.

このような構成のデジタルカメラ201による処理ステップを図13に示すフローチャートに沿って説明する。   Processing steps by the digital camera 201 having such a configuration will be described with reference to a flowchart shown in FIG.

デジタルカメラ201では、第一の画像入力部101により顔領域検知するための画像データが入力されると、画像処理入力回路8を通して、縮小した画像データをメモリ領域SDRAM12に一時的に保存する。次にROM11に予め記憶されている画像処理プログラムを構成する顔検知プログラム11を起動し、顔検知処理を行う。顔検知結果、つまり検知された顔領域を示す図11(a)の座標値A,B,C,DをSDRAM12に保存する。   In the digital camera 201, when image data for detecting a face area is input by the first image input unit 101, the reduced image data is temporarily stored in the memory area SDRAM 12 through the image processing input circuit 8. Next, the face detection program 11 constituting the image processing program stored in advance in the ROM 11 is activated to perform face detection processing. The face detection result, that is, the coordinate values A, B, C, and D shown in FIG. 11A indicating the detected face area are stored in the SDRAM 12.

次に第二の画像入力部101による本撮影を行い、露光量の異なる2枚の画像を撮影し、撮影した画像データをSDRAM12に一時保存する。次にROM11に予め記憶されている画像処理プログラムを構成する画像ずれ検知プログラムを起動し、ずれ検知処理を行う。ずれ検知プログラムでは、SDRAM12に保存した顔領域の座標値A,B,C,Dを入力する。そして顔領域の位置データを用いて、SDRAM12に保存した画像からずれ量検知を行う。   Next, the second image input unit 101 performs main shooting, two images having different exposure amounts are shot, and the shot image data is temporarily stored in the SDRAM 12. Next, an image shift detection program constituting an image processing program stored in advance in the ROM 11 is activated to perform shift detection processing. In the shift detection program, the coordinate values A, B, C, D of the face area stored in the SDRAM 12 are input. Then, using the face area position data, the amount of deviation is detected from the image stored in the SDRAM 12.

次に求めたずれ量およびROM11に保存してある画像合成重み係数パラメータ(図7参照)を呼び出し、SDRAM12にある異なる露光時間の画像、求めた画像のずれ量、重み係数とともに、画像処理回路8に転送し、画像処理回路8の内部で、画像ずれ補正と画像合成処理を行う。各種処理を行われた画像はLCD16に表示されることで画像出力されることとなる。   Next, an image composition weighting coefficient parameter (see FIG. 7) stored in the ROM 11 is called up and the image processing circuit 8 together with images of different exposure times in the SDRAM 12, the obtained image displacement amount and weighting coefficient are called. And image misalignment correction and image composition processing are performed inside the image processing circuit 8. An image that has been subjected to various types of processing is displayed on the LCD 16 and is output as an image.

このように、上記各形態では、画像情報を取得する第一の画像入力部106で画像の特徴を検出するための画像を入力し、この画像から画像特徴検知部105で特徴量を検出して、画面上にもっとも特徴のある領域を抽出するので、特徴領域が画像全体の一部しか占めなくなり、この領域でのずれ検知が効果的に行える。このため、複数枚の画像によるダイナミックレンジ拡大画像を合成するとき、画像間の位置合わせ処理を高速に行え、処理時間の短縮を図ることができる。   As described above, in each of the above embodiments, an image for detecting image features is input by the first image input unit 106 that acquires image information, and the feature amount is detected from the image by the image feature detection unit 105. Since the most characteristic area is extracted on the screen, the characteristic area occupies only a part of the entire image, and displacement detection in this area can be effectively performed. For this reason, when synthesizing a dynamic range expanded image of a plurality of images, alignment processing between images can be performed at high speed, and processing time can be shortened.

また、画像情報を取得する第二の画像入力部101で、露光時間の長い画像と露光時間の短い画像の複数の画像情報を入力し、第一の画像入力部106で抽出された特徴領域の付近で、画像ずれ検知部102と画像ずれ補正部103により画像間のずれ量を求めてずれ補正を行う。このため、画像間のずれを補正することで、画像合成処理部104でダイナミックレンジ拡大画像を合成するとき、2重像を解消することができる。   The second image input unit 101 that acquires image information inputs a plurality of pieces of image information of an image having a long exposure time and an image having a short exposure time, and the feature region extracted by the first image input unit 106 is input. In the vicinity, the image shift detection unit 102 and the image shift correction unit 103 obtain a shift amount between images and perform shift correction. For this reason, by correcting the shift between the images, the double image can be eliminated when the image synthesis processing unit 104 synthesizes the dynamic range expanded image.

このため、効果的、高速な画像のずれ検知、ずれ補正を行えるので、広いダイナミックレンジ拡大画像を合成するとき、合成画像の2重像を解消でき、複数枚の画像によるダイナミックレンジ拡大画像を合成するとき、画像間のずれを検知し、位置合わせ処理を高速に行える画像処理方法と撮像装置を提供することができる。   For this reason, effective and high-speed image misalignment detection and misalignment correction can be performed, so when synthesizing a wide dynamic range expanded image, the double image of the synthesized image can be eliminated and a dynamic range expanded image composed of a plurality of images can be synthesized. In this case, it is possible to provide an image processing method and an imaging apparatus that can detect a shift between images and perform alignment processing at high speed.

また、第二の実施形態のように、顔検知を設定するとき、画像から検知された顔領域を特徴領域とすると、顔領域は画面全体の一部しか存在しないので、顔領域付近でずれ検知処理すれば、複数枚の画像によるダイナミックレンジ拡大画像を合成するとき、画像間の位置合わせ処理を高速に行え、処理時間の短縮を図ることができる。   Further, as in the second embodiment, when setting face detection, if the face area detected from the image is a feature area, the face area is only part of the entire screen, and thus detection of deviation near the face area is performed. If the processing is performed, when a dynamic range expanded image composed of a plurality of images is synthesized, alignment processing between the images can be performed at high speed, and the processing time can be shortened.

101 第二の画像情報取得手段
102 画像位置ずれ手段
103 補正手段
104 画像合成処理手段
105 画像特定手段
106 第一の画像情報取得手段
200,201 撮影装置
300 記憶媒体
DESCRIPTION OF SYMBOLS 101 Second image information acquisition means 102 Image position shift means 103 Correction means 104 Image composition processing means 105 Image identification means 106 First image information acquisition means 200, 201 Image capturing apparatus 300 Storage medium

特開2000−92378号公報JP 2000-92378 A 特許第3974799号公報Japanese Patent No. 3974799

Claims (8)

画像情報を取得する第一の画像情報取得手段と、
第一の画像情報取得手段で取得した画像情報から画像情報の特徴量を求め、画像の特徴量による画像の特徴を現す部分領域を特定する画像特定手段と、
画像情報を取得する第二の画像情報取得手段と、
前記第二の画像情報取得手段により、露光時間の長さが異なる複数画像情報を入力し、前記画像特定手段で特定した画像部分領域情報を用いて、画像間のずれ量を検知する画像位置ずれ手段と、
前記画像位置ずれ手段で検知された画像間のずれ量による画像間ずれ補正処理する補正手段と、
前記補正手段でずれ補正処理された画像を用いて、広いダイナミックレンジ画像を合成処理する画像合成処理手段とを備えることを特徴とする撮影装置。
First image information acquisition means for acquiring image information;
An image specifying means for determining a feature amount of the image information from the image information acquired by the first image information acquiring means, and specifying a partial region representing the feature of the image by the feature amount of the image;
Second image information acquisition means for acquiring image information;
Image position shift in which a plurality of pieces of image information having different exposure times are input by the second image information acquisition unit, and the amount of shift between images is detected using the image partial area information specified by the image specifying unit Means,
Correction means for performing an inter-image shift correction process based on a shift amount between images detected by the image position shift means;
An image capturing apparatus comprising: an image composition processing unit configured to perform composition processing of a wide dynamic range image using an image subjected to shift correction processing by the correction unit.
前記第一の画像情報取得手段で取得した画像情報の特徴量は、画像のコントラストであり、
前記画像特定手段は、前記画像情報をブロックに分割し、ブロック毎にコントラストの平均値を求め、コントラスト平均値の高いブロック位置を特定する画像部分領域を特定し、
前記補正手段は、前記画像特定手段で特定した部分領域情報を用いて、画像間のずれ量を検知、補正することを特徴とする請求項1に記載の撮影装置。
The feature amount of the image information acquired by the first image information acquisition means is the contrast of the image,
The image specifying unit divides the image information into blocks, obtains an average value of contrast for each block, specifies an image partial region that specifies a block position having a high contrast average value,
The imaging apparatus according to claim 1, wherein the correction unit detects and corrects a shift amount between images using the partial region information specified by the image specifying unit.
前記第一の画像情報取得手段で取得した画像情報の特徴量は、画像に映った人物の顔領域であり、
前記画像特定手段は、前記顔領域を画像の特徴を現す部分領域とし、
前記補正手段は、前記画像特定手段で特定した部分領域情報を用いて、画像間のずれ量を検知、補正することを特徴とする請求項1に記載の撮影装置。
The feature amount of the image information acquired by the first image information acquisition means is a face area of a person shown in the image,
The image specifying means sets the face area as a partial area representing the characteristics of an image,
The imaging apparatus according to claim 1, wherein the correction unit detects and corrects a shift amount between images using the partial region information specified by the image specifying unit.
画像情報を取得する第一の画像情報取得ステップと、
第一の画像情報取得ステップで取得した画像情報から画像情報の特徴量を求め、画像の特徴量による画像の特徴を現す部分領域を特定する画像特定ステップと、
画像情報を取得す第二の画像情報取得ステップと、
前記第二の画像情報取得ステップにより露光時間の長さが異なる複数画像情報を入力し、前記画像特定ステップで特定した画像部分領域情報を用いて、画像間のずれ量を検知する画像位置ずれステップと、
前記画像位置ずれステップで検知された画像間のずれ量による画像間ずれ補正処理する補正ステップと、
前記補正ステップでずれ補正処理された画像を用いて、広いダイナミックレンジ画像を合成処理する画像合成処理ステップを備えることを特徴とする画像処理方法。
A first image information acquisition step of acquiring image information;
An image specifying step for obtaining a feature amount of the image information from the image information acquired in the first image information acquisition step, and specifying a partial region representing the image feature based on the image feature amount;
A second image information acquisition step of acquiring image information;
Image position shift step of inputting a plurality of pieces of image information having different exposure times in the second image information acquisition step and detecting a shift amount between the images using the image partial area information specified in the image specifying step When,
A correction step of performing an inter-image shift correction process based on the shift amount between the images detected in the image position shift step;
An image processing method comprising: an image synthesis processing step of synthesizing a wide dynamic range image using the image subjected to the shift correction processing in the correction step.
前記第一の画像情報取得ステップで取得した画像情報の特徴量は、画像のコントラストであり、
前記画像特定ステップは、前記画像情報をブロックに分割し、ブロック毎にコントラストの平均値を求め、コントラスト平均値の高いブロック位置を特定する画像部分領域を特定し、
前記補正ステップは、前記画像特定ステップで特定した部分領域情報を用いて、画像間のずれ量を検知、補正することを特徴とする請求項4に記載の画像処理方法。
The feature amount of the image information acquired in the first image information acquisition step is an image contrast,
The image specifying step divides the image information into blocks, obtains an average value of contrast for each block, specifies an image partial region that specifies a block position having a high contrast average value,
The image processing method according to claim 4, wherein the correcting step detects and corrects a shift amount between images using the partial region information specified in the image specifying step.
前記第一の画像情報取得ステップで取得した画像情報の特徴量は、画像に映った人物の顔領域であり、
前記画像特定ステップは、前記顔領域を画像の特徴を現す部分領域とし、
前記補正ステップは、前記画像特定ステップで特定した部分領域情報を用いて、画像間のずれ量を検知、補正することを特徴とする請求項4に記載の画像処理方法。
The feature amount of the image information acquired in the first image information acquisition step is a face area of a person shown in the image,
In the image specifying step, the face area is set as a partial area representing the characteristics of the image,
The image processing method according to claim 4, wherein the correcting step detects and corrects a shift amount between images using the partial region information specified in the image specifying step.
コンピュータに、請求項4ないし6の何れかに記載の画像処理方法を実行させることを特徴とする画像形成プログラム。   An image forming program for causing a computer to execute the image processing method according to claim 4. コンピュータによって読み取り可能な画像処理プログラムを記録する記憶媒体であって、
前記画像処理プログラムとして請求項7記載の画像処理プログラムが記録されていることを特徴とする記憶媒体。
A storage medium for recording a computer-readable image processing program,
8. A storage medium in which the image processing program according to claim 7 is recorded as the image processing program.
JP2009108059A 2009-04-27 2009-04-27 Image capturing apparatus and image processing method Pending JP2010258885A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009108059A JP2010258885A (en) 2009-04-27 2009-04-27 Image capturing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009108059A JP2010258885A (en) 2009-04-27 2009-04-27 Image capturing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2010258885A true JP2010258885A (en) 2010-11-11

Family

ID=43319275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009108059A Pending JP2010258885A (en) 2009-04-27 2009-04-27 Image capturing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2010258885A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273023A (en) * 2009-05-20 2010-12-02 Hoya Corp Image pickup device
WO2013054446A1 (en) * 2011-10-14 2013-04-18 株式会社モルフォ Image compositing device, image compositing method, image compositing program, and recording medium
JP2013102554A (en) * 2013-03-04 2013-05-23 Morpho Inc Image synthesizer, image synthesizing method, image synthesis program, and recording medium
US9088729B2 (en) 2012-03-23 2015-07-21 Canon Kabushiki Kaisha Imaging apparatus and method of controlling same

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341582A (en) * 1999-05-31 2000-12-08 Sony Corp Image pickup device and its method
JP2005151495A (en) * 2003-11-20 2005-06-09 Konica Minolta Photo Imaging Inc Image processing method
JP2007057704A (en) * 2005-08-23 2007-03-08 Nikon Corp Camera
JP2008017169A (en) * 2006-07-06 2008-01-24 Nikon Corp Electronic camera
JP2008085538A (en) * 2006-09-27 2008-04-10 Fujifilm Corp Image evaluating device, method, and program
JP2008099038A (en) * 2006-10-12 2008-04-24 Nikon Corp Digital camera
JP2008181439A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Face detection device and method, and imaging apparatus
JP2008227990A (en) * 2007-03-14 2008-09-25 Casio Comput Co Ltd Imaging device, and imaging device control program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341582A (en) * 1999-05-31 2000-12-08 Sony Corp Image pickup device and its method
JP2005151495A (en) * 2003-11-20 2005-06-09 Konica Minolta Photo Imaging Inc Image processing method
JP2007057704A (en) * 2005-08-23 2007-03-08 Nikon Corp Camera
JP2008017169A (en) * 2006-07-06 2008-01-24 Nikon Corp Electronic camera
JP2008085538A (en) * 2006-09-27 2008-04-10 Fujifilm Corp Image evaluating device, method, and program
JP2008099038A (en) * 2006-10-12 2008-04-24 Nikon Corp Digital camera
JP2008181439A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Face detection device and method, and imaging apparatus
JP2008227990A (en) * 2007-03-14 2008-09-25 Casio Comput Co Ltd Imaging device, and imaging device control program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273023A (en) * 2009-05-20 2010-12-02 Hoya Corp Image pickup device
WO2013054446A1 (en) * 2011-10-14 2013-04-18 株式会社モルフォ Image compositing device, image compositing method, image compositing program, and recording medium
CN103168462A (en) * 2011-10-14 2013-06-19 株式会社摩如富 Image compositing device, image compositing method, image compositing program, and recording medium
JP5365823B2 (en) * 2011-10-14 2013-12-11 株式会社モルフォ Image composition apparatus, image composition method, image composition program, and recording medium
US9129414B2 (en) 2011-10-14 2015-09-08 Morpho, Inc. Image compositing apparatus, image compositing method, image compositing program, and recording medium
KR101609491B1 (en) 2011-10-14 2016-04-05 가부시키가이샤 모르포 Image compositing device, image compositing method and recording medium
CN103168462B (en) * 2011-10-14 2016-09-28 株式会社摩如富 Image synthesizer and image combining method
US9626750B2 (en) 2011-10-14 2017-04-18 Morpho, Inc. Image processing method for a composite image and image processing device, image processing program, and recording medium therefor
US9088729B2 (en) 2012-03-23 2015-07-21 Canon Kabushiki Kaisha Imaging apparatus and method of controlling same
JP2013102554A (en) * 2013-03-04 2013-05-23 Morpho Inc Image synthesizer, image synthesizing method, image synthesis program, and recording medium

Similar Documents

Publication Publication Date Title
JP4760973B2 (en) Imaging apparatus and image processing method
JP5589548B2 (en) Imaging apparatus, image processing method, and program storage medium
JP6157242B2 (en) Image processing apparatus and image processing method
US7450756B2 (en) Method and apparatus for incorporating iris color in red-eye correction
JP4818393B2 (en) Image processing method and image processing apparatus
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP4821626B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2010193058A (en) Image capture device, image capturing method, and image capturing program
JP2011193443A (en) Target tracking device
JP2010187348A (en) Apparatus, method and program for image processing
JP2010258885A (en) Image capturing apparatus and image processing method
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
JP5211589B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2015233202A (en) Image processing apparatus, image processing method, and program
JP5055571B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2005182232A (en) Luminance correcting device and method
JP2010154390A (en) Imaging device, imaging method, and program
JP5195973B2 (en) Image processing apparatus, electronic camera, and image processing program
KR100968375B1 (en) Method and Apparatus for Selecting Best Image
JP5159647B2 (en) Image processing apparatus and image processing method
JP5147912B2 (en) Image processing method, image processing apparatus, program, and recording medium
JP2005004287A (en) Face image detecting device and its control method
JP6025555B2 (en) Image processing apparatus, image processing method, and program
JP2014155000A (en) Image processing apparatus, control method for the same, and control program
US9648232B2 (en) Image processing apparatus, image capturing apparatus, control method and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130730