JP2014102614A - Image processing device, imaging device, display device, image processing method, and image processing program - Google Patents

Image processing device, imaging device, display device, image processing method, and image processing program Download PDF

Info

Publication number
JP2014102614A
JP2014102614A JP2012253181A JP2012253181A JP2014102614A JP 2014102614 A JP2014102614 A JP 2014102614A JP 2012253181 A JP2012253181 A JP 2012253181A JP 2012253181 A JP2012253181 A JP 2012253181A JP 2014102614 A JP2014102614 A JP 2014102614A
Authority
JP
Japan
Prior art keywords
image processing
image
intensity
value
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012253181A
Other languages
Japanese (ja)
Other versions
JP6441552B2 (en
Inventor
Daisuke Murayama
大輔 村山
Kei Tokui
圭 徳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012253181A priority Critical patent/JP6441552B2/en
Publication of JP2014102614A publication Critical patent/JP2014102614A/en
Application granted granted Critical
Publication of JP6441552B2 publication Critical patent/JP6441552B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of generating an image allowing a user to feel a sense of depth even when setting of an imaging device which captures an input image is changed.SOLUTION: An image processing device comprises: an image processing strength determination unit that, with reference to setting information of an imaging device in capturing an image and depth information corresponding to the image, determines image processing strength for each area into which the image is divided; and an image processing unit that performs image processing on image data of the image in accordance with the image processing strength.

Description

本発明は、画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, a display device, an image processing method, and an image processing program.

静止画又は動画を、ディジタルカメラやディジタルビデオカメラなどの撮像装置で撮像したりディスプレイに表示したりする際に、それら画像の先鋭感や鮮明感を高めるための、様々な画像処理技術が開発されている。該画像処理技術として、例えば、先鋭感を増加させる輪郭強調処理や、鮮明感を増加させる彩度強調処理などが挙げられる。さらに、奥行き感を調整する画像処理として奥行き情報を使用した画像処理技術が有る。例えば、特許文献1では、撮像装置と被写体の3次元的な位置関係を示す奥行きデータ(情報)と、奥行き感の調整度合いを表す奥行き程度とに基づき、奥行き感補正のゲインを制御することで自由に画像の奥行き感を調整できる画像処理装置が開示されている。   Various image processing technologies have been developed to enhance the sharpness and sharpness of still images or moving images when they are captured by an imaging device such as a digital camera or digital video camera or displayed on a display. ing. Examples of the image processing technique include a contour enhancement process that increases sharpness and a saturation enhancement process that increases sharpness. Furthermore, there is an image processing technique using depth information as image processing for adjusting the sense of depth. For example, in Patent Document 1, by controlling the depth correction gain based on the depth data (information) indicating the three-dimensional positional relationship between the imaging device and the subject and the depth level indicating the adjustment level of the depth sensation. An image processing apparatus that can freely adjust the depth of an image is disclosed.

特開2008−33897号公報JP 2008-33897 A

しかしながら、特許文献1に記載の画像処理装置においては、入力画像を撮像した撮像装置の設定、例えば、焦点距離、絞りなどが変更される場合を考慮しておらず、そのような場合に処理結果画像の奥行き感が不十分となる問題がある。例えば、焦点距離を変更してズームアップした場合、被写体と撮像装置の実際の位置関係が大きく変化していなくても、画角が狭くなり被写体が拡大され、被写体に近づいたような画像となる。また、被写界深度が浅くなり、被写界深度外の位置に存在する被写体のぼけ量が大きい画像となる。つまり、焦点距離の変化に応じて入力画像の被写体や構図が変化することで、奥行き感も変化するものの、特許文献1に記載の画像処理装置はこれを考慮していないため、処理結果画像の奥行き感が不十分となってしまう。   However, the image processing apparatus described in Patent Document 1 does not consider the case where the setting of the imaging apparatus that captured the input image, for example, the focal length, the aperture, or the like is changed. There is a problem that the depth of the image is insufficient. For example, when zooming up by changing the focal length, even if the actual positional relationship between the subject and the imaging device has not changed significantly, the angle of view becomes narrower and the subject is enlarged, resulting in an image that approaches the subject. . In addition, the depth of field becomes shallow, and an image with a large blur amount of a subject existing outside the depth of field is obtained. In other words, although the sense of depth changes as the subject and composition of the input image change according to the change in the focal length, the image processing apparatus described in Patent Document 1 does not consider this, so the processing result image A feeling of depth becomes insufficient.

本発明は、このような事情に鑑みてなされたものであって、撮像装置の設定が変更された場合にも、ユーザが奥行きを感じられる画像を生成することが可能な画像処理装置、撮像装置、表示装置、画像処理方法および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an image processing apparatus and an imaging apparatus capable of generating an image that allows the user to feel the depth even when the setting of the imaging apparatus is changed. An object is to provide a display device, an image processing method, and an image processing program.

(1)本発明は上述した課題を解決するためになされたもので、本発明の一態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部とを備えることを特徴とする画像処理装置である。 (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention refers to setting information of an imaging apparatus when an image is captured and depth information corresponding to the image. An image processing intensity determining unit that determines an image processing intensity for each region into which the image is divided, and an image processing unit that performs image processing on the image data of the image according to the image processing intensity. An image processing apparatus.

(2)また、本発明の他の態様は、被写体を撮像する撮像部と、上述の画像処理装置とを具備し、前記画像は、前記撮像部が撮像した画像であり、前記設定情報は、前記画像を前記撮像部が撮像した際の設定情報であることを特徴とする撮像装置である。 (2) Moreover, the other aspect of this invention comprises the imaging part which images a to-be-photographed object, and the above-mentioned image processing apparatus, The said image is the image which the said imaging part imaged, The said setting information is The image pickup apparatus is setting information when the image pickup unit picks up the image.

(3)また、本発明の他の態様は、上述の画像処理装置と、前記画像処理装置により画像処理された画像を表示する画像表示部とを備えることを特徴とする表示装置である。 (3) Moreover, the other aspect of this invention is a display apparatus characterized by including the above-mentioned image processing apparatus and the image display part which displays the image image-processed by the said image processing apparatus.

(4)また、本発明の他の態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する第1の過程と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う第2の過程とを有することを特徴とする画像処理方法である。 (4) According to another aspect of the present invention, image processing is performed for each area obtained by dividing the image with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image. An image processing method comprising: a first step of determining an intensity; and a second step of performing image processing on image data of the image according to the image processing intensity.

(5)また、本発明の他の態様は、コンピュータを、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部として機能させるための画像処理プログラムである。 (5) According to another aspect of the present invention, the computer refers to setting information of an imaging device when an image is captured and depth information corresponding to the image, and for each area obtained by dividing the image. An image processing program for functioning as an image processing intensity determining unit that determines image processing intensity and an image processing unit that performs image processing on image data of the image according to the image processing intensity.

本発明によれば、入力画像を撮像した撮像装置の設定が変化しても、ユーザが奥行きを感じられる画像を生成することが可能となる。
ADVANTAGE OF THE INVENTION According to this invention, even if the setting of the imaging device which imaged the input image changes, it becomes possible to produce | generate the image which a user can feel depth.

本発明の第1の実施形態における画像処理装置100の概略ブロック図である。1 is a schematic block diagram of an image processing apparatus 100 according to a first embodiment of the present invention. 同実施形態における焦点距離と強度補正値との対応関係を示すグラフの一例である。It is an example of the graph which shows the correspondence of the focal distance and intensity correction value in the embodiment. 同実施形態における焦点距離と強度補正値との対応関係を示すグラフの他の例である。It is another example of the graph which shows the correspondence of the focal distance and intensity correction value in the embodiment. 同実施形態の第1の変形例におけるF値と強度補正値との対応関係を示すグラフである。It is a graph which shows the correspondence of F value and intensity | strength correction value in the 1st modification of the embodiment. 同実施形態における奥行き情報値と強度ベース値との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the depth information value and intensity | strength base value in the embodiment. 同実施形態における強度補正値と、奥行き情報値が最大のときの画像処理強度との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the intensity | strength correction value in the same embodiment, and the image processing intensity when the depth information value is the maximum. 同実施形態における奥行き情報値と画像処理強度Sとの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the depth information value and image processing intensity | strength S in the embodiment. 同実施形態における画像データGiが表す入力画像の例を示す図である。It is a figure which shows the example of the input image which the image data Gi in the embodiment represents. 図8の画像データGiに対応した奥行き情報Dの例を示す図である。It is a figure which shows the example of the depth information D corresponding to the image data Gi of FIG. 同実施形態における画像処理装置100の処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of processing of the image processing apparatus 100 according to the embodiment. 本発明の第2の実施形態における画像処理装置100aの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the image processing apparatus 100a in the 2nd Embodiment of this invention. 同実施形態における奥行き情報解析部105の概略ブロック図である。It is a schematic block diagram of the depth information analysis part 105 in the embodiment. 同実施形態における奥行き情報値の頻度分布の一例を示した図である。It is the figure which showed an example of the frequency distribution of the depth information value in the embodiment. 同実施形態における奥行き情報値と強度ベース値との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the depth information value and intensity | strength base value in the embodiment. 同実施形態における奥行き情報値と強度ベース値との対応関係の他の一例を示す図である。It is a figure which shows another example of the correspondence of the depth information value and intensity | strength base value in the embodiment. 同実施形態における奥行き情報値と強度ベース値との対応関係の他の一例を示す図である。It is a figure which shows another example of the correspondence of the depth information value and intensity | strength base value in the embodiment. 本発明の第4の実施形態における撮像装置200の概略ブロック図である。It is a schematic block diagram of the imaging device 200 in the 4th Embodiment of this invention. 距離Zと視差dとの関係を示した図である。It is the figure which showed the relationship between the distance Z and the parallax d. 本発明の第5の実施形態における表示装置300の概略ブロック図である。It is a schematic block diagram of the display apparatus 300 in the 5th Embodiment of this invention.

[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照して詳細に説明する。なお、各図における表現は理解しやすいように誇張して記載しており、実際とは異なる場合がある。図1は、第1の実施形態における画像処理装置100の概略ブロック図である。画像処理装置100には、入力画像の画像データGiと、入力画像に対応した奥行き情報Dと、入力画像を撮像した際の撮像装置の撮像装置設定情報Pとが入力される。画像処理装置100は、奥行き情報Dと撮像装置設定情報Pとに基づき、画像データGiに対して画像処理を行い、処理結果を出力画像データGoとして出力する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. Note that the expressions in the drawings are exaggerated for easy understanding, and may differ from actual ones. FIG. 1 is a schematic block diagram of an image processing apparatus 100 according to the first embodiment. The image processing apparatus 100 receives image data Gi of the input image, depth information D corresponding to the input image, and imaging device setting information P of the imaging device when the input image is captured. The image processing device 100 performs image processing on the image data Gi based on the depth information D and the imaging device setting information P, and outputs the processing result as output image data Go.

ここで、画像データGiおよび出力画像データGoは、画像を構成する画素各々の階調値などの値からなるデータである。また、奥行き情報Dは、画像データGiが表す入力画像の各画素に対応する奥行き情報値からなる情報である。奥行き情報値は、入力画像を撮像した撮像装置から、入力画像における、該奥行き情報値に対応する画素が表す被写体までの距離を表す値である。すなわち、ある画素の奥行き情報値が大きくなるほど、撮像装置から該画素が表す被写体までの距離が大きくなる。例えば、各奥行き情報値を8ビットで表す奥行き情報の場合は、奥行き情報値0が最も近景の被写体であり、奥行き情報値255が最も遠景の被写体である。   Here, the image data Gi and the output image data Go are data composed of values such as the gradation values of the pixels constituting the image. The depth information D is information including depth information values corresponding to each pixel of the input image represented by the image data Gi. The depth information value is a value representing the distance from the imaging device that captured the input image to the subject represented by the pixel corresponding to the depth information value in the input image. That is, as the depth information value of a certain pixel increases, the distance from the imaging device to the subject represented by the pixel increases. For example, in the case of depth information in which each depth information value is represented by 8 bits, the depth information value 0 is the most distant subject and the depth information value 255 is the most distant subject.

また、撮像装置設定情報Pは、画像データGiが表す入力画像を撮像した際の撮像装置の設定を表す情報であり、本実施形態では、入力画像を撮像した撮像装置のレンズの焦点距離を表す情報である。後述するように、撮像装置設定情報Pは、例えば、F値、ISO感度、露光時間(シャッタースピード)、合焦点位置などを表す情報であってもよい。なお、画像データGiは、動画像を表すデータであってもよいし、静止画を表すデータであってもよい。画像データGiは、ビデオ信号などの信号で入力されてもよいし、JPEG(Joint Photographic Experts Group)ファイル、MPEG(Moving Picture Experts Group)ファイルなどのデータファイルで入力されてもよい。   Further, the imaging device setting information P is information indicating the setting of the imaging device when the input image represented by the image data Gi is captured, and in this embodiment, represents the focal length of the lens of the imaging device that captured the input image. Information. As will be described later, the imaging apparatus setting information P may be information representing, for example, an F value, ISO sensitivity, exposure time (shutter speed), in-focus position, and the like. The image data Gi may be data representing a moving image or data representing a still image. The image data Gi may be input as a signal such as a video signal, or may be input as a data file such as a JPEG (Joint Photographic Experts Group) file or an MPEG (Moving Picture Experts Group) file.

画像処理装置100は、画像処理強度決定部101と、画像処理部102とを含んで構成される。画像処理強度決定部101は、入力画像に対応した奥行き情報Dと、入力画像を撮像した際の撮像装置の撮像装置設定情報Pとを参照して、画像を分割した領域毎(本実施形態では、画素毎)に、画像処理強度Sを決定する。画像処理部102は、画像処理強度Sに従い、入力画像の画像データGiに対して画像処理を行う。
画像処理強度決定部101は、強度補正値決定部103と、画像処理強度算出部104とを含んで構成される。
The image processing apparatus 100 includes an image processing intensity determining unit 101 and an image processing unit 102. The image processing intensity determination unit 101 refers to the depth information D corresponding to the input image and the imaging device setting information P of the imaging device when the input image is captured, for each area into which the image is divided (in this embodiment, The image processing intensity S is determined for each pixel. The image processing unit 102 performs image processing on the image data Gi of the input image according to the image processing strength S.
The image processing intensity determination unit 101 includes an intensity correction value determination unit 103 and an image processing intensity calculation unit 104.

強度補正値決定部103は、入力された撮像装置設定情報Pに基づいて、予め決められた規則によって強度補正値を決定し、画像処理強度算出部104に出力する。ここで、強度補正値は、後段の画像処理強度算出部104で画像処理強度を算出する際の補正度合いを表す値である。強度補正値決定部103の処理の詳細は後述する。   The intensity correction value determination unit 103 determines an intensity correction value according to a predetermined rule based on the input imaging device setting information P, and outputs it to the image processing intensity calculation unit 104. Here, the intensity correction value is a value representing the degree of correction when the image processing intensity calculation unit 104 in the subsequent stage calculates the image processing intensity. Details of the processing of the intensity correction value determination unit 103 will be described later.

画像処理強度算出部104は、強度補正値決定部103が決定した強度補正値と、画像処理装置100の外部から入力された奥行き情報Dとに基づいて、画像データGiの各画素における画像処理強度Sを算出する。画像処理強度算出部104は、算出した画像処理強度Sを画像処理部102へ出力する。画像処理強度算出部104の処理の詳細は後述する。   Based on the intensity correction value determined by the intensity correction value determination unit 103 and the depth information D input from the outside of the image processing apparatus 100, the image processing intensity calculation unit 104 performs image processing intensity for each pixel of the image data Gi. S is calculated. The image processing intensity calculation unit 104 outputs the calculated image processing intensity S to the image processing unit 102. Details of the processing of the image processing intensity calculation unit 104 will be described later.

画像処理部102は、画像処理強度算出部104の出力情報である画像処理強度Sにしたがって、画像データGiに対して画像処理を行う。画像処理部102が行う画像処理は、輪郭強調処理、コントラスト強調処理、彩度強調処理、ぼかし処理、ノイズ除去処理などのいずれであってもよい。画像処理部102は、画像処理を行うことにより生成した画像を出力画像データGoとして画像処理装置100の外部へ出力する。画像処理部102の処理の詳細は後述する。   The image processing unit 102 performs image processing on the image data Gi in accordance with the image processing strength S that is output information of the image processing strength calculation unit 104. The image processing performed by the image processing unit 102 may be any of contour enhancement processing, contrast enhancement processing, saturation enhancement processing, blurring processing, noise removal processing, and the like. The image processing unit 102 outputs an image generated by performing image processing to the outside of the image processing apparatus 100 as output image data Go. Details of the processing of the image processing unit 102 will be described later.

<強度補正値決定部103の処理の詳細>
続いて、強度補正値決定部103の処理の詳細について説明する。強度補正値決定部103は、画像処理装置100の外部から入力された設定情報Pに基づいて強度補正値を算出し、画像処理強度算出部104へ出力する。
<Details of Processing of Strength Correction Value Determination Unit 103>
Next, details of the processing of the intensity correction value determination unit 103 will be described. The intensity correction value determination unit 103 calculates an intensity correction value based on setting information P input from the outside of the image processing apparatus 100 and outputs the intensity correction value to the image processing intensity calculation unit 104.

(焦点距離に基づく強度補正値の算出方法)
図2は、本実施形態における撮像装置設定情報P(レンズの焦点距離)と強度補正値との対応関係を示すグラフの一例である。同図を用いて、強度補正値決定部103がレンズの焦点距離に基づいて強度補正値を決定する方法について説明する。
(Calculation method of intensity correction value based on focal length)
FIG. 2 is an example of a graph showing a correspondence relationship between the imaging apparatus setting information P (lens focal length) and the intensity correction value in the present embodiment. A method in which the intensity correction value determination unit 103 determines the intensity correction value based on the focal length of the lens will be described with reference to FIG.

同図において、横軸が焦点距離、縦軸が強度補正値である。また、同図において、最小焦点距離fminと、最大焦点距離fmaxと、強度補正値決定部103に入力された撮像装置設定情報Pが示す焦点距離の一例として焦点距離fpとが示されている。また、最小焦点距離fminに対応する強度補正値は、最小強度補正値Cfminであり、最大焦点距離fmaxに対応する強度補正値は、最大強度補正値Cfmaxである。また、焦点距離fpに対応する強度補正値は、強度補正値Cf1である。   In the figure, the horizontal axis represents the focal length, and the vertical axis represents the intensity correction value. Further, in the figure, the minimum focal length fmin, the maximum focal length fmax, and the focal length fp are shown as an example of the focal length indicated by the imaging device setting information P input to the intensity correction value determination unit 103. The intensity correction value corresponding to the minimum focal distance fmin is the minimum intensity correction value Cfmin, and the intensity correction value corresponding to the maximum focal distance fmax is the maximum intensity correction value Cfmax. The intensity correction value corresponding to the focal length fp is the intensity correction value Cf1.

強度補正値決定部103は、図2に示すグラフに対応したLUT(Look Up Table)を予め記憶しており、入力された撮像装置設定情報Pが示す焦点距離に対応付けて、該LUTが記憶している値を読み出し、該値を強度補正値とする。すなわち、入力された撮像装置設定情報Pが示す焦点距離がfpであれば、強度補正値をCf1とし、入力された撮像装置設定情報Pが示す焦点距離がfminであれば、強度補正値をCfminとし、入力された撮像装置設定情報Pが示す焦点距離がfmaxであれば、強度補正値をCfmaxとする。なお、強度補正値決定部103は、LUTではなく、図2のグラフを表す演算式を記憶しておき、該演算式を用いて、強度補正値を算出するようにしてもよい。   The intensity correction value determination unit 103 stores an LUT (Look Up Table) corresponding to the graph shown in FIG. 2 in advance, and stores the LUT in association with the focal length indicated by the input imaging device setting information P. The read value is read out, and this value is used as the intensity correction value. That is, if the focal length indicated by the input imaging device setting information P is fp, the intensity correction value is Cf1, and if the focal length indicated by the input imaging device setting information P is fmin, the intensity correction value is Cfmin. If the focal length indicated by the input imaging device setting information P is fmax, the intensity correction value is Cfmax. The intensity correction value determination unit 103 may store an arithmetic expression representing the graph of FIG. 2 instead of the LUT, and calculate the intensity correction value using the arithmetic expression.

なお、入力画像を撮像した撮像装置の最小焦点距離及び最大焦点距離は、最小焦点距離fmin及び最大焦点距離fmaxが示す範囲内であることが望ましい。つまり、入力画像を撮像した撮像装置は、最小焦点距離fminから最大焦点距離fmaxまでの範囲かより狭い範囲で、焦点距離を変更可能な光学系を備えていることが望ましい。   Note that it is desirable that the minimum focal length and the maximum focal length of the imaging apparatus that captured the input image are within the ranges indicated by the minimum focal length fmin and the maximum focal length fmax. That is, it is desirable that an imaging apparatus that captures an input image includes an optical system that can change the focal length in the range from the minimum focal length fmin to the maximum focal length fmax or in a narrower range.

図2に示す例では、焦点距離が大きくなるにしたがって、線形に強度補正値が大きくなる特性が示されている。光学系のズームによる焦点距離の変化が線形であることを考慮すると、このような対応関係が最も好適である。ただし、これに限られるものではなく、例えば図3に示すように、焦点距離が大きくなるほど、より大幅に強度補正値が大きくなるような非線形の特性としてもよい。同図では、焦点距離fmin、fmaxのときは、強度補正値は図2と変わらず、焦点距離fpのときは、強度補正値Cf1より小さな強度補正値Cf2となることが示されている。   The example shown in FIG. 2 shows a characteristic that the intensity correction value increases linearly as the focal length increases. Considering that the change in the focal length due to the zooming of the optical system is linear, such a correspondence relationship is most preferable. However, the present invention is not limited to this. For example, as shown in FIG. 3, nonlinear characteristics may be used in which the intensity correction value is significantly increased as the focal length is increased. In the figure, it is shown that the intensity correction value is the same as that in FIG. 2 at the focal lengths fmin and fmax, and the intensity correction value Cf2 is smaller than the intensity correction value Cf1 at the focal length fp.

上記のように、焦点距離と強度補正値の関係を単調増加とすると、焦点距離の変化と画像処理結果が対応するため好適となる。ここで、本実施形態での単調増加は傾きが0である場合も含む広義の単調増加であり、例えば、焦点距離が十分に大きい場合、又は、小さい場合において、過度強調とならないように強度補正値を飽和させてもよい。   As described above, when the relationship between the focal length and the intensity correction value is monotonously increased, it is preferable because the change in the focal length corresponds to the image processing result. Here, the monotonic increase in the present embodiment is a monotonic increase in a broad sense including the case where the slope is 0. For example, when the focal length is sufficiently large or small, the intensity is corrected so as not to be overemphasized. The value may be saturated.

以上の方法により、強度補正値決定部103は、撮像装置設定情報P、すなわちレンズの焦点距離に基づいて強度補正値を算出し、画像処理強度算出部104に出力する。
一般に、焦点距離が大きくなると被写界深度が浅くなり、焦点の合っていない位置の被写体がぼけてぼけ領域が増加する。ぼけ領域では、被写体の輪郭がより曖昧になり、コントラストや彩度は低下する。そこで上記のように、焦点距離が大きくなるにしたがって、強度補正値を大きくすることで、後述する画像処理強度算出部104で設定される画像処理強度を大きくする。これにより、ズームアップ(焦点距離を大きく)して被写界深度が浅くなり、被写界深度外のぼけ量が大きくなった場合に、画像処理部102における輪郭強調処理、コントラスト強調や彩度補正処理などの画像処理強度をより大きくし、焦点距離の変化によるぼけ量の変化を抑えることができる。
With the above method, the intensity correction value determination unit 103 calculates the intensity correction value based on the imaging apparatus setting information P, that is, the focal length of the lens, and outputs the intensity correction value to the image processing intensity calculation unit 104.
In general, as the focal length increases, the depth of field decreases, and the subject at the out-of-focus position is blurred and the blur area increases. In the blurred area, the outline of the subject becomes more ambiguous, and the contrast and saturation decrease. Thus, as described above, the image processing intensity set by the image processing intensity calculating unit 104 described later is increased by increasing the intensity correction value as the focal length increases. Accordingly, when the depth of field becomes shallow due to zooming up (increasing the focal length) and the amount of blur outside the depth of field becomes large, the contour enhancement processing, contrast enhancement, and saturation in the image processing unit 102 are performed. The intensity of image processing such as correction processing can be increased, and the change in blur amount due to the change in focal length can be suppressed.

なお、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、焦点距離の大小変化に対する画像処理強度の大小変化の関係とが同じになるように、強度補正値を決定している。   As will be described later, since the image processing intensity calculation unit 104 described later increases the image processing intensity as the depth information value increases, the intensity correction value determination unit 103 determines the image processing intensity for the magnitude change of the depth information value. The intensity correction value is determined so that the relationship between the magnitude change and the relation between the magnitude change in the image processing intensity with respect to the magnitude change in the focal length are the same.

(F値に基づく強度補正値の算出方法(第1の変形例))
また、撮像装置設定情報Pは、絞りを表すF値であってもよい。以下、本実施形態の第1の変形例として、撮像装置設定情報PがF値であり、強度補正値決定部103が、F値に基づいて強度補正値を算出する場合を説明する。図4は、本実施形態の第1の変形例におけるF値と強度補正値との対応関係を示すグラフである。同図において、横軸はF値、縦軸は強度補正値である。また、同図において、最小F値Fminと、最大F値Fmaxと、強度補正値決定部103に入力された撮像装置設定情報Pが示すF値の一例としてF値Fpとが示されている。また、最小F値Fminに対応する強度補正値は、最大強度補正値CFmaxであり、最大F値Fmaxに対応する強度補正値は、最小強度補正値CFminである。また、F値Fpに対応する強度補正値は、強度補正値CF1である。
(Calculation method of intensity correction value based on F value (first modification))
Further, the imaging device setting information P may be an F value representing an aperture. Hereinafter, as a first modification of the present embodiment, a case where the imaging apparatus setting information P is an F value and the intensity correction value determination unit 103 calculates an intensity correction value based on the F value will be described. FIG. 4 is a graph showing the correspondence between the F value and the intensity correction value in the first modification of the present embodiment. In the figure, the horizontal axis represents the F value, and the vertical axis represents the intensity correction value. Further, in the figure, a minimum F value Fmin, a maximum F value Fmax, and an F value Fp as an example of the F value indicated by the imaging device setting information P input to the intensity correction value determination unit 103 are illustrated. The intensity correction value corresponding to the minimum F value Fmin is the maximum intensity correction value CFmax, and the intensity correction value corresponding to the maximum F value Fmax is the minimum intensity correction value CFmin. The intensity correction value corresponding to the F value Fp is the intensity correction value CF1.

本変形例における強度補正値決定部103は、図4に示すグラフに対応したLUTを予め記憶しており、入力された撮像装置設定情報Pが示すF値に対応付けて、該LUTが記憶している値を読み出し、該値を強度補正値とする。
なお、入力画像を撮像した撮像装置の最小F値及び最大F値は、最小F値Fmin及び最大F値Fmaxが示す範囲内であることが望ましい。つまり、入力画像を撮像した撮像装置は、最小F値Fminから最大F値Fmaxまでの範囲かより狭い範囲で、絞りが可変な光学系を備えることが望ましい。
The intensity correction value determination unit 103 according to the present modification stores an LUT corresponding to the graph shown in FIG. 4 in advance, and the LUT stores the LUT in association with the F value indicated by the input imaging device setting information P. The value is read out and used as an intensity correction value.
Note that it is desirable that the minimum F value and the maximum F value of the imaging apparatus that captured the input image are within the ranges indicated by the minimum F value Fmin and the maximum F value Fmax. That is, it is desirable that an imaging apparatus that captures an input image includes an optical system whose aperture is variable in a range from the minimum F value Fmin to the maximum F value Fmax or in a narrower range.

図4に示す例では、F値が大きくなるにしたがって、非線形に強度補正値が小さくなる特性が示されている。同じ焦点距離であれば、F値が大きくなる(レンズの絞りを絞る)にしたがって被写界深度が深くなる関係があるため、F値が大きいほど強度補正値を小さくしている。このとき、レンズの開口面積が半分(明るさが半分)になるときF値が√2倍となる関係を考慮すると、図4に示したような非線形の対応関係が最も好適である。ただし、これに限られるものではなく、例えばF値が大きくなるにしたがって、線形に強度補正値が小さくなる特性としてもよい。   The example shown in FIG. 4 shows a characteristic that the intensity correction value decreases nonlinearly as the F value increases. For the same focal length, there is a relationship that the depth of field becomes deeper as the F value increases (the lens aperture is reduced), so the intensity correction value decreases as the F value increases. In this case, considering the relationship that the F value becomes √2 when the aperture area of the lens is halved (the brightness is halved), the non-linear correspondence as shown in FIG. 4 is most preferable. However, the present invention is not limited to this. For example, the intensity correction value may be linearly reduced as the F value increases.

このように、F値と強度補正値の関係を単調減少とすると、F値の変化と画像処理結果が対応するため好適となる。ここで、本実施形態での単調減少は傾きが0である場合も含む広義の単調減少であり、例えば、F値が十分に大きい、又は、小さい値において、画像処理強度パラメータを過度強調とならないように飽和させてもよい。   Thus, if the relationship between the F value and the intensity correction value is monotonically decreased, it is preferable because the change in the F value corresponds to the image processing result. Here, the monotonic decrease in the present embodiment is a monotonic decrease in a broad sense including the case where the slope is 0. For example, when the F value is sufficiently large or small, the image processing intensity parameter is not overemphasized. May be saturated.

一般に、F値が小さいほど被写界深度が浅くなり、焦点が合っていない被写体がぼけてしまう領域が増加する。反対に、F値が大きいほど被写界深度が深くなり、焦点が合っている被写体の領域が増加する。そこで上記のように、F値が大きくなるにしたがって、強度補正値を小さくすることで、後段の画像処理強度算出部104で設定される画像処理強度が弱くなる。したがって、レンズの絞りを開放(F値を小さくする)して被写界深度が浅くなり、被写界深度外のぼけ量が大きくなった場合に、輪郭強調処理、コントラスト強調や彩度補正処理などの画像処理強度をより強くし、絞り(F値)の変更によるぼけ量の変化の影響を抑えることができる。   In general, the smaller the F value, the shallower the depth of field, and the greater the area where an out-of-focus subject is blurred. Conversely, the greater the F value, the deeper the depth of field and the more focused subject areas. Therefore, as described above, as the F value increases, the intensity correction value is decreased, so that the image processing intensity set by the subsequent image processing intensity calculation unit 104 is reduced. Therefore, when the lens aperture is opened (F value is decreased) and the depth of field becomes shallow and the amount of blur outside the depth of field increases, the contour enhancement processing, contrast enhancement and saturation correction processing are performed. The image processing intensity such as the above can be increased, and the influence of the change in the blur amount due to the change of the aperture (F value) can be suppressed.

なお、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、F値の大小変化に対する画像処理強度の大小変化の関係とが逆になるように、強度補正値を決定している。   As will be described later, since the image processing intensity calculation unit 104 described later increases the image processing intensity as the depth information value increases, the intensity correction value determination unit 103 determines the image processing intensity for the magnitude change of the depth information value. The intensity correction value is determined so that the relationship between the magnitude change and the relation between the magnitude change in the image processing intensity with respect to the magnitude change in the F value are reversed.

(ISO感度に基づく強度補正値の算出方法(第2の変形例))
また、撮像装置設定情報Pは、ISO感度であってもよい。以下、本実施形態の第2の変形例として、撮像装置設定情報PがISO感度であり、強度補正値決定部103が、ISO感度に基づいて強度補正値を算出する場合を説明する。
一般に、撮像装置では、ISO感度の値を変更すると、撮像素子に照射された光を光電変換する際の、電気信号の増幅度合いが調整される。そのため、例えば、撮像素子への入射光量が少ない場合には、ISO感度の値を大きくすると、電気信号を増幅する際の増幅度が大きくなり、明るい画像を撮像することが可能となる。
(Calculation method of intensity correction value based on ISO sensitivity (second modification))
Further, the imaging device setting information P may be ISO sensitivity. Hereinafter, a case where the imaging apparatus setting information P is ISO sensitivity and the intensity correction value determination unit 103 calculates an intensity correction value based on the ISO sensitivity will be described as a second modification of the present embodiment.
In general, in an imaging apparatus, when the ISO sensitivity value is changed, the amplification degree of an electric signal when photoelectrically converting light irradiated to the imaging element is adjusted. Therefore, for example, when the amount of incident light to the image sensor is small, increasing the ISO sensitivity value increases the amplification factor when amplifying the electrical signal, and enables a bright image to be captured.

本変形例では、強度補正値決定部103は、ISO感度の値が大きくなるにしたがって、線形に強度補正値が大きくなるように、強度補正値を決定する。強度補正値決定部103は、例えば、図2に示した焦点距離と強度補正値との対応関係と同様な、線形の特性を用いる。ISO感度の値の変化が線形であることを考慮すると、このような線形の特性が最も好適である。   In this modification, the intensity correction value determination unit 103 determines the intensity correction value so that the intensity correction value increases linearly as the ISO sensitivity value increases. For example, the intensity correction value determination unit 103 uses linear characteristics similar to the correspondence relationship between the focal length and the intensity correction value shown in FIG. Considering that the change of the ISO sensitivity value is linear, such a linear characteristic is most preferable.

一般に、電気信号を増幅する際にはノイズ信号も同時に増幅されてしまうため、ISO感度の値が大きくなるにしたがってノイズ信号も増幅され、画質劣化が目立つようになる。そこで上記のように、ISO感度の値が大きくなるにしたがって、強度補正値を大きくすることで、後段の画像処理強度算出部104で設定される画像処理強度を強くする。これにより、ISO感度の値を大きくすることでノイズ信号が増幅され、画像が劣化した場合に、ぼかし処理やノイズ除去処理などの画像処理の画像処理強度をより強くし、ISO感度の増加による画像の劣化を抑えることができる。   In general, when an electric signal is amplified, a noise signal is also amplified at the same time. Therefore, as the ISO sensitivity value increases, the noise signal is also amplified, and image quality deterioration becomes conspicuous. Therefore, as described above, as the ISO sensitivity value increases, the intensity correction value is increased to increase the image processing intensity set by the subsequent image processing intensity calculating unit 104. Accordingly, when the ISO signal is increased to increase the noise signal and the image is deteriorated, the image processing intensity of image processing such as blurring processing and noise removal processing is further increased, and the image due to the increase in ISO sensitivity. Can be prevented.

なお、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、ISO感度の大小変化に対する画像処理強度の大小変化の関係とが同じになるように、強度補正値を決定している。   As will be described later, since the image processing intensity calculation unit 104 described later increases the image processing intensity as the depth information value increases, the intensity correction value determination unit 103 determines the image processing intensity for the magnitude change of the depth information value. The intensity correction value is determined so that the relationship between the magnitude change and the relation between the magnitude change in image processing intensity with respect to the magnitude change in ISO sensitivity are the same.

また、後述する画像処理部102における画像処理の種類が複数あってもよい。その場合、各々の画像処理に対して別々の強度補正値および画像処理強度を算出してもよい。例えば、画像処理部102においてノイズ除去処理と輪郭強調処理とを行う場合を説明する。前述のように、ISO感度の値が大きくなるとノイズ信号も増幅されるため、画像処理強度を大きくして、ノイズ除去処理によりノイズ量を低減する。しかし、輪郭強調処理はノイズを目立たせてしまうため、ノイズ除去処理と同様に画像処理強度を大きくすることは望ましくない。そこで、強度補正値決定部103は、ノイズ除去処理に対する第1強度補正値については、図3のような関係から算出し、輪郭強調処理に対する第2強度補正値については、図4のような関係から算出する。このように、複数の強度補正値と画像処理強度を算出することで、画像処理の内容に対して適切な画像処理強度が算出できるようになるため好適である。   There may be a plurality of types of image processing in the image processing unit 102 described later. In that case, separate intensity correction values and image processing intensities may be calculated for each image processing. For example, a case where the image processing unit 102 performs noise removal processing and contour enhancement processing will be described. As described above, since the noise signal is amplified when the ISO sensitivity value increases, the image processing intensity is increased, and the noise amount is reduced by the noise removal processing. However, since the edge enhancement process makes noise conspicuous, it is not desirable to increase the image processing intensity as in the noise removal process. Therefore, the intensity correction value determination unit 103 calculates the first intensity correction value for the noise removal process from the relationship as shown in FIG. 3, and the second intensity correction value for the edge enhancement process as shown in FIG. Calculate from In this way, calculating a plurality of intensity correction values and image processing intensities is preferable because an appropriate image processing intensity can be calculated for the contents of the image processing.

(シャッタースピードに基づく強度補正値の算出方法(第3の変形例))
また、撮像装置設定情報Pは、シャッタースピード(露光時間)であってもよい。以下、本実施形態の第3の変形例として、撮像装置設定情報Pがシャッタースピードであり、強度補正値決定部103が、シャッタースピードに基づいて強度補正値を算出する場合を説明する。
一般に、撮像装置では、シャッタースピードの値を変更することで、撮像素子への露光時間を調整することが可能であり、シャッタースピードの値を半分にすれば、露光時間を半分にすることができる。例えば、動被写体を静止画で撮像する場合、露光時間が長いことで動被写体がぶれてしまうことがあるが、シャッタースピードの値を小さくし露光時間を短くすることで、動被写体のぶれを防ぐことが可能となる。
(Calculation method of intensity correction value based on shutter speed (third modification))
Further, the imaging apparatus setting information P may be a shutter speed (exposure time). Hereinafter, a case where the imaging apparatus setting information P is the shutter speed and the intensity correction value determination unit 103 calculates the intensity correction value based on the shutter speed will be described as a third modification of the present embodiment.
In general, in an imaging apparatus, it is possible to adjust the exposure time to the image sensor by changing the shutter speed value. If the shutter speed value is halved, the exposure time can be halved. . For example, when a moving subject is imaged as a still image, the moving subject may be blurred due to a long exposure time. By reducing the shutter speed value and shortening the exposure time, the moving subject is prevented from being blurred. It becomes possible.

本変形例では、強度補正値決定部103は、シャッタースピードの値が大きくなるにしたがって、非線形に強度補正値が小さくなるように、強度補正値を決定する。強度補正値決定部103は、例えば、図4に示したF値と強度補正値との対応関係のような非線形の特性を用いる。シャッタースピードの値を非線形で変化させることを考慮すると、このような非線形の対応関係が最も好適である。   In this modification, the intensity correction value determination unit 103 determines the intensity correction value so that the intensity correction value decreases nonlinearly as the shutter speed value increases. The intensity correction value determination unit 103 uses a non-linear characteristic such as the correspondence relationship between the F value and the intensity correction value shown in FIG. In consideration of changing the shutter speed value in a non-linear manner, such a non-linear correspondence is most preferable.

一般に、シャッタースピードの値を小さく(露光時間を短く)した場合には、入射光量が減少するため撮像される画像が暗くなってしまう。そこで、適切な明るさの画像を撮像するために、上記したISO感度などによって電気信号の増幅を行ったり、あるいは、撮像後の画像の各画素値にゲインをかけて明るくしたりする。このような処理を行った場合、ノイズ信号も同時に増幅してしまう、あるいは、ノイズがのった画素値を明るくしてしまうため、画質劣化が目立つようになる。そこで上記のように、シャッタースピードの値が大きくなるにしたがって、強度補正値が小さくなるようにすると、後段の画像処理強度算出部104で設定される画像処理強度が弱くなる。したがって、シャッタースピードの値が小さくノイズが目立つ場合にはより強い画像処理強度とし、シャッタースピードの値が大きい場合には画像処理強度を弱くすることができる。   In general, when the shutter speed value is reduced (exposure time is shortened), the amount of incident light is reduced, and the captured image becomes dark. Therefore, in order to capture an image with appropriate brightness, an electric signal is amplified by the above-described ISO sensitivity or the like, or each pixel value of the image after imaging is gained with a gain. When such a process is performed, the noise signal is also amplified at the same time, or the pixel value on which the noise is added is brightened, so that the image quality deterioration becomes conspicuous. Therefore, as described above, if the intensity correction value is decreased as the shutter speed value is increased, the image processing intensity set by the subsequent image processing intensity calculation unit 104 is decreased. Accordingly, when the shutter speed value is small and noise is conspicuous, the image processing intensity can be made stronger, and when the shutter speed value is large, the image processing intensity can be weakened.

なお、上記ではシャッタースピードの値に基づいて強度補正値を算出したが、露光時間の情報を撮像装置設定情報Pとして用いてもよい。上記したように、シャッタースピードと露光時間との対応関係は線形であるため、シャッタースピードと強度補正値との非線形の対応関係と同様に、露光時間が長く(値が大きく)なるにしたがって、強度補正値が非線形に小さくなるような対応関係とすればよい。   In the above description, the intensity correction value is calculated based on the shutter speed value. However, exposure time information may be used as the imaging device setting information P. As described above, since the correspondence between the shutter speed and the exposure time is linear, the intensity increases as the exposure time becomes longer (value increases) as in the nonlinear correspondence between the shutter speed and the intensity correction value. The correspondence relationship may be such that the correction value decreases nonlinearly.

また、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、シャッタースピード又は露光時間の大小変化に対する画像処理強度の大小変化の関係とが逆になるように、強度補正値を決定している。   Further, as will be described later, the image processing intensity calculation unit 104 described later increases the image processing intensity as the depth information value increases, so the intensity correction value determination unit 103 determines the image processing intensity for the magnitude change of the depth information value. The intensity correction value is determined such that the relationship between the magnitude change and the relation between the magnitude change in the image processing intensity with respect to the magnitude change in the shutter speed or the exposure time are reversed.

(合焦点位置に基づく強度補正値の算出方法(第4の変形例))
さらに、撮像装置設定情報Pは、合焦点位置の情報であってもよい。以下、本実施形態の第4の変形例として、撮像装置設定情報Pが合焦点位置の情報であり、強度補正値決定部103が、合焦点位置情報に基づいて強度補正値を算出する場合を説明する。
ここで、合焦点位置情報とは、合焦位置の被写体が存在する入力画像上の2次元位置情報と、撮像装置から該被写体までの距離情報を表す奥行き情報値のことを言う。なお、該奥行き情報値は、奥行き情報Dを強度補正値決定部103に入力する構成として取得してもよいし、撮像装置の光学系、すなわちレンズの動作情報から凡その値を算出するようにしてもよい。
(Calculation method of intensity correction value based on in-focus position (fourth modification))
Further, the imaging device setting information P may be information on the focal point position. Hereinafter, as a fourth modification of the present embodiment, a case where the imaging apparatus setting information P is in-focus position information and the intensity correction value determination unit 103 calculates an intensity correction value based on the in-focus position information. explain.
Here, the in-focus position information refers to two-dimensional position information on the input image where the subject at the in-focus position exists, and depth information values representing distance information from the imaging device to the subject. The depth information value may be acquired as a configuration in which the depth information D is input to the intensity correction value determination unit 103, or an approximate value may be calculated from the operation information of the optical system of the imaging apparatus, that is, the lens. May be.

合焦点位置情報に基づいて強度補正値を算出する場合、例えば、近景に人物被写体が存在し、遠景に山などの風景が写っている入力画像のとき、合焦点の2次元位置が遠景側の被写体上であれば、焦点は遠景に合わされている。したがって、近景の人物被写体のぼけ量は大きくなっている。このとき、奥行き情報値の大きい遠景側の強度補正値は小さく、奥行き情報値の小さい近景側の強度補正値は大きくなるように算出することで、ぼけ量の大きい近景の人物被写体においてより大きい画像処理強度とし、合焦した遠景の被写体において画像処理強度を弱くすることができる。ここで、被写体の奥行き情報値と強度補正値の対応関係をグラフで表した場合、縦軸を強度補正値、横軸を奥行き情報値とすると、合焦点位置の奥行き情報値で強度補正値が最小となるV字型の特性で表すことができる。   When calculating the intensity correction value based on the in-focus position information, for example, when the input image includes a human subject in the foreground and a landscape such as a mountain in the foreground, the two-dimensional position of the in-focus is on the far side. If it is on the subject, the focus is on the distant view. Therefore, the blur amount of the near-field human subject is large. At this time, by calculating so that the intensity correction value on the foreground side with a large depth information value is small and the intensity correction value on the foreground side with a small depth information value is large, a larger image is obtained in a foreground human subject with a large amount of blur. With the processing intensity, it is possible to reduce the image processing intensity in a distant subject in focus. Here, when the correspondence relationship between the depth information value of the subject and the intensity correction value is represented by a graph, if the vertical axis is the intensity correction value and the horizontal axis is the depth information value, the intensity correction value is the depth information value at the in-focus position. It can be expressed by a V-shaped characteristic that is minimized.

なお、第1の実施形態およびその第1から第3の変形例では、強度補正値決定部103は、強度補正値を入力画像毎(動画の場合はフレーム毎)に決定しているが、本変形例では、強度補正値を入力画像の画素毎に決定する。   In the first embodiment and the first to third modifications, the intensity correction value determination unit 103 determines the intensity correction value for each input image (for each frame in the case of a moving image). In the modification, the intensity correction value is determined for each pixel of the input image.

以上では、焦点距離、F値、ISO感度、シャッタースピード又は合焦点位置の情報に基づいて強度補正値を算出する方法を説明したが、これに限られるものではない。例えば、複数の撮像装置設定情報Pが強度補正値決定部103に入力されることも考えられるため、複数の撮像装置設定情報Pに基づいて強度補正値を算出してもよい。
例えば、焦点距離とF値の両方の情報に基づいて算出するようにしてもよい。この場合、図2で示した焦点距離fpに基づいて算出した強度補正値Cf1と、図4で示したF値Fpに基づいて算出した強度補正値CF1とを加算した値を最終的な強度補正値とすることができる。また、強度補正値Cf1と強度補正値CF1の平均値又は乗算値などを用いてもよいし、強度補正値Cf1と強度補正値CF1の重みを変化させて加算した値を用いてもよい。
The method for calculating the intensity correction value based on the information on the focal length, F value, ISO sensitivity, shutter speed, or in-focus position has been described above, but the present invention is not limited to this. For example, since a plurality of imaging device setting information P may be input to the intensity correction value determination unit 103, the intensity correction value may be calculated based on the plurality of imaging device setting information P.
For example, it may be calculated based on information on both the focal length and the F value. In this case, a value obtained by adding the intensity correction value Cf1 calculated based on the focal length fp shown in FIG. 2 and the intensity correction value CF1 calculated based on the F value Fp shown in FIG. Can be a value. Further, an average value or a multiplication value of the intensity correction value Cf1 and the intensity correction value CF1 may be used, or a value obtained by changing the weights of the intensity correction value Cf1 and the intensity correction value CF1 may be used.

また、例えば、上記撮像装置設定情報Pのうち焦点距離、F値、ISO感度、シャッタースピードの4つに基づいて算出してもよい。この場合、上記例のように、それぞれの撮像装置設定情報Pに基づいて算出した4つの強度補正値の、加算値、平均値又は乗算値などを最終的な強度補正値としてもよい。また、それぞれの重みを変化させて加算した値を用いてもよい。
以上のように、複数の撮像装置設定情報Pを自由に組み合わせて強度補正値を算出することができる。
Further, for example, the calculation may be performed based on four of the imaging apparatus setting information P, that is, focal length, F value, ISO sensitivity, and shutter speed. In this case, as in the above example, the final intensity correction value may be an addition value, an average value, or a multiplication value of four intensity correction values calculated based on the respective imaging device setting information P. Further, a value obtained by adding the respective weights may be used.
As described above, the intensity correction value can be calculated by freely combining a plurality of imaging device setting information P.

さらに、撮像装置設定情報Pとして、被写界深度情報を用いるようにしてもよい。例えば、焦点距離、F値、許容錯乱円の直径などの複数の撮像装置設定情報と、奥行き情報Dとを強度補正値決定部103へ入力することで、それらの入力情報に基づいて被写界深度を算出することができる。この場合、被写界深度が浅くなるほど被写界深度外の位置に存在する被写体のぼけ量が大きくなることを考慮して、被写界深度が深く(値が大きく)なるにしたがって、強度補正値が小さくなるような、線形又は非線形の特性を持つ対応関係とすることができる。上記のように、被写界深度の値が大きくなるにしたがって、強度補正値が小さくなるようにすることで、後段の画像処理強度算出部104で設定される画像処理強度が弱くなる。したがって、被写界深度の値が小さくぼけ量が大きい場合にはより強い画像処理強度とし、被写界深度の値が大きい場合には画像処理強度を弱くすることができる。   Further, depth of field information may be used as the imaging device setting information P. For example, by inputting a plurality of imaging device setting information such as focal length, F value, allowable confusion circle diameter and the like and depth information D to the intensity correction value determining unit 103, the object scene is based on the input information. Depth can be calculated. In this case, taking into consideration that the amount of blur of the subject that exists outside the depth of field increases as the depth of field decreases, the intensity correction is performed as the depth of field increases (value increases). A correspondence relationship having linear or non-linear characteristics such that the value is small can be obtained. As described above, as the depth of field value increases, the intensity correction value decreases so that the image processing intensity set by the subsequent image processing intensity calculation unit 104 decreases. Accordingly, when the depth of field value is small and the amount of blur is large, the image processing strength can be made stronger, and when the depth of field value is large, the image processing strength can be weakened.

<画像処理強度算出部104の処理の詳細>
画像処理強度算出部104は、まず、奥行き情報Dに基づいて初期の画像処理強度(強度ベース値)を、入力画像の画素毎に決定する。画像処理強度算出部104は、続いて、強度ベース値を、強度補正値決定部103が決定した強度補正値に基づいて補正し、画像処理強度Sを決定する。図5を用い、奥行き情報Dに基づいて強度ベース値を決定する方法について以下に説明する。
<Details of Processing of Image Processing Intensity Calculation Unit 104>
The image processing intensity calculation unit 104 first determines an initial image processing intensity (intensity base value) for each pixel of the input image based on the depth information D. Subsequently, the image processing intensity calculation unit 104 corrects the intensity base value based on the intensity correction value determined by the intensity correction value determination unit 103 to determine the image processing intensity S. A method for determining the intensity base value based on the depth information D will be described below with reference to FIG.

図5は、奥行き情報値と強度ベース値との対応関係の一例を示した図である。同図において、横軸が奥行き情報Dである奥行き情報値で、縦軸が強度ベース値である。同図において、奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。画像処理強度算出部104は、まず、この特性に基づいて強度ベース値を決定する。被写体の連続性を考慮すると、強度ベース値は奥行き情報値に対して単調増加の関係が好適である。   FIG. 5 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value. In the figure, the horizontal axis is the depth information value that is the depth information D, and the vertical axis is the intensity base value. In the figure, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases. The image processing intensity calculation unit 104 first determines an intensity base value based on this characteristic. Considering the continuity of the subject, it is preferable that the intensity base value has a monotonically increasing relationship with the depth information value.

また、同図において、奥行き情報値が、取り得る範囲の最大値(例えば255)にあるときに、強度ベース値は最大のβ2となり、奥行き情報値が、取り得る範囲の最小値(例えば0)にあるときに、強度ベース値は最小のβ1となることが示されている。
次に、図5に示した特性に基づいて決定した強度ベース値を、強度補正値決定部103の出力情報である強度補正値に基づいて補正し、画像処理強度Sを決定する方法について説明する。
Further, in the figure, when the depth information value is at the maximum value (for example, 255) of the possible range, the intensity base value is the maximum β2, and the depth information value is the minimum value (for example, 0) of the possible range. It is shown that the intensity base value is the minimum β1.
Next, a method of determining the image processing intensity S by correcting the intensity base value determined based on the characteristics shown in FIG. 5 based on the intensity correction value that is output information of the intensity correction value determining unit 103 will be described. .

以下では、例として、図2で示した特性に基づいて強度補正値を算出した場合について、図6を用いて説明する。
図6は、強度補正値と、奥行き情報値が最大のときの画像処理強度との対応関係の一例を示す図である。同図において、横軸は強度補正値であり、縦軸は奥行き情報値が最大のときの画像処理強度である。なお、同図の横軸は、図2に示した特性に基づいて算出した強度補正値と等しく、同じ記号で示されている。また、同図の縦軸は、図5に示した奥行き情報の最大値において、新たに設定される画像処理強度であり、強度補正値決定部103の出力情報である強度補正値に応じて決定される。
Hereinafter, as an example, a case where the intensity correction value is calculated based on the characteristics shown in FIG. 2 will be described with reference to FIG.
FIG. 6 is a diagram illustrating an example of a correspondence relationship between the intensity correction value and the image processing intensity when the depth information value is maximum. In the figure, the horizontal axis is the intensity correction value, and the vertical axis is the image processing intensity when the depth information value is maximum. Note that the horizontal axis of the figure is the same as the intensity correction value calculated based on the characteristics shown in FIG. 2, and is indicated by the same symbol. In addition, the vertical axis in the figure is the image processing intensity that is newly set in the maximum value of the depth information shown in FIG. 5, and is determined according to the intensity correction value that is output information of the intensity correction value determination unit 103. Is done.

図6において、画像処理強度算出部104に入力された強度補正値が0のとき、奥行き情報の最大値における画像処理強度は、図5に示した強度ベース値β2のままであることが示されている。また、強度補正値がCfmaxのとき、奥行き情報の最大値における画像処理強度はβmaxとなり、さらに、強度補正値がCf1のとき、奥行き情報の最大値における画像処理強度はβf1となることが示されている。   In FIG. 6, when the intensity correction value input to the image processing intensity calculation unit 104 is 0, it is indicated that the image processing intensity at the maximum value of the depth information remains the intensity base value β2 illustrated in FIG. ing. In addition, when the intensity correction value is Cfmax, the image processing intensity at the maximum value of the depth information is βmax, and when the intensity correction value is Cf1, the image processing intensity at the maximum value of the depth information is βf1. ing.

図6に示す例では、強度補正値が大きくなるにしたがって、奥行き情報の最大値における画像処理強度が線形に大きくなる特性が示されている。ただし、これに限られるものではなく、強度補正値が大きくなるにしたがって、奥行き情報の最大値における画像処理強度が急に大きくなるような、非線形の特性としてもよい。
また、強度補正値が小さくなる場合には、強度補正値が大きくなる場合と反対に、奥行き情報の最大値における画像処理強度が線形に小さくなる特性により決定する。さらに、強度補正値が小さくなるにしたがって、奥行き情報の最大値における画像処理強度が急に小さくなるような、非線形の特性としてもよい。
The example shown in FIG. 6 shows a characteristic in which the image processing intensity at the maximum value of depth information increases linearly as the intensity correction value increases. However, the present invention is not limited to this, and it may be a non-linear characteristic in which the image processing intensity at the maximum value of the depth information suddenly increases as the intensity correction value increases.
When the intensity correction value is small, the image processing intensity at the maximum value of the depth information is determined to be linearly smaller, contrary to the case where the intensity correction value is large. Further, it may be a non-linear characteristic such that the image processing intensity at the maximum value of the depth information suddenly decreases as the intensity correction value decreases.

画像処理強度算出部104に強度補正値Cf1が入力されたとき、図6の特性に基づいて奥行き情報の最大値における画像処理強度はβf1となる。このとき、図5に示した奥行き情報値と強度ベース値との対応関係は、図7に示す奥行き情報値と画像処理強度Sとの対応関係に更新される。図7において、横軸が奥行き情報値であり、縦軸が画像処理強度Sである。同図において、奥行き情報の最大値における画像処理強度はβf1であり、図5においてβ2であった強度ベース値が、図7においてβf1である画像処理強度Sに更新されたことを示している。このように、強度補正値に基づいて強度ベース値を補正し、奥行き情報値と画像処理強度Sの対応関係を設定する。画像処理強度算出部104は、設定した奥行き情報値と画像処理強度Sの対応関係に、入力された奥行き情報Dを適用することにより、各画素における画像処理強度Sを算出する。   When the intensity correction value Cf1 is input to the image processing intensity calculation unit 104, the image processing intensity at the maximum value of the depth information is βf1 based on the characteristics of FIG. At this time, the correspondence relationship between the depth information value and the intensity base value shown in FIG. 5 is updated to the correspondence relationship between the depth information value and the image processing strength S shown in FIG. In FIG. 7, the horizontal axis is the depth information value, and the vertical axis is the image processing intensity S. In the drawing, the image processing intensity at the maximum value of the depth information is βf1, and the intensity base value that was β2 in FIG. 5 is updated to the image processing intensity S that is βf1 in FIG. In this way, the intensity base value is corrected based on the intensity correction value, and the correspondence relationship between the depth information value and the image processing intensity S is set. The image processing intensity calculation unit 104 calculates the image processing intensity S in each pixel by applying the input depth information D to the correspondence relationship between the set depth information value and the image processing intensity S.

一態様としては、画像処理強度算出部104は、図5に示すような奥行き情報値と強度ベース値との対応関係が、図5の例のようになっているLUTを予め記憶しており、奥行き情報が示す各画素における奥行き情報値に対応する強度ベース値を、該LUTから読み出す。画像処理強度算出部104は、読み出した強度ベース値に、強度補正値決定部103から入力された強度補正値を加算して、各画素の画像処理強度Sを算出する。また、他の態様としては、画像処理強度算出部104は、強度補正値毎に、奥行き情報値と画像処理強度Sとの対応関係を表すLUTを予め記憶しており、入力された強度補正値に応じて、LUTを選択し、入力された奥行き情報値に対応付けられた画像処理強度Sを、該選択したLUTから読み出す。   As one aspect, the image processing intensity calculation unit 104 stores in advance an LUT in which the correspondence relationship between the depth information value and the intensity base value as shown in FIG. 5 is as in the example of FIG. The intensity base value corresponding to the depth information value in each pixel indicated by the depth information is read from the LUT. The image processing intensity calculation unit 104 adds the intensity correction value input from the intensity correction value determination unit 103 to the read intensity base value to calculate the image processing intensity S of each pixel. As another aspect, the image processing intensity calculation unit 104 stores in advance an LUT representing the correspondence between the depth information value and the image processing intensity S for each intensity correction value, and the input intensity correction value In response to this, an LUT is selected, and the image processing intensity S associated with the input depth information value is read from the selected LUT.

以上の方法により、画像処理強度算出部104は、奥行き情報の最大値において画像処理強度Sが最も大きくなり、奥行き情報の最小値において画像処理強度Sが最も小さくなるように画像処理強度Sを算出する。さらに、奥行き情報の最小値と最大値の間で奥行き情報値が大きくなるほど、強度ベース値が大きくなるように設定し、強度ベース値が大きいほどより大きい値となるように画像処理強度Sを算出する。さらに、強度補正値が大きいほどより大きい値となるように画像処理強度Sを算出する。   By the above method, the image processing intensity calculation unit 104 calculates the image processing intensity S so that the image processing intensity S is maximized at the maximum value of depth information and the image processing intensity S is minimized at the minimum value of depth information. To do. Furthermore, the intensity base value is set to increase as the depth information value increases between the minimum value and the maximum value of the depth information, and the image processing intensity S is calculated so as to increase as the intensity base value increases. To do. Further, the image processing intensity S is calculated such that the larger the intensity correction value is, the larger the value is.

<画像処理部102の処理の詳細>
図8と図9を用いて、画像処理装置100に入力される画像データGiと奥行き情報Dを説明する。図8は、画像処理装置100に入力される画像データGiが表す入力画像の例を示す図である。同図において、近景に存在する人物被写体の画像領域8bと、遠景に存在する背景被写体の画像領域8aとが示されている。
<Details of Processing of Image Processing Unit 102>
Image data Gi and depth information D input to the image processing apparatus 100 will be described with reference to FIGS. 8 and 9. FIG. 8 is a diagram illustrating an example of an input image represented by image data Gi input to the image processing apparatus 100. In the figure, an image region 8b of a human subject existing in the foreground and an image region 8a of a background subject existing in the distant view are shown.

図9は、図8の画像データGiに対応した奥行き情報Dの例を示す図である。同図の各画素において、奥行き情報が白から黒までのグレースケールで表されており、白色になるほど奥行き情報が小さい。同図において、遠景に存在する背景被写体の画像領域8aに相当する奥行き情報9aと、近景に存在する人物被写体の画像領域8bに相当する奥行き情報9bとが示されている。人物被写体の奥行き情報9bは背景被写体の奥行き情報9aよりも小さく、人物被写体が近景に存在することを示している。   FIG. 9 is a diagram illustrating an example of the depth information D corresponding to the image data Gi of FIG. In each pixel in the figure, the depth information is represented by a gray scale from white to black, and the depth information is smaller as the color becomes white. In the drawing, depth information 9a corresponding to the image area 8a of the background subject existing in the distant view and depth information 9b corresponding to the image area 8b of the person subject existing in the foreground are shown. The depth information 9b of the person subject is smaller than the depth information 9a of the background subject, indicating that the person subject exists in the foreground.

図8のようなシーンが画像データGiとして入力され、対応する奥行き情報が図9として入力される場合、主要な被写体は近景に配置される人物被写体であり、それ以外の領域は背景被写体である。遠景に位置する背景被写体は光の散乱などにより輪郭が不鮮明になり、反対に、近景に位置する人物被写体は鮮明に撮像されている。近景の人物被写体の領域はユーザが最も注視する領域であり、ノイズ感がより一層目立つため画質劣化として認識され易い。   When a scene as shown in FIG. 8 is input as the image data Gi and the corresponding depth information is input as FIG. 9, the main subject is a human subject placed in the foreground, and the other areas are background subjects. . The outline of a background subject located in a distant view becomes unclear due to light scattering or the like. On the other hand, a human subject located in a near view is clearly imaged. The area of the foreground human subject is the area most watched by the user, and the noise is more conspicuous, so that it is easily recognized as image quality degradation.

そこで、画像処理部102における処理は、被写体までの距離(奥行き情報)が大きくなるほど輪郭強調処理の強度を大きくすることで、近景被写体のノイズ感が強調されることを防ぎながら、遠景被写体の不鮮明な輪郭を強調することができる。
例えば、画像処理部102は、画像処理強度算出部104が決定した画像処理強度Sの値が大きいほど、画像データGiが表す入力画像の輪郭を強調するように輪郭強調処理を行う。輪郭強調処理とは、例えば、隣接する画素との明るさ値の差が、より大きくなるように明るさ値を変換する処理である。このとき、明るさ値の差が大きいほど輪郭が強調される。これらは、4近傍や8近傍の周辺画素を考慮した空間フィルタにより実現することができる。例えば、対象画素の画素値がP0、周辺画素の画素値がP1、P2、P3、P4である4近傍を考慮する場合、画像処理後の画素値Pは、P=P0+(P0×4−P1−P2‐P3‐P4)×Sとして算出することができる。ここで、Sは画像処理強度算出部104により算出される対象画素の画像処理強度Sである。
Therefore, the processing in the image processing unit 102 increases the strength of the contour emphasis process as the distance to the subject (depth information) increases, thereby preventing the foreground subject from being emphasized and preventing the distant view subject from being blurred. Can be emphasized.
For example, the image processing unit 102 performs the contour emphasis process so as to enhance the contour of the input image represented by the image data Gi as the value of the image processing strength S determined by the image processing strength calculation unit 104 is larger. The contour enhancement process is a process of converting the brightness value so that, for example, the difference in brightness value between adjacent pixels becomes larger. At this time, the outline is enhanced as the difference in brightness value increases. These can be realized by a spatial filter in consideration of neighboring pixels in the vicinity of 4 or 8 neighborhoods. For example, in the case of considering four neighborhoods in which the pixel value of the target pixel is P0 and the pixel values of peripheral pixels are P1, P2, P3, and P4, the pixel value P after image processing is P = P0 + (P0 × 4-P1) -P2-P3-P4) * S. Here, S is the image processing intensity S of the target pixel calculated by the image processing intensity calculation unit 104.

これにより、画像処理部102は、画像処理強度Sが大きくなるほど、入力画像の輪郭をより強調し、鮮明な画像を生成することができる。その結果、画像処理装置100は、画像の遠景を鮮明にすることにより、その画像を見たユーザが近景と遠景との距離感を感じやすくすることで、画像の奥行き感を向上させることができる。その結果、画像処理装置100は、ユーザに奥行きを感じさせることができる。
このとき、例えば、焦点距離が大きくなった場合には、強度補正値が大きくなり画像処理強度Sも大きくなる。したがって、画像処理部102は、焦点距離が大きくなって被写界深度外のぼけ量が大きくなった場合により強い輪郭強調を行うため、被写体がぼけて輪郭が曖昧になることを抑えることができる。
Thus, the image processing unit 102 can generate a clearer image by enhancing the contour of the input image as the image processing strength S increases. As a result, the image processing apparatus 100 can improve the sense of depth of the image by making the distant view of the image clear and making it easier for the user who viewed the image to feel the sense of distance between the foreground and the distant view. . As a result, the image processing apparatus 100 can make the user feel the depth.
At this time, for example, when the focal length increases, the intensity correction value increases and the image processing intensity S also increases. Therefore, since the image processing unit 102 performs stronger edge enhancement when the focal length increases and the amount of blur outside the depth of field increases, it is possible to suppress blurring of the subject and blurring of the outline. .

さらに、遠景では光の散乱などによりコントラストも低下してしまう。そこで、画像処理部102における処理は、トーンカーブなどによりコントラストを強調するコントラスト補正をしてもよい。ただし、近景である人物被写体は十分なコントラストで十分な階調により撮像されており、過度のコントラスト補正を行うと階調数の減少が発生して画質が劣化してしまう。   Further, in a distant view, the contrast decreases due to light scattering. Therefore, the processing in the image processing unit 102 may perform contrast correction that enhances contrast using a tone curve or the like. However, a human subject in the foreground is captured with sufficient contrast and sufficient gradation, and if excessive contrast correction is performed, the number of gradations is reduced and the image quality deteriorates.

そこで、画像処理部102は、画像処理強度Sが大きいほど、画像データGiのコントラストが強くなるようにコントラスト補正処理を行ってもよい。ここで、コントラスト補正処理とは、例えば、明るさ値が大きければ、明るさ値がより大きくなるように補正し、明るさ値が小さければ、明るさ値がより小さくなるように補正する処理である。このとき、補正する量がより大きいほど、より強いコントラスト補正処理となる。これらは、入力される値に対する補正した値を定義したLUTにより実現することができる。   Therefore, the image processing unit 102 may perform contrast correction processing so that the contrast of the image data Gi increases as the image processing strength S increases. Here, the contrast correction process is, for example, a process of correcting the brightness value to be larger if the brightness value is large, and correcting to decrease the brightness value if the brightness value is small. is there. At this time, the larger the correction amount, the stronger the contrast correction process. These can be realized by an LUT that defines a corrected value for an input value.

これにより、画像処理部102は、コントラスト感が向上した画像を生成することができる。その結果、画像処理装置100は、画像の遠景を鮮明にすることにより、近景と遠景との距離感を感じやすくさせることができるので、画像の奥行き感を向上させることができる。その結果、画像処理装置100は、その画像を見たユーザに対し奥行きを感じさせることができる。このように、画像処理部102においてコントラスト強調を行う場合も、輪郭強調の場合と同様に、焦点距離に応じてぼけ量が大きくなり、コントラストが低下することを抑えることができる。   As a result, the image processing unit 102 can generate an image with improved contrast. As a result, the image processing apparatus 100 can make the sense of distance between the near view and the distant view easier by clarifying the distant view of the image, so that the sense of depth of the image can be improved. As a result, the image processing apparatus 100 can make the user who sees the image feel the depth. As described above, when contrast enhancement is performed in the image processing unit 102, as in the case of contour enhancement, the amount of blur increases according to the focal length, and it is possible to suppress a decrease in contrast.

また、記憶色や鮮やかさにより画像の彩度は高い方が好まれ、実物のように感じる。しかしながら、人物の肌などは肌色である必要があり、過度の彩度強調を行うと違和感が発生して画質劣化となってしまう。そこで、画像処理部102は、画像処理強度算出部104が決定した画像処理強度Sに基づいて、画像データGiに対して彩度補正を行ってもよい。ここで、彩度補正処理は、色相、彩度、明度の三成分からなるHSV(Hue,Saturation,Value)空間において、彩度を乗算又は加算したり、入力される画素値を行列による線形変換したりすることにより実現することができる。これにより、画像処理部102は、奥行き情報Dに基づいて彩度を変化させることができる。その結果、画像処理部102は、画像の遠景の彩度を強調することで、違和感無く彩度が高められた画像を生成することができる。   Also, it is preferred that the image has higher saturation due to the memory color and vividness, and it feels like the real thing. However, a person's skin or the like needs to be a skin color. If excessive saturation enhancement is performed, a sense of incongruity occurs and image quality deteriorates. Therefore, the image processing unit 102 may perform saturation correction on the image data Gi based on the image processing intensity S determined by the image processing intensity calculating unit 104. Here, saturation correction processing is performed by multiplying or adding saturation in a HSV (Hue, Saturation, Value) space composed of three components of hue, saturation, and brightness, or by linearly transforming input pixel values using a matrix. It can be realized by doing. Accordingly, the image processing unit 102 can change the saturation based on the depth information D. As a result, the image processing unit 102 can generate an image with enhanced saturation without a sense of incongruity by enhancing the saturation of the distant view of the image.

これにより、画像処理装置100は、画像の遠景の彩度を高くして、遠景を鮮明にすることにより、近景と遠景との距離感を感じやすくさせることができるので、画像の奥行き感を向上させることができる。その結果、画像処理装置100は、その画像を見たユーザに対し奥行きを感じさせることができる。このように、画像処理部102において彩度補正処理を行う場合も、輪郭強調のときと同様に、焦点距離に応じてぼけ量が大きくなり、彩度が低下することを抑えることができる。   As a result, the image processing apparatus 100 can enhance the sense of depth of the image by increasing the saturation of the distant view of the image and making the distant view clearer so that the sense of distance between the foreground and the distant view can be easily felt. Can be made. As a result, the image processing apparatus 100 can make the user who sees the image feel the depth. As described above, when the saturation correction process is performed in the image processing unit 102, as in the case of edge enhancement, the amount of blur increases according to the focal length, and a decrease in saturation can be suppressed.

なお、上述の第1の変形例でも、画像処理部102において、輪郭強調処理、コントラスト強調や彩度補正処理を行う場合、絞り(F値)の変更によるぼけ量の変化の影響を抑えることができる。
また、上述の第2の変形例では、画像処理部102において、ぼかし処理やノイズ除去処理を行う場合、ISO感度の変更による画像劣化の影響を抑えることができる。また、上述の第3の変形例では、画像処理部102において、ぼかし処理やノイズ除去処理を行う場合、シャッタースピードの変更による画像劣化の影響を抑えることができる。
Even in the first modification described above, when the image processing unit 102 performs contour enhancement processing, contrast enhancement, and saturation correction processing, it is possible to suppress the influence of the change in the amount of blur due to the change of the aperture (F value). it can.
In the second modification described above, when the image processing unit 102 performs the blurring process or the noise removal process, it is possible to suppress the influence of the image deterioration due to the change in ISO sensitivity. In the third modification described above, when the image processing unit 102 performs the blurring process or the noise removal process, it is possible to suppress the influence of the image deterioration due to the change in the shutter speed.

(第1の実施形態の処理手順)
以下に、本実施形態における処理手順を、図10のフローチャートを用いて説明する。図10は、本実施形態における画像処理装置100の処理の一例を示すフローチャートである。まず、強度補正値決定部103は、撮像装置設定情報Pから強度補正値を算出する(ステップS101)。次に、画像処理強度算出部104は、奥行き情報Dと強度補正値とに基づいて、画像処理強度Sを決定し、奥行き情報Dと画像処理強度Sとの対応関係を設定する(ステップS102)。次に、画像処理強度算出部104は、設定した対応関係に、各画素における奥行き情報Dを適用することにより、各画素における画像処理強度Sを算出する(ステップS103)。最後に、画像処理部102は、画像処理強度算出部104が決定した各画素における画像処理強度Sに基づいて、その画素の画像データGiに対して画像処理を行う(ステップS104)。以上で、本フローチャートの処理を終了する。
(Processing procedure of the first embodiment)
Hereinafter, the processing procedure in the present embodiment will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart illustrating an example of processing of the image processing apparatus 100 according to the present embodiment. First, the intensity correction value determination unit 103 calculates an intensity correction value from the imaging device setting information P (step S101). Next, the image processing intensity calculation unit 104 determines the image processing intensity S based on the depth information D and the intensity correction value, and sets a correspondence relationship between the depth information D and the image processing intensity S (step S102). . Next, the image processing intensity calculation unit 104 calculates the image processing intensity S at each pixel by applying the depth information D at each pixel to the set correspondence (step S103). Finally, the image processing unit 102 performs image processing on the image data Gi of each pixel based on the image processing intensity S at each pixel determined by the image processing intensity calculation unit 104 (step S104). Above, the process of this flowchart is complete | finished.

なお、画像データGiが表す画像が動画像のときは、図10に示す処理を、該動画像の各フレームに対して行う。また、撮像装置設定情報Pは、フレーム毎に値があってもよいし、所定のフレーム数毎に値があってもよい。
以上に説明したように、本実施形態の画像処理装置100は、撮像装置設定情報Pに基づいて強度補正値を算出する。画像処理装置100は、奥行き情報Dと強度補正値とに応じて、画像処理強度Sを決定し、各画素における画像処理強度Sを決定する。そして、画像処理装置100は、画素毎に決定した画像処理強度Sで、当該画素に対して予め決められた画像処理を行う。
When the image represented by the image data Gi is a moving image, the process shown in FIG. 10 is performed on each frame of the moving image. Further, the imaging apparatus setting information P may have a value for each frame, or may have a value for each predetermined number of frames.
As described above, the image processing apparatus 100 according to the present embodiment calculates the intensity correction value based on the imaging apparatus setting information P. The image processing apparatus 100 determines the image processing intensity S according to the depth information D and the intensity correction value, and determines the image processing intensity S for each pixel. Then, the image processing apparatus 100 performs predetermined image processing on the pixel with the image processing intensity S determined for each pixel.

これにより、画像処理装置100は、奥行き情報Dの範囲で、撮像装置設定情報Pに応じて画像処理強度Sを変化させることで、撮像装置設定情報など撮像装置の設定が変化する場合においても、該設定の変化による影響を抑えて、遠景の画像領域を鮮明にすることができる。その結果、その画像を見たユーザが感じる近景と遠景との距離に対する、撮像装置の設定の変化による影響を抑えることができる。つまり、画像処理装置100は、ユーザが奥行きを感じることができる画像を生成することができる。   Thereby, the image processing apparatus 100 changes the image processing intensity S in accordance with the imaging apparatus setting information P within the range of the depth information D, so that the imaging apparatus setting information such as the imaging apparatus setting information changes. The influence of the change in the setting can be suppressed and the image area of the distant view can be made clear. As a result, it is possible to suppress the influence of the change in the setting of the imaging device on the distance between the near view and the distant view that the user sees when viewing the image. That is, the image processing apparatus 100 can generate an image that allows the user to feel the depth.

<第2の実施形態>
以下、本発明の第2の実施形態について、図面を参照して詳細に説明する。第1の実施形態では、図1の画像処理装置100において、奥行き情報Dと撮像装置設定情報Pとに基づいて画像処理強度Sを決定し、画像処理を行う方法について説明した。本実施形態における画像処理装置100aは、図11に示すように奥行き情報解析部105を有し、画像処理強度算出部104aは、強度補正値と奥行き情報Dとに加えて、奥行き情報解析部105の解析結果を用いて画像処理強度Sを決定する。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, the method of determining the image processing intensity S based on the depth information D and the imaging device setting information P and performing image processing in the image processing apparatus 100 of FIG. 1 has been described. The image processing apparatus 100a in this embodiment includes a depth information analysis unit 105 as shown in FIG. 11, and the image processing intensity calculation unit 104a includes the depth information analysis unit 105 in addition to the intensity correction value and the depth information D. The image processing intensity S is determined using the result of the analysis.

図11は、本実施形態における画像処理装置100aの構成を示す概略ブロック図である。画像処理装置100aは、画像処理装置100における画像処理強度決定部101に奥行き情報解析部105が追加され、さらに、画像処理強度算出部104が画像処理強度算出部104aに変更された画像処理強度決定部101aを備える構成となっている。なお、図1と共通する要素には同一の符号(102、103)を付し、その具体的な説明を省略する。   FIG. 11 is a schematic block diagram showing the configuration of the image processing apparatus 100a in the present embodiment. In the image processing apparatus 100a, the depth information analysis unit 105 is added to the image processing intensity determination unit 101 in the image processing apparatus 100, and the image processing intensity calculation unit 104 is changed to the image processing intensity calculation unit 104a. The unit 101a is provided. Elements that are the same as those in FIG. 1 are denoted by the same reference numerals (102, 103), and detailed description thereof is omitted.

画像処理装置100aは、奥行き情報Dを奥行き情報解析部105に入力し、奥行き情報解析部105の解析結果を画像処理強度算出部104aに入力する。
奥行き情報解析部105は、画像データGiに対応する奥行き情報Dに基づいて、該奥行き情報Dの頻度分布に関する情報を抽出する。具体的には、例えば、奥行き情報解析部105は、入力される一つの画像データに対応する奥行き情報Dの頻度分布に基づいて、予め決められた規則によって複数の奥行き情報値を抽出する。ここで、複数の奥行き情報値は、それぞれ異なる奥行き情報Dである。そして、奥行き情報解析部105は、抽出した奥行き情報Dの頻度分布に関する情報、例えば、複数の奥行き情報値を画像処理強度算出部104aに出力する。奥行き情報解析部105の処理の詳細は後述する。
The image processing apparatus 100a inputs the depth information D to the depth information analysis unit 105, and inputs the analysis result of the depth information analysis unit 105 to the image processing intensity calculation unit 104a.
The depth information analysis unit 105 extracts information related to the frequency distribution of the depth information D based on the depth information D corresponding to the image data Gi. Specifically, for example, the depth information analysis unit 105 extracts a plurality of depth information values according to a predetermined rule based on the frequency distribution of the depth information D corresponding to one input image data. Here, the plurality of depth information values are different depth information D. Then, the depth information analysis unit 105 outputs information on the frequency distribution of the extracted depth information D, for example, a plurality of depth information values, to the image processing intensity calculation unit 104a. Details of the processing of the depth information analysis unit 105 will be described later.

画像処理強度算出部104aは、奥行き情報解析部105の出力情報と、強度補正値決定部103の出力情報と、奥行き情報Dとに基づいて、画像データGiの各画素における画像処理強度Sを決定する。画像処理強度算出部104aは、決定した画像処理強度Sを画像処理部102に出力する。   The image processing intensity calculation unit 104a determines the image processing intensity S for each pixel of the image data Gi based on the output information of the depth information analysis unit 105, the output information of the intensity correction value determination unit 103, and the depth information D. To do. The image processing intensity calculation unit 104 a outputs the determined image processing intensity S to the image processing unit 102.

<奥行き情報解析部105の処理の詳細>
以下に、奥行き情報解析部105の処理の詳細について説明する。
図12は、本実施形態における奥行き情報解析部105の概略ブロック図である。奥行き情報解析部105は、頻度分布算出部111と奥行き情報抽出部112とを含んで構成される。頻度分布算出部111は、画像処理装置100aの外部から入力された奥行き情報Dの奥行き情報の頻度分布を算出し、算出した頻度分布を奥行き情報抽出部112に出力する。奥行き情報抽出部112は、頻度分布算出部111から入力された頻度分布において、頻度が閾値α以上の範囲で奥行き情報Dから複数の奥行き情報値を抽出する。そして、奥行き情報抽出部112は、抽出した複数の奥行き情報値を画像処理強度算出部104aに出力する。
<Details of Processing of Depth Information Analysis Unit 105>
Details of the processing of the depth information analysis unit 105 will be described below.
FIG. 12 is a schematic block diagram of the depth information analysis unit 105 in the present embodiment. The depth information analysis unit 105 includes a frequency distribution calculation unit 111 and a depth information extraction unit 112. The frequency distribution calculation unit 111 calculates the frequency distribution of the depth information of the depth information D input from the outside of the image processing apparatus 100a, and outputs the calculated frequency distribution to the depth information extraction unit 112. The depth information extraction unit 112 extracts a plurality of depth information values from the depth information D in the frequency distribution input from the frequency distribution calculation unit 111 within a range where the frequency is equal to or higher than the threshold value α. Then, the depth information extraction unit 112 outputs the extracted plurality of depth information values to the image processing intensity calculation unit 104a.

以下の説明では、奥行き情報抽出部112が、複数の奥行き情報値として、第一の奥行き情報値及び第二の奥行き情報値の二つの奥行き情報値を抽出する場合を例にあげて説明する。ここで、第一の奥行き情報値と第二の奥行き情報値について、図13を用いて説明する。図13は、奥行き情報値の頻度分布の一例を示した図である。同図において、横軸が奥行き情報値、縦軸が頻度である。同図において、頻度が最大となる奥行き情報Dobjが示されている。また、同図において、閾値α以上の頻度を取る範囲における奥行き情報Dの最小値(以下、範囲最小値という)Dminと、閾値α以上の頻度を取る範囲における奥行き情報Dの最大値(以下、範囲最大値という)Dmaxとが示されている。このとき、奥行き情報抽出部112は、範囲最小値Dminを第一の奥行き情報値とし、また、範囲最大値Dmaxを第二の奥行き情報値とする。   In the following description, a case where the depth information extraction unit 112 extracts two depth information values of a first depth information value and a second depth information value as a plurality of depth information values will be described as an example. Here, the first depth information value and the second depth information value will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of a frequency distribution of depth information values. In the figure, the horizontal axis represents the depth information value, and the vertical axis represents the frequency. In the same figure, depth information Dobj with the maximum frequency is shown. In the same figure, the minimum value of the depth information D (hereinafter referred to as the range minimum value) Dmin in the range where the frequency is equal to or higher than the threshold value α, and the maximum value (hereinafter, referred to as the depth information D) in the range where the frequency is higher than the threshold value α. Dmax) (referred to as the maximum value of the range). At this time, the depth information extraction unit 112 sets the range minimum value Dmin as the first depth information value, and sets the range maximum value Dmax as the second depth information value.

続いて、図13を用いて奥行き情報解析部105の処理について説明する。例えば、奥行き情報解析部105は、図13に示した奥行き情報Dの頻度分布を利用して、第一の奥行き情報と第二の奥行き情報とを抽出する。ここで、通常の方式で最大値及び最小値を抽出すると、頻度が予め決められた閾値αより小さい場合であっても最大値及び最小値として抽出されてしまい、奥行き情報にノイズが存在する場合などは誤抽出が発生する可能性がある。   Next, processing of the depth information analysis unit 105 will be described with reference to FIG. For example, the depth information analysis unit 105 extracts the first depth information and the second depth information using the frequency distribution of the depth information D shown in FIG. Here, when the maximum value and the minimum value are extracted by the normal method, even if the frequency is smaller than the predetermined threshold value α, the maximum value and the minimum value are extracted, and noise exists in the depth information. May cause mis-extraction.

本実施形態において、奥行き情報解析部105は、一つの奥行き情報の頻度分布において、範囲最小値Dminを第一の奥行き情報として抽出する。また、奥行き情報解析部105は、一つの奥行き情報の分布において、範囲最大値Dmaxを第二の奥行き情報として抽出する。奥行き情報解析部105は、抽出した第一の奥行き情報と第二の奥行き情報とを画像処理強度算出部104aに出力する。   In the present embodiment, the depth information analysis unit 105 extracts the range minimum value Dmin as the first depth information in the frequency distribution of one depth information. Further, the depth information analysis unit 105 extracts the range maximum value Dmax as second depth information in one distribution of depth information. The depth information analysis unit 105 outputs the extracted first depth information and second depth information to the image processing intensity calculation unit 104a.

これにより、奥行き情報解析部105は、安定して第一の奥行き情報及び第二の奥行き情報を抽出することができる。
また、奥行き情報解析部105は、主要被写体の位置を推定し、主要被写体の奥行き情報を抽出するようにしてもよい。例えば、奥行き情報の極大値のうち、最も頻度の値が大きい奥行き情報(最頻値)Dobjには主要な被写体が存在すると推定し、奥行き情報を抽出することが可能である。
Thereby, the depth information analysis part 105 can extract 1st depth information and 2nd depth information stably.
Further, the depth information analysis unit 105 may estimate the position of the main subject and extract the depth information of the main subject. For example, it is possible to estimate that the main subject exists in the depth information (mode) Docj having the largest frequency value among the maximum values of the depth information, and the depth information can be extracted.

さらに、奥行き情報解析部105は、画像データGiを任意の領域(例えば、縦4分割、横4分割で合計16分割の領域)に分割して領域ごとに奥行き情報の頻度分布を算出して、被写体の位置を推定してもよい。その場合、例えば、特定領域に偏って存在する被写体の場合、その被写体は奥行き情報全体の頻度分布では極大値として表れないが、その被写体は分割された領域の頻度分布では極大値として表れる場合がある。これにより、奥行き情報解析部105は、画像データGi内の各被写体の奥行き情報を推定することができる。同時に、各被写体が画像データGiを分割した領域のうちどの領域に属すかによって、各被写体の大まかな画像座標上の位置を推定することができる。   Further, the depth information analysis unit 105 divides the image data Gi into an arbitrary region (for example, a region divided into four parts in the vertical direction and four parts in the horizontal direction for a total of 16 parts), and calculates the frequency distribution of the depth information for each region. The position of the subject may be estimated. In this case, for example, in the case of a subject that is biased to a specific area, the subject may not appear as a maximum value in the frequency distribution of the entire depth information, but the subject may appear as a maximum value in the frequency distribution of the divided area. is there. Thereby, the depth information analysis unit 105 can estimate the depth information of each subject in the image data Gi. At the same time, it is possible to estimate the approximate position of each subject on image coordinates depending on which region the subject belongs to among the regions obtained by dividing the image data Gi.

奥行き情報解析部105は、このようにして抽出された複数の奥行き情報を、画像処理強度算出部104aに出力する。また、奥行き情報解析部105は、各被写体の画像座標上の位置情報を、画像処理強度算出部104aに出力することができる。   The depth information analysis unit 105 outputs the plurality of depth information extracted in this way to the image processing intensity calculation unit 104a. In addition, the depth information analysis unit 105 can output position information on the image coordinates of each subject to the image processing intensity calculation unit 104a.

<画像処理強度算出部104aの処理の詳細>
実際に奥行き情報Dとして入力される奥行き情報値は、図13に示したように奥行き情報の階調値の取り得る範囲のうち、一部の範囲に分布している。そのため、画像処理による効果が十分に得られない可能性がある。そこで、画像処理強度算出部104aは、奥行き情報解析部105が算出した複数の奥行き情報を利用して強度ベース値を決定する。
<Details of Processing of Image Processing Intensity Calculation Unit 104a>
The depth information values that are actually input as the depth information D are distributed in a part of the range that the gradation value of the depth information can take as shown in FIG. Therefore, there is a possibility that the effect of image processing cannot be obtained sufficiently. Therefore, the image processing intensity calculation unit 104a determines the intensity base value using a plurality of depth information calculated by the depth information analysis unit 105.

以下では、複数の奥行き情報値として、第一の奥行き情報値及び第二の奥行き情報値の二つの奥行き情報値を利用する例について説明する。画像処理強度算出部104aは、第一の奥行き情報値と第二の奥行き情報値との間の所望の範囲で、強度ベース値を変化させる。ここで、本実施形態の例では、範囲最小値Dminを第一の奥行き情報値とし、範囲最大値Dmaxを第二の奥行き情報値とする。   Hereinafter, an example in which two depth information values of a first depth information value and a second depth information value are used as a plurality of depth information values will be described. The image processing intensity calculation unit 104a changes the intensity base value in a desired range between the first depth information value and the second depth information value. Here, in the example of this embodiment, the range minimum value Dmin is the first depth information value, and the range maximum value Dmax is the second depth information value.

図14は、奥行き情報値と強度ベース値との対応関係の一例を示す図である。同図において、横軸が奥行き情報値で、縦軸が強度ベース値である。同図において、範囲最小値Dminで強度ベース値がβ1であり、範囲最大値Dmaxで強度ベース値がβ2であることが示されている。また、同図において、範囲最小値Dminから範囲最大値Dmaxまでの範囲で、奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。なお、奥行き情報値がDmin以下では、強度ベース値はβ1で一定とし、奥行き情報値がDmax以上では、強度ベース値はβ2で一定とする。   FIG. 14 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value. In the figure, the horizontal axis is the depth information value, and the vertical axis is the intensity base value. In the figure, the intensity base value is β1 at the range minimum value Dmin, and the intensity base value is β2 at the range maximum value Dmax. Further, in the figure, in the range from the range minimum value Dmin to the range maximum value Dmax, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases. When the depth information value is Dmin or less, the intensity base value is constant at β1, and when the depth information value is Dmax or more, the intensity base value is constant at β2.

画像処理強度算出部104aは、例えば、図14に示すような特性により強度ベース値を決定する。具体的には、画像処理強度算出部104aは、強度ベース値をβ1からβ2で変化させる場合、範囲最小値Dminでβ1となり範囲最大値Dmaxでβ2となるように設定し、その間の奥行き情報値における強度ベース値を連続的に設定する。これにより、画像処理強度算出部104aは、奥行き情報値と強度ベース値の対応関係を設定する。以上の方法により強度ベース値が決定した後、画像処理強度算出部104の処理の詳細で述べた方法と同様にして、強度補正値に基づいて強度ベース値を補正し、画像処理強度Sを決定する。   For example, the image processing intensity calculation unit 104a determines the intensity base value based on the characteristics shown in FIG. Specifically, when changing the intensity base value from β1 to β2, the image processing intensity calculation unit 104a sets β1 as the range minimum value Dmin and β2 as the range maximum value Dmax, and the depth information value therebetween The intensity base value at is set continuously. Thereby, the image processing intensity calculation unit 104a sets the correspondence between the depth information value and the intensity base value. After the intensity base value is determined by the above method, the image processing intensity S is determined by correcting the intensity base value based on the intensity correction value in the same manner as described in the details of the processing of the image processing intensity calculation unit 104. To do.

(動画の場合)
なお、上述の画像処理装置100aは、1枚の静止画に相当する画像データGiの画像処理について説明したが動画に適用することも可能であり、同様の効果を得ることができる。動画での処理においては、画像処理強度算出部104aは、奥行き情報解析部105の抽出結果を、解析対象フレームに対して時間的に前のフレームの結果も考慮する。
(For videos)
The above-described image processing apparatus 100a has been described with respect to the image processing of the image data Gi corresponding to one still image. However, the image processing apparatus 100a can be applied to a moving image, and the same effect can be obtained. In the processing with a moving image, the image processing intensity calculation unit 104a considers the extraction result of the depth information analysis unit 105 in consideration of the result of the temporally previous frame with respect to the analysis target frame.

例えば、奥行き情報解析部105が、ある対象フレームで奥行き情報Dを解析した結果、範囲最大値がDmax1で、範囲最小値がDmin1で、主要被写体の奥行き情報がDobj1であった場合で、更に次の場合について説明する。次の場合とは、奥行き情報解析部105がその対象フレームの直前のフレームで奥行き情報Dを解析した結果、範囲最大値がDmax0で、範囲最小値がDmin0で、主要被写体の奥行き情報がDobj0であった場合である。   For example, when the depth information analysis unit 105 analyzes the depth information D in a certain target frame, the maximum range value is Dmax1, the minimum range value is Dmin1, and the depth information of the main subject is Dobj1. The case will be described. In the following case, as a result of the depth information analysis unit 105 analyzing the depth information D in the frame immediately before the target frame, the maximum range value is Dmax0, the minimum range value is Dmin0, and the depth information of the main subject is Dobj0. This is the case.

その場合、奥行き情報解析部105は、最終的に出力する範囲最大値として(Dmax1+Dmax0)/2を、最終的に出力する範囲最小値として(Dmin1+Dmin0)/2を、最終的に出力する主要被写体の奥行き情報として(Dobj1+Dobj0)/2を算出する。そして、奥行き情報解析部105は、算出した上記各パラメータを画像処理強度算出部104aに出力する。   In this case, the depth information analysis unit 105 sets (Dmax1 + Dmax0) / 2 as the maximum range value to be finally output and (Dmin1 + Dmin0) / 2 as the minimum range value to be finally output. (Dobj1 + Dobj0) / 2 is calculated as depth information. Then, the depth information analysis unit 105 outputs the calculated parameters to the image processing intensity calculation unit 104a.

これにより、画像処理強度算出部104aは、奥行き情報Dに含まれるノイズによる各パラメータのフレーム間の変動を低減することができ、出力画像データGoが示す画像のちらつきを低減することができる。
なお、上記奥行き情報解析部105が算出する各パラメータは平均値に限られず、中央値でもよいし、各パラメータで別々の算出方式で算出してもよい。具体的には、例えば、奥行き情報解析部105は、最終的に出力する範囲最小値を直前フレームと対象フレームにおける範囲最小値の平均値で算出し、最終的に出力する主要被写体の奥行き情報は直前フレームと対象フレームにおける主要被写体の奥行き情報の中央値で算出してもよい。
Thereby, the image processing intensity calculation unit 104a can reduce the variation between the frames of each parameter due to the noise included in the depth information D, and can reduce the flicker of the image indicated by the output image data Go.
Each parameter calculated by the depth information analysis unit 105 is not limited to an average value, and may be a median value or may be calculated by a separate calculation method for each parameter. Specifically, for example, the depth information analysis unit 105 calculates the minimum range value to be finally output as an average value of the minimum range values in the immediately preceding frame and the target frame, and the depth information of the main subject to be finally output is You may calculate with the median of the depth information of the main subject in the immediately preceding frame and the target frame.

また、対象フレームの各パラメータと平均をとるフレームは直前フレームに限らず、複数フレームだけ前のフレームでもよいし、対象フレームより後のフレームでもよく、対象フレームとは異なるフレームであればよい。また、奥行き情報解析部105は、二つのフレームで平均をとったが、これに限らず、三つ以上のフレームで平均をとってもよい。さらに、フレーム間で画像のシーンが大きく変わらない場合は、直前までの数フレームを、対象フレームの解析結果とすることで、画像処理の遅延を低減することができる。   Also, the frame that takes the average of each parameter of the target frame is not limited to the immediately preceding frame, but may be a frame that is a plurality of frames before, a frame that is after the target frame, or a frame that is different from the target frame. Moreover, although the depth information analysis part 105 took the average in two frames, you may take an average not only in this but in three or more frames. Furthermore, when the scene of the image does not change greatly between frames, the delay of image processing can be reduced by using the analysis results of the target frame for the last few frames.

すなわち、奥行き情報解析部105は、対象フレームにおける奥行き情報の頻度分布に関する情報と、該対象フレームより前のフレームにおける少なくとも一つ以上の奥行き情報の頻度分布に関する情報を算出する。ここで、頻度分布に関する情報とは、頻度分布から算出される情報であり、例えば、範囲最小値、範囲最大値、主要被写体の奥行き情報又は中間奥行き情報である。そして、奥行き情報解析部105が算出した複数の奥行き情報を画像処理強度算出部104aへ出力すればよい。   That is, the depth information analysis unit 105 calculates information related to the frequency distribution of depth information in the target frame and information related to the frequency distribution of at least one depth information in a frame before the target frame. Here, the information on the frequency distribution is information calculated from the frequency distribution, and is, for example, the range minimum value, the range maximum value, the depth information of the main subject, or the intermediate depth information. The plurality of depth information calculated by the depth information analysis unit 105 may be output to the image processing intensity calculation unit 104a.

なお、奥行き情報解析部105は、画像データの平均輝度、輪郭強度又は色彩分布などが大きく変化した場合には、シーンが変化したと判定してもよい。その場合、奥行き情報解析部105は、前のフレームの計算結果を用いずに、対象フレームの計算結果だけを利用して各パラメータを算出してもよい。これにより、画像処理装置100は、シーンが変化した際には、前のフレームのパラメータを参照しないので、前のシーンのパラメータによる影響を受けずに、現在のシーンの奥行き情報Dに応じた画像処理強度Sで画像処理を行うことができる。   It should be noted that the depth information analysis unit 105 may determine that the scene has changed when the average brightness, contour strength, color distribution, or the like of the image data has changed significantly. In this case, the depth information analysis unit 105 may calculate each parameter using only the calculation result of the target frame without using the calculation result of the previous frame. As a result, the image processing apparatus 100 does not refer to the parameter of the previous frame when the scene changes, so that the image corresponding to the depth information D of the current scene is not affected by the parameter of the previous scene. Image processing can be performed with the processing intensity S.

(主要被写体の奥行値を利用する場合)
また、上記では、奥行き情報Dに基づいて抽出した複数の奥行き情報値(例えば、範囲最小値Dmin、範囲最大値Dmax)と、強度補正値とに基づいて画像処理強度Sを決定する方法を説明したが、奥行き情報解析部105で近景の主要被写体の奥行き情報値を抽出し、その値を利用して画像処理強度算出部104aで画像処理強度Sを決定してもよい。ここで、画像データGiは主要被写体を中心とした画像であり、主要被写体からの奥行き情報Dの違いに対して画像処理をすることにより、主要被写体が強調される画像処理を行うことができる。
(When using the depth value of the main subject)
In the above description, a method of determining the image processing intensity S based on a plurality of depth information values (for example, the range minimum value Dmin, the range maximum value Dmax) extracted based on the depth information D and the intensity correction value will be described. However, the depth information analysis unit 105 may extract the depth information value of the main subject in the foreground and use the value to determine the image processing strength S by the image processing strength calculation unit 104a. Here, the image data Gi is an image centered on the main subject, and image processing that emphasizes the main subject can be performed by performing image processing on the difference in depth information D from the main subject.

図15は、主要被写体よりも奥に位置する被写体に対して、より大きい強度の画像処理を行う場合における、奥行き情報値と強度ベース値との対応関係の一例を示す図である。同図において、横軸が奥行き情報値で、縦軸が強度ベース値である。また、同図において、主要被写体の奥行き情報Dobjで強度ベース値がβ1であり、範囲最大値Dmaxで強度ベース値がβ2であることが示されている。また、同図において、主要被写体の奥行き情報Dobjから範囲最大値Dmaxまでの範囲で、奥行き情報の値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。   FIG. 15 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value when image processing with higher intensity is performed on a subject located behind the main subject. In the figure, the horizontal axis is the depth information value, and the vertical axis is the intensity base value. Further, in the drawing, it is shown that the intensity base value is β1 in the depth information Dobj of the main subject, the intensity base value is β2 at the maximum range value Dmax. Further, in the figure, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases in the range from the depth information Doobj of the main subject to the maximum range value Dmax.

奥行き情報解析部105の処理の説明で上述したように、奥行き情報Dの頻度分布から主要被写体の奥行き情報Dobjと範囲最大値Dmaxを抽出し、抽出した主要被写体の奥行き情報Dobjと範囲最大値Dmaxを画像処理強度算出部104aに出力する。
画像処理強度算出部104aは、強度ベース値をβ1からβ2で変化させる場合、強度ベース値は、奥行き情報Dが主要被写体の奥行き情報Dobjでβ1となり範囲最大値Dmaxでβ2となるように設定し、その間の奥行き情報Dに対応する強度ベース値を連続的に設定する。
As described above in the description of the processing of the depth information analysis unit 105, the depth information Dobj and the range maximum value Dmax of the main subject are extracted from the frequency distribution of the depth information D, and the extracted depth information Dobj and the range maximum value Dmax of the main subject are extracted. Is output to the image processing intensity calculation unit 104a.
When the intensity base value is changed from β1 to β2, the image processing intensity calculation unit 104a sets the intensity base value so that the depth information D becomes β1 when the main subject's depth information Dob becomes β1 and the range maximum value Dmax becomes β2. The intensity base value corresponding to the depth information D between them is set continuously.

すなわち、この場合には、奥行き情報解析部105で抽出した主要被写体の奥行き情報Dobjが第一の奥行き情報値であり、範囲最大値Dmaxが第二の奥行き情報値である。そして、画像処理強度算出部104aは、第二の奥行き情報値において強度ベース値が最も大きくなり、第一の奥行き情報において強度ベース値が最も小さくなり、奥行き情報が大きくなるにしたがって、強度ベース値が大きくなるように決定される。
このように決定した強度ベース値を、上述した処理と同様の方法により、強度補正値に基づいて補正を行い、最終的な画像処理強度Sが決定される。
That is, in this case, the depth information Doobj of the main subject extracted by the depth information analysis unit 105 is the first depth information value, and the maximum range value Dmax is the second depth information value. The image processing intensity calculation unit 104a then increases the intensity base value as the intensity base value becomes the largest in the second depth information value, the intensity base value becomes the smallest in the first depth information, and the depth information becomes larger. Is determined to be large.
The intensity base value determined in this way is corrected based on the intensity correction value by the same method as that described above, and the final image processing intensity S is determined.

これにより、画像処理強度算出部104aは、画像データの主要被写体の奥行き情報Dobjに応じた画像処理強度を設定する。
ここで、奥行き情報解析部105は、主要被写体が人物である場合には、顔認識技術を組み合わせることにより、主要被写体の奥行き情報Dobjを取得するようにしてもよい。例えば、顔認識により顔を検出したときに、検出した顔の領域に対応した奥行き情報Dを主要被写体の奥行き情報Dobjとする。このとき、奥行き情報解析部105は、検出した顔の領域に対応した奥行き情報Dを所定の領域の平均値とする。これにより、奥行き情報解析部105は、平均値を取ることより、奥行き情報Dに含まれるノイズなどの影響を低減することができる。
Thereby, the image processing intensity calculation unit 104a sets the image processing intensity according to the depth information Doobj of the main subject of the image data.
Here, when the main subject is a person, the depth information analysis unit 105 may acquire depth information Dobj of the main subject by combining face recognition techniques. For example, when a face is detected by face recognition, depth information D corresponding to the detected face area is set as the depth information Dobj of the main subject. At this time, the depth information analysis unit 105 sets the depth information D corresponding to the detected face area as an average value of the predetermined area. Thereby, the depth information analysis part 105 can reduce the influence of the noise etc. which are contained in the depth information D by taking an average value.

さらに、画像処理強度算出部104aは、主要被写体の奥行き情報Dobjと範囲最大値Dmaxの間の奥行き情報値を起点として範囲最大値Dmaxに向かって画像処理強度Sを大きくしてもよい。ここで、人物や動物などの主要被写体は厚みを持っている。そのため、奥行き情報解析部105で算出された主要被写体の奥行き情報Dobjは、主要被写体の画像領域に含まれる各画素に対応する奥行き情報Dのうちのいずれかの奥行き情報である。   Furthermore, the image processing intensity calculation unit 104a may increase the image processing intensity S toward the range maximum value Dmax, starting from the depth information value between the depth information Dobj of the main subject and the range maximum value Dmax. Here, main subjects such as people and animals have thickness. Therefore, the depth information Dobj of the main subject calculated by the depth information analysis unit 105 is any one of the depth information D corresponding to each pixel included in the image area of the main subject.

したがって、主要被写体より奥に位置する被写体から画像処理を開始するためには、画像処理強度算出部104aは、算出された主要被写体の奥行き情報Dobjより予め決められた値だけ大きい奥行き情報値を起点として範囲最大値Dmaxに向かって強度ベース値を大きくしてもよい。その際、例えば、画像処理強度算出部104aは、図16のような奥行き情報値と強度ベース値の対応関係を使用して、強度ベース値を設定してもよい。この場合にも、設定した強度ベース値について、上述した処理と同様の方法により、強度補正値に基づいて補正を行い、最終的な画像処理強度Sが決定される。   Therefore, in order to start image processing from a subject located behind the main subject, the image processing intensity calculation unit 104a starts from a depth information value that is larger than the calculated depth information Doobj of the main subject by a predetermined value. As an example, the intensity base value may be increased toward the range maximum value Dmax. At this time, for example, the image processing intensity calculation unit 104a may set the intensity base value using the correspondence relationship between the depth information value and the intensity base value as shown in FIG. Also in this case, the set intensity base value is corrected based on the intensity correction value by a method similar to the process described above, and the final image processing intensity S is determined.

図16は、主要被写体より奥に位置する被写体に対して、より大きい強度の画像処理を行う場合における、奥行き情報値と強度ベース値との対応関係の一例を示す図である。同図において、横軸が奥行き情報値で、縦軸が強度ベース値である。また、同図において、D0は主要被写体の奥行き情報Dobjと範囲最大値Dmaxの間に位置する奥行き情報(以下、中間奥行き情報と称する)である。同図において、中間奥行き情報D0で強度ベース値がβ1であり、範囲最大値Dmaxで強度ベース値がβ2であることが示されている。また、同図において、中間奥行き情報D0から範囲最大値Dmaxまでの範囲で、奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。   FIG. 16 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value when image processing with higher intensity is performed on a subject located behind the main subject. In the figure, the horizontal axis is the depth information value, and the vertical axis is the intensity base value. In the figure, D0 is depth information (hereinafter referred to as intermediate depth information) located between the depth information Doobj of the main subject and the range maximum value Dmax. In the drawing, it is shown that the intensity base value is β1 in the intermediate depth information D0, and the intensity base value is β2 in the range maximum value Dmax. Further, in the figure, in the range from the intermediate depth information D0 to the maximum range value Dmax, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases.

奥行き情報解析部105は、範囲最大値Dmaxと中間奥行き情報D0とを算出する。例えば、奥行き情報解析部105は、主要被写体の奥行き情報Dobjに所定値だけ加算することにより中間奥行き情報D0を算出する。また、範囲最大値Dmaxは前記奥行き情報解析部105の処理の詳細で述べた方法により抽出される。そして、奥行き情報解析部105は、範囲最大値Dmaxと中間奥行き情報D0とを画像処理強度算出部104aに出力する。   The depth information analysis unit 105 calculates the range maximum value Dmax and the intermediate depth information D0. For example, the depth information analysis unit 105 calculates the intermediate depth information D0 by adding a predetermined value to the depth information Dobj of the main subject. The maximum range value Dmax is extracted by the method described in the details of the processing of the depth information analysis unit 105. Then, the depth information analysis unit 105 outputs the range maximum value Dmax and the intermediate depth information D0 to the image processing intensity calculation unit 104a.

なお、奥行き情報解析部105は、主要被写体の奥行き情報Dobjに所定値だけ乗算すること、主要被写体の奥行き情報Dobjと範囲最大値Dmaxの平均値とすること、又は主要被写体の奥行き情報Dobjと範囲最大値Dmaxと予め決められた割合で混合した値とすること等により、中間奥行き情報D0を算出してもよい。   The depth information analysis unit 105 multiplies the depth information Dobj of the main subject by a predetermined value, sets the average value of the depth information Dobj of the main subject and the range maximum value Dmax, or the depth information Dobj of the main subject and the range. The intermediate depth information D0 may be calculated by, for example, setting a value that is mixed with the maximum value Dmax at a predetermined ratio.

画像処理強度算出部104aは、強度ベース値をβ1からβ2で変化させる場合、中間奥行き情報D0でβ1となり範囲最大値Dmaxでβ2となるように設定し、その間の奥行き情報値に対する強度ベース値を連続的に設定する。
すなわち、この場合には、奥行き情報解析部105で算出した中間奥行き情報D0が第一の奥行き情報であり、範囲最大値Dmaxが第二の奥行き情報である。そして、画像処理強度算出部104aは、第二の奥行き情報において強度ベース値が最も大きくなり、第一の奥行き情報において強度ベース値が最も小さくなり、第一の奥行き情報と第二の奥行き情報の範囲で奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなるように決定される。
このように決定した強度ベース値を、上述した処理と同様の方法により、強度補正値に基づいて補正を行うことで、最終的な画像処理強度Sが決定される。
When changing the intensity base value from β1 to β2, the image processing intensity calculation unit 104a sets β1 as the intermediate depth information D0 and β2 as the range maximum value Dmax, and sets the intensity base value for the depth information value therebetween. Set continuously.
That is, in this case, the intermediate depth information D0 calculated by the depth information analysis unit 105 is the first depth information, and the range maximum value Dmax is the second depth information. Then, the image processing intensity calculation unit 104a has the largest intensity base value in the second depth information, the smallest intensity base value in the first depth information, and the first depth information and the second depth information. The intensity base value is linearly increased as the depth information value increases in the range.
The final image processing intensity S is determined by correcting the intensity base value determined in this way based on the intensity correction value by the same method as that described above.

なお、画像処理強度算出部104aは、上述した図5の特性、図14の特性、図15の特性及び図16の特性をシーンによって選択するようにしてもよい。例えば、画像処理強度算出部104aは、近景の被写体が存在しない場合又は被写体として人物が存在しない場合などは、図5の特性を利用して画像処理強度Sを決定する。また、画像処理強度算出部104aは、近景の被写体や人物が被写体として存在する場合には、図16の特性を利用する。さらに、画像処理強度算出部104aは、視差範囲が一部に偏っている場合、例えば、近景のみの画像や遠景のみの画像などの場合、画像処理強度Sを奥行き情報Dによらず一律に予め決められた値にしてもよい。これにより、画像処理装置100は、シーンに応じて画像処理強度Sの決定方式を切り替えるので、シーンに応じた適切な画像処理を行うことができる。   Note that the image processing intensity calculation unit 104a may select the characteristics shown in FIG. 5, the characteristics shown in FIG. 14, the characteristics shown in FIG. 15, and the characteristics shown in FIG. For example, the image processing intensity calculation unit 104a determines the image processing intensity S using the characteristics of FIG. 5 when there is no subject in the foreground or when there is no person as the subject. Further, the image processing intensity calculation unit 104a uses the characteristics shown in FIG. 16 when a subject or person in the foreground exists as a subject. Further, the image processing intensity calculation unit 104a uniformly sets the image processing intensity S in advance regardless of the depth information D when the parallax range is partially biased, for example, in the case of an image of only a near view or an image of only a distant view. It may be a predetermined value. As a result, the image processing apparatus 100 switches the determination method of the image processing intensity S according to the scene, and thus can perform appropriate image processing according to the scene.

以上の方法により決定した画像処理強度Sに基づいて、画像処理部102は画像データGiに対して画像処理を行うことで、画像処理強度算出部104aは、主要被写体よりも奥に位置する被写体の画像領域に対して、又は、主要被写体より所定値だけ奥の位置からさらに奥に位置する被写体の画像領域に対して、奥行き情報Dと撮像装置設定情報Pに応じた画像処理強度Sを決定することができる。このとき、画像処理部102は、主要被写体からの奥行き情報Dの違いに応じた画像処理強度Sで画像処理を行うので、主要被写体が強調され、その画像を見たユーザに対し主要被写体と背景との距離感を感じやすくさせることができる。つまり、画像処理装置100aは、ユーザに奥行きを感じさせることができる画像を生成することができる。   Based on the image processing intensity S determined by the above method, the image processing unit 102 performs image processing on the image data Gi, so that the image processing intensity calculation unit 104a can detect the object located behind the main object. The image processing intensity S corresponding to the depth information D and the imaging device setting information P is determined for the image region or the image region of the subject located further from the back position by a predetermined value than the main subject. be able to. At this time, the image processing unit 102 performs the image processing with the image processing intensity S corresponding to the difference in the depth information D from the main subject. Therefore, the main subject is emphasized, and the main subject and the background are displayed to the user who viewed the image. This makes it easier to feel a sense of distance. That is, the image processing apparatus 100a can generate an image that can make the user feel the depth.

なお、本実施形態では、説明のために例として奥行き情報解析部105と画像処理強度算出部104aを備える画像処理装置100aを用いる方法を示したが、これに限られるものではない。図1の画像処理装置100を用いても実現可能であり、その場合、画像処理強度算出部104において奥行き情報Dに基づいて、本実施形態の処理を行うようにすることができる。   In the present embodiment, a method using the image processing apparatus 100a including the depth information analysis unit 105 and the image processing intensity calculation unit 104a is shown as an example for the sake of explanation, but the present invention is not limited to this. The image processing apparatus 100 of FIG. 1 can be used, and in this case, the image processing intensity calculation unit 104 can perform the processing of this embodiment based on the depth information D.

[第3の実施形態]
以下、本発明の第3の実施形態について、詳細に説明する。上述した各実施形態では、画像処理装置100又は画像処理装置100aは、奥行き情報値が大きくなるほど(遠景ほど)画像処理強度を大きくし、さらに、焦点距離などの撮像装置設定情報Pに応じて強度補正値を変更することで画像処理強度を補正した。さらに、補正した画像処理強度に応じて画像データGiの各画素に輪郭強調処理、コントラスト補正及び彩度補正等を行うことで、ユーザに奥行きを感じさせることができる画像生成が可能であることを示した。
[Third Embodiment]
Hereinafter, the third embodiment of the present invention will be described in detail. In each of the above-described embodiments, the image processing apparatus 100 or the image processing apparatus 100a increases the image processing intensity as the depth information value increases (as the distant view increases), and further increases the intensity according to the imaging apparatus setting information P such as the focal length. The image processing intensity was corrected by changing the correction value. Furthermore, by performing contour enhancement processing, contrast correction, saturation correction, and the like on each pixel of the image data Gi according to the corrected image processing intensity, it is possible to generate an image that can make the user feel the depth. Indicated.

本実施形態では、画像処理装置100又は画像処理装置100aにおける、例えば、画像処理強度算出部104又は画像処理強度算出部104aの画像処理強度Sの決定方法を変更する、又は、画像処理部102の画像処理内容を変更する、又はその両方を変更する。これにより、画像データGiに対して、奥行き情報Dと撮像装置設定情報Pに応じた画像演出を行うことが可能となる。   In the present embodiment, for example, the determination method of the image processing intensity S of the image processing intensity calculation unit 104 or the image processing intensity calculation unit 104a in the image processing apparatus 100 or the image processing apparatus 100a is changed, or the image processing unit 102 Change the image processing content or both. Thereby, it is possible to perform an image effect corresponding to the depth information D and the imaging device setting information P on the image data Gi.

以下では、例として、図11に示した画像処理装置100aを用いて、ぼかし処理により画像演出する方法を説明する。
ここで、ぼかし処理とは、入力画像上の注目画素とその周辺画素とに対し、平均値フィルタやガウシアンフィルタを用いたフィルタ処理を行い、画像をぼかす処理のことである。
まず、例えば、第2の実施形態で述べた方法と同様にして画像処理強度Sを決定する。
Hereinafter, as an example, a method of producing an image effect by blurring processing using the image processing apparatus 100a illustrated in FIG. 11 will be described.
Here, the blurring process is a process of blurring an image by performing a filter process using an average value filter or a Gaussian filter on the target pixel and its peripheral pixels on the input image.
First, for example, the image processing intensity S is determined in the same manner as the method described in the second embodiment.

つまり、奥行き情報解析部105において第一の奥行き情報値と第二の奥行き情報値とを抽出し、第二の奥行き情報値において画像処理強度が最も大きくなり、第一の奥行き情報値において画像処理強度が最も小さくなり、第一の奥行き情報値と第二の奥行き情報値の間で奥行き情報値が大きくなるほど強度ベース値が大きくなるように設定する。さらに、強度補正値決定部103において強度補正値を算出し、強度補正値が大きいほど、画像処理強度が大きくなるように強度ベース値を補正して、画像処理強度Sを決定する。   That is, the depth information analysis unit 105 extracts the first depth information value and the second depth information value, and the image processing intensity is maximized in the second depth information value, and image processing is performed in the first depth information value. It sets so that intensity | strength base value may become large, so that intensity | strength becomes the smallest and a depth information value becomes large between a 1st depth information value and a 2nd depth information value. Further, the intensity correction value determination unit 103 calculates the intensity correction value, and the image processing intensity S is determined by correcting the intensity base value so that the image processing intensity increases as the intensity correction value increases.

そして、画像処理装置100aの外部から入力された奥行き情報Dに基づいて、画像データGiの各画素における画像処理強度Sを決定する。画像処理強度算出部104aは、決定した画像処理強度Sを画像処理部102に出力する。次に、画像処理部102は、入力された画像処理強度Sに応じた強度により、画像データGiに対してぼかし処理を行う。つまり、画像処理強度Sが大きいほど、ぼかし処理の強度が大きくなるようにぼかし処理を行う。したがって、第一の奥行き情報から第二の奥行き情報にかけて徐々にぼかし処理の強度が大きくなり、遠景ほどぼけた画像を生成することができる。そして、画像処理部102は、ぼかし処理を行った画像データを出力画像データGoとして、画像処理装置100aの外部へ出力する。   Then, based on the depth information D input from the outside of the image processing apparatus 100a, the image processing intensity S in each pixel of the image data Gi is determined. The image processing intensity calculation unit 104 a outputs the determined image processing intensity S to the image processing unit 102. Next, the image processing unit 102 performs a blurring process on the image data Gi with an intensity corresponding to the input image processing intensity S. That is, the blurring process is performed so that the intensity of the blurring process increases as the image processing intensity S increases. Therefore, the intensity of the blurring process gradually increases from the first depth information to the second depth information, and an image blurred as the distant view can be generated. Then, the image processing unit 102 outputs the blurred image data as output image data Go to the outside of the image processing apparatus 100a.

これにより、本実施形態における画像処理装置100aは、奥行き情報Dと撮像装置設定情報Pに基づいて画像処理強度Sを決定し、画像処理強度Sに応じて画像処理を行うことで、奥行き情報と撮像装置設定情報に応じてぼかし効果を演出した画像生成が可能となる。例えば、焦点距離が大きくなった場合に、ぼかし処理をすることによって被写界深度が浅くなった効果を与えることができ、より焦点距離が大きくなるような印象を与えることが可能となる。   Accordingly, the image processing apparatus 100a according to the present embodiment determines the image processing intensity S based on the depth information D and the imaging apparatus setting information P, and performs image processing according to the image processing intensity S, thereby obtaining the depth information and It is possible to generate an image with a blurring effect according to the imaging device setting information. For example, when the focal length is increased, the effect of reducing the depth of field can be provided by performing the blurring process, and an impression that the focal length is further increased can be provided.

以上の説明では、奥行き情報値が大きいほど、つまり、遠景ほど画像処理強度が大きくなるように強度ベース値を決定し、さらに、強度補正値が大きいほど、画像処理強度が大きくなるように画像処理強度Sを決定した。しかし、画像処理強度Sの決定方法はこれに限られるものではない。すなわち、第1の実施形態、第1の実施形態の第1の変形例、第4の変形例の場合における、撮像装置設定情報Pの大小と強度補正値の大小との関係と逆にしてもよい。   In the above description, the intensity base value is determined so that the image processing intensity increases as the depth information value increases, that is, the distant view increases. Further, the image processing intensity increases as the intensity correction value increases. Intensity S was determined. However, the method for determining the image processing intensity S is not limited to this. That is, the relationship between the magnitude of the imaging device setting information P and the magnitude of the intensity correction value in the case of the first embodiment, the first modification of the first embodiment, and the fourth modification is reversed. Good.

また、以上の説明では、画像処理の一例としてぼかし処理について述べたが、これに限られるものではない。例えば、上述した輪郭強調処理、コントラスト補正又は彩度補正を画像処理として行ってもよいし、明るさ(輝度)を変化させる処理や輪郭強調処理、画像をカラーからグレースケールに変換する処理などを用いてもよい。   In the above description, the blurring process is described as an example of the image process, but the present invention is not limited to this. For example, the above-described edge enhancement processing, contrast correction, or saturation correction may be performed as image processing, processing for changing brightness (luminance), contour enhancement processing, processing for converting an image from color to gray scale, or the like. It may be used.

具体的には、例えば、奥行き情報値が大きい、つまり遠景ほど彩度が低下するように設定することで、近景被写体はカラーで、遠景被写体ほど白黒となる画像が得られ、近景被写体の誘目性を高める画像演出が可能となる。また、合焦点位置の情報に基づいて、合焦点位置の奥行き情報値と、奥行き情報値の差が大きい被写体ほど彩度を低下させる設定とすることで、合焦点位置(ズームアップ位置)の被写体の誘目性を高める画像演出が可能となる。   Specifically, for example, by setting so that the depth information value is large, that is, the saturation decreases with increasing distance, the foreground subject is colored, and the distant subject is black and white. An image effect that enhances the image quality becomes possible. Also, based on the information on the in-focus position, the subject with the in-focus position (zoom-up position) is set to lower the saturation as the subject has a larger difference between the depth information value of the in-focus position and the depth information value. It is possible to produce an image that enhances the attractiveness of the image.

また、輪郭抽出処理とグレースケール変換処理などを組み合わせることで、被写体の輪郭部分のみを残した線画と呼ばれる画像を得ることができる。これを用い、例えば、被写界深度情報に基づいて画像処理強度を変更し、被写界深度外の被写体を線画とすることで、被写界深度内の被写体のみを強調する画像演出が可能となる。
以上のような画像処理の他にも、モノクロ化、セピア化など様々な画像処理を適用することが可能であり、上記のような処理によって、奥行き情報Dと撮像装置設定情報Pに応じた画像演出が可能となる。
Further, by combining the contour extraction process and the gray scale conversion process, an image called a line drawing in which only the contour portion of the subject is left can be obtained. Using this, for example, by changing the image processing intensity based on the depth of field information and making the subject outside the depth of field a line drawing, it is possible to produce an image effect that emphasizes only the subject within the depth of field It becomes.
In addition to the image processing as described above, various image processing such as monochrome and sepia can be applied, and the image corresponding to the depth information D and the imaging device setting information P can be obtained by the above processing. Production is possible.

これにより、本実施形態で述べた画像処理装置100aは、奥行き情報Dと撮像装置設定情報Pに基づいて画像処理強度Sを決定し、画像処理強度Sに応じて画像処理を行うことで、奥行き情報Dと撮像装置設定情報Pに応じて演出効果を付与した画像の生成が可能となる。   As a result, the image processing apparatus 100a described in the present embodiment determines the image processing intensity S based on the depth information D and the imaging apparatus setting information P, and performs image processing according to the image processing intensity S. It is possible to generate an image with a presentation effect according to the information D and the imaging device setting information P.

なお、本実施形態では、説明のために例として奥行き情報解析部105と画像処理強度算出部104aを備える画像処理装置100aを用いる方法を示したが、これに限られるものではない。図1の画像処理装置100を用いても実現可能であり、その場合には、画像処理強度算出部104において、奥行き情報Dに基づいて本実施形態の処理を行うようにしてもよい。   In the present embodiment, a method using the image processing apparatus 100a including the depth information analysis unit 105 and the image processing intensity calculation unit 104a is shown as an example for the sake of explanation, but the present invention is not limited to this. The image processing apparatus 100 of FIG. 1 can be used, and in this case, the image processing intensity calculation unit 104 may perform the processing of the present embodiment based on the depth information D.

なお、以上の本実施形態で述べた画像処理強度算出部104、画像処理強度算出部104a、画像処理部102、強度補正値決定部103及び奥行き情報解析部105の各ブロックは、FPGA(Field−Programmable Gate Array)などのハードウェア、又は画像処理装置100もしくは画像処理装置100aに内在するマイコン(図示せず)などにより処理されるソフトウェアにより構成してもよい。   Note that the blocks of the image processing intensity calculation unit 104, the image processing intensity calculation unit 104a, the image processing unit 102, the intensity correction value determination unit 103, and the depth information analysis unit 105 described in the above embodiment are FPGA (Field-). You may comprise by hardware, such as Programmable Gate Array, or the software processed by the microcomputer (not shown) etc. which exist in the image processing apparatus 100 or the image processing apparatus 100a.

[第4の実施形態]
以下、本発明の第4の実施形態について、図面を参照して詳細に説明する。図17は、第4の実施形態における撮像装置200の概略ブロック図である。なお、図1と共通する要素には同一の符号(101〜104)を付し、その具体的な説明を省略する。撮像装置200は、撮像部制御部201と、撮像部202と、撮像部203と、画像処理装置100bと、画像表示部205と、画像記憶部206とを備える。また、図17の画像処理装置100bの構成は、図1の第1の実施形態の画像処理装置100の構成に対して、視差算出部204が追加されたものになっている。
[Fourth Embodiment]
Hereinafter, a fourth embodiment of the present invention will be described in detail with reference to the drawings. FIG. 17 is a schematic block diagram of an imaging apparatus 200 according to the fourth embodiment. Elements common to those in FIG. 1 are denoted by the same reference numerals (101 to 104), and a specific description thereof is omitted. The imaging device 200 includes an imaging unit control unit 201, an imaging unit 202, an imaging unit 203, an image processing device 100b, an image display unit 205, and an image storage unit 206. In addition, the configuration of the image processing apparatus 100b in FIG. 17 is obtained by adding a parallax calculation unit 204 to the configuration of the image processing apparatus 100 according to the first embodiment in FIG.

撮像部制御部201は、撮像部202及び203を制御するための制御信号を出力する。ここで、制御信号は、焦点距離、F値、ISO感度、シャッタースピードなどの撮像装置設定情報Pであり、撮像部202と撮像部203と強度補正値決定部103とに出力される。
撮像部202及び203の2つの撮像装置は、光軸が略平行となるように横並び又は縦並びに配置されている。撮像部202及び203はレンズモジュールなどの光学系と、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサなどで構成される。また、撮像部202及び203は、撮像部制御部201から出力される撮像装置設定情報Pに応じて、レンズの焦点距離、絞り、イメージセンサのISO感度、シャッタースピード、焦点を合わせる被写体などを変更する。
The imaging unit control unit 201 outputs a control signal for controlling the imaging units 202 and 203. Here, the control signal is imaging apparatus setting information P such as a focal length, F value, ISO sensitivity, and shutter speed, and is output to the imaging unit 202, the imaging unit 203, and the intensity correction value determination unit 103.
The two imaging devices 202 and 203 are arranged side by side or vertically so that their optical axes are substantially parallel. The imaging units 202 and 203 include an optical system such as a lens module and an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). In addition, the imaging units 202 and 203 change the focal length of the lens, the aperture, the ISO sensitivity of the image sensor, the shutter speed, the subject to be focused, and the like according to the imaging device setting information P output from the imaging unit control unit 201. To do.

撮像部202は被写体を撮像し、撮像することにより得られた第1画像データG1を視差算出部204と画像処理部102とに出力する。同様に、撮像部203は被写体を撮像し、撮像することにより得られた第2画像データG2を視差算出部204に出力する。
視差算出部204は、入力基準画像と、入力基準画像と視点の異なる入力参照画像に基づき、入力基準画像の各画素に対応する視差を算出し、算出した視差に基づいて奥行き情報Dを決定する。ここで、視差は2つの画像間の被写体のずれ量である。具体的には、例えば、視差算出部204は、撮像部202から入力された第1画像データG1と撮像部203から入力された第2画像データG2とを用いて、ブロックマッチングにより、第1画像データG1の各画素に対応する視差値を算出する。
The imaging unit 202 images a subject and outputs first image data G1 obtained by imaging to the parallax calculation unit 204 and the image processing unit 102. Similarly, the imaging unit 203 images a subject and outputs the second image data G <b> 2 obtained by the imaging to the parallax calculation unit 204.
The parallax calculation unit 204 calculates the parallax corresponding to each pixel of the input standard image based on the input standard image and the input reference image having a different viewpoint from the input standard image, and determines the depth information D based on the calculated parallax. . Here, the parallax is the amount of subject displacement between two images. Specifically, for example, the parallax calculation unit 204 uses the first image data G1 input from the imaging unit 202 and the second image data G2 input from the imaging unit 203 to perform the first image by block matching. A parallax value corresponding to each pixel of the data G1 is calculated.

ここで、ブロックマッチングは、次のような処理を行う。一方の画像データのある画素について、他方の画像データ上を水平方向に走査することで画素マッチングを行う。画素マッチングは注目画素を中心としたブロック単位で行われ、ブロック内の画素の絶対値差分の総和をとるSAD(Sum of Absolute Difference)を計算し、SADの値が最小となるブロックを決定することで、一方の撮像画像の注目画素に対応する他方の撮像画像上の画素を求める。SADによる計算手法以外に、SSD(Sum of Squared Intensity Difference)によるブロックマッチング、グラフカット、DP(Dynamic Programming)マッチングといった計算手法もある。対応画素が求まることでその画素の視差値が算出可能となる。   Here, the block matching performs the following processing. Pixel matching is performed on a pixel in one image data by scanning the other image data in the horizontal direction. Pixel matching is performed in units of blocks centering on the target pixel, and SAD (Sum of Absolute Difference) that calculates the sum of absolute value differences of pixels in the block is calculated to determine a block that minimizes the SAD value. Thus, the pixel on the other captured image corresponding to the target pixel of the one captured image is obtained. In addition to the SAD calculation method, there are calculation methods such as block matching by SSD (Sum of Squared Intensity Difference), graph cut, and DP (Dynamic Programming) matching. When the corresponding pixel is obtained, the parallax value of the pixel can be calculated.

ここで、撮像された被写体までの距離Zと視差dとの関係はd=f×B/Zで表される。fは撮像部202及び203の焦点距離であり、Bは撮像部202と撮像部203との間の距離である基線長である。上述の距離Zと視差dの関係式から、距離Zと視差dとには相関がある。本実施形態において、画像処理装置100bの視差算出部204は、視差dに基づいて奥行き情報Dを算出する。   Here, the relationship between the distance Z to the captured subject and the parallax d is expressed by d = f × B / Z. f is a focal length of the imaging units 202 and 203, and B is a baseline length which is a distance between the imaging unit 202 and the imaging unit 203. From the relational expression between the distance Z and the parallax d, there is a correlation between the distance Z and the parallax d. In the present embodiment, the parallax calculation unit 204 of the image processing apparatus 100b calculates the depth information D based on the parallax d.

図18は、距離Zと視差dとの関係を示した図である。同図に示すように、距離Zと視差dとは反比例の関係にあり、線形的な関係ではない。そこで、視差算出部204は、距離との関係が線形となるように視差dを変換し、変換後の値を奥行き情報Dとして利用する。具体的には、例えば、視差算出部204は、算出した視差dの逆数(1/d)を算出し、算出した視差dの逆数を奥行き情報Dとする。そして、視差算出部204は、算出した奥行き情報Dを、画像処理強度算出部104に出力する。
なお、視差の変換は、距離と完全に線形の関係にする必要はなく、それに近い変換であればよい。
FIG. 18 is a diagram illustrating the relationship between the distance Z and the parallax d. As shown in the figure, the distance Z and the parallax d are in an inversely proportional relationship and not a linear relationship. Therefore, the parallax calculation unit 204 converts the parallax d so that the relationship with the distance is linear, and uses the converted value as the depth information D. Specifically, for example, the parallax calculation unit 204 calculates the reciprocal (1 / d) of the calculated parallax d and sets the reciprocal of the calculated parallax d as the depth information D. Then, the parallax calculation unit 204 outputs the calculated depth information D to the image processing intensity calculation unit 104.
Note that the parallax conversion need not be in a completely linear relationship with the distance, but may be a conversion close to that.

また、視差算出部204は、算出した視差dをそのまま奥行き情報Dとしてもよい。その場合、奥行き情報Dは被写体までの距離が遠いほど小さく、距離が近いほど大きくなる。そのため、画像処理強度算出部104は、奥行き情報Dの値が小さくなるほど画像処理強度Sを大きくすればよい。これにより、画像処理強度算出部104は、奥行き情報Dが奥を示すほど画像処理強度Sを大きくすることができる。   Further, the parallax calculation unit 204 may use the calculated parallax d as it is as the depth information D. In this case, the depth information D is smaller as the distance to the subject is longer, and is larger as the distance is shorter. For this reason, the image processing intensity calculation unit 104 may increase the image processing intensity S as the value of the depth information D decreases. Accordingly, the image processing intensity calculation unit 104 can increase the image processing intensity S as the depth information D indicates the back.

画像処理強度算出部104は、視差算出部204から入力された奥行き情報Dと、強度補正値決定部103から入力された強度補正値とに基づいて、画像処理強度Sを決定する。画像処理部102は、画像処理強度算出部104が決定した画像処理強度Sに応じて、撮像部202から入力された第1画像データG1に対して画像処理を行う。画像処理部102は画像処理により得られた出力画像データGoを、画像表示部205に表示させたり、画像記憶部206に記憶させたりする。   The image processing intensity calculation unit 104 determines the image processing intensity S based on the depth information D input from the parallax calculation unit 204 and the intensity correction value input from the intensity correction value determination unit 103. The image processing unit 102 performs image processing on the first image data G <b> 1 input from the imaging unit 202 in accordance with the image processing intensity S determined by the image processing intensity calculation unit 104. The image processing unit 102 displays the output image data Go obtained by the image processing on the image display unit 205 or stores it in the image storage unit 206.

以上に説明したように、本実施形態の撮像装置200は、2つの画像データから奥行き情報Dを算出する。また、撮像装置設定情報Pに基づいて強度補正値を算出する。撮像装置200は、奥行き情報Dと強度補正値とに基づいて画像処理強度Sを決定し、第1画像データG1の各画素における画像処理強度Sを決定する。そして、撮像装置200は、画素毎に決定した画像処理強度Sで、当該画素に対して予め決められた画像処理を行うことより、撮像装置設定情報が変化する場合においても、遠景の画像領域を鮮明にすることができる。その結果、その画像を見たユーザに対し近景と遠景との距離感を感じやすくさせることができ、撮像装置200は、ユーザが奥行きを感じることができる画像を生成することができる。   As described above, the imaging apparatus 200 according to the present embodiment calculates the depth information D from the two image data. Further, the intensity correction value is calculated based on the imaging device setting information P. The imaging apparatus 200 determines the image processing intensity S based on the depth information D and the intensity correction value, and determines the image processing intensity S for each pixel of the first image data G1. The image capturing apparatus 200 performs image processing determined in advance for each pixel with the image processing intensity S determined for each pixel, so that even when the image capturing apparatus setting information changes, the image area of the distant view is displayed. It can be clear. As a result, the user who viewed the image can easily feel the distance between the near view and the distant view, and the imaging apparatus 200 can generate an image that allows the user to feel the depth.

なお、本実施形態では、撮像部を2つ備えた撮像装置200について説明したが、複数の画像から視差情報を算出する方式でも同様の効果が得られ、例えば、1回目の撮像位置から左右方向へ移動して2回目の撮像を行うことで実現できる。また、視差算出部204に代えて後述する奥行き情報算出部を備えるようにしてもよい。   In the present embodiment, the imaging apparatus 200 including two imaging units has been described. However, a similar effect can be obtained by a method of calculating parallax information from a plurality of images. For example, the horizontal direction from the first imaging position is obtained. This can be realized by moving to and performing the second imaging. Further, a depth information calculation unit to be described later may be provided instead of the parallax calculation unit 204.

なお、撮像装置200は、奥行き情報解析部105と画像処理強度算出部104aを備える構成としてもよく、上記第2の実施形態で述べた画像処理方法を適用することが可能である。これにより、撮像装置200により動画を撮像する場合に、奥行き情報Dに含まれるノイズによる各パラメータのフレーム間の変動を低減することができ、出力画像データGoが示す画像のちらつきを低減することができる。さらに、主要被写体からの奥行き情報Dの違いに応じた画像処理強度で画像処理を行うことで、主要被写体を強調し、ユーザに対し主要被写体と背景との距離感を感じやすくさせることが可能な画像の生成ができる。
また、撮像装置200は、上記第3の実施形態で述べた画像処理方法を適用することが可能である。これにより、奥行き情報と撮像装置設定情報に応じて演出効果を付与した画像の生成が可能となる。
Note that the imaging apparatus 200 may include a depth information analysis unit 105 and an image processing intensity calculation unit 104a, and the image processing method described in the second embodiment can be applied. Thereby, when a moving image is imaged by the imaging apparatus 200, fluctuations between frames of each parameter due to noise included in the depth information D can be reduced, and flickering of an image indicated by the output image data Go can be reduced. it can. Furthermore, by performing image processing with image processing intensity corresponding to the difference in depth information D from the main subject, it is possible to emphasize the main subject and make it easier for the user to feel the distance between the main subject and the background. An image can be generated.
The imaging apparatus 200 can apply the image processing method described in the third embodiment. As a result, it is possible to generate an image with a presentation effect according to the depth information and the imaging device setting information.

[第5の実施形態]
以下、本発明の第5の実施形態について、図面を参照して詳細に説明する。図19は、第5の実施形態における表示装置300の概略ブロック図である。なお、図1又は図17と共通する要素には同一の符号(101〜104、205)を付し、その具体的な説明を省略する。表示装置300は、画像処理装置100cと、画像表示部205とを備える。図19の画像処理装置100cの構成は、図1の第1の実施形態の画像処理装置100の構成に対して、奥行き情報算出部301が追加された構成となっている。
[Fifth Embodiment]
Hereinafter, a fifth embodiment of the present invention will be described in detail with reference to the drawings. FIG. 19 is a schematic block diagram of a display device 300 according to the fifth embodiment. In addition, the same code | symbol (101-104,205) is attached | subjected to the element which is common in FIG. 1 or FIG. 17, and the specific description is abbreviate | omitted. The display device 300 includes an image processing device 100 c and an image display unit 205. The configuration of the image processing apparatus 100c in FIG. 19 is a configuration in which a depth information calculation unit 301 is added to the configuration of the image processing apparatus 100 of the first embodiment in FIG.

奥行き情報算出部301は、自装置の外部から入力される画像データGiから奥行き情報Dを算出する。ここで、奥行き情報Dの算出には、従来のいずれの推定方式を用いるようにしてもよい。例えば、奥行き情報算出部301は、色情報、消失点解析、領域分割、オブジェクト抽出などにより2次元画像から3次元画像を生成することにより、奥行き情報Dを生成する。奥行き情報算出部301は、算出した奥行き情報Dを画像処理強度算出部104に出力する。   The depth information calculation unit 301 calculates depth information D from image data Gi input from the outside of the own device. Here, any conventional estimation method may be used for the calculation of the depth information D. For example, the depth information calculation unit 301 generates the depth information D by generating a 3D image from the 2D image by color information, vanishing point analysis, region division, object extraction, and the like. The depth information calculation unit 301 outputs the calculated depth information D to the image processing intensity calculation unit 104.

なお、撮像装置設定情報Pは、画像データGiに含まれていてもよい。例えば、JPEGフォーマットの画像にはExif(Exchangeable image file format)データとして焦点距離、F値、ISO感度、シャッタ速度などが格納されている。このように画像データに付加された情報を撮像装置設定情報Pとして使用することができる。
画像処理部102は、第1の実施形態の画像処理部102と同様の機能を有するが、以下の点が異なる。画像処理部102は、画像処理により得られた出力画像を画像表示部205に表示させる。
Note that the imaging device setting information P may be included in the image data Gi. For example, a JPEG format image stores focal length, F value, ISO sensitivity, shutter speed, and the like as Exif (Exchangeable image file format) data. Information added to the image data in this way can be used as the imaging device setting information P.
The image processing unit 102 has the same function as the image processing unit 102 of the first embodiment, but differs in the following points. The image processing unit 102 causes the image display unit 205 to display an output image obtained by image processing.

これにより、表示装置300は、画像データGiに基づいて奥行き情報Dを算出する。また、撮像装置設定情報Pに基づいて強度補正値を算出する。表示装置300は、奥行き情報Dと強度補正値とに基づいて画像処理強度Sを決定し、画像データGiの各画素における画像処理強度Sを決定する。そして、表示装置300は、画素毎に決定した画像処理強度Sで、当該画素に対して予め決められた画像処理を行うことより、撮像装置設定情報が変化する場合においても、遠景の画像領域を鮮明にすることができる。その結果、その画像を見たユーザに対し近景と遠景との距離感を感じやすくさせることができ、表示装置300は、ユーザが奥行きを感じることができる画像を表示することができる。   Thereby, the display apparatus 300 calculates the depth information D based on the image data Gi. Further, the intensity correction value is calculated based on the imaging device setting information P. The display device 300 determines the image processing intensity S based on the depth information D and the intensity correction value, and determines the image processing intensity S for each pixel of the image data Gi. The display device 300 performs image processing predetermined for each pixel with the image processing intensity S determined for each pixel, so that the image area of the distant view can be displayed even when the imaging device setting information changes. It can be clear. As a result, the user who viewed the image can easily feel the distance between the near view and the distant view, and the display device 300 can display an image that allows the user to feel the depth.

なお、本実施形態では、奥行き情報算出部301を備えた表示装置300について説明したが、立体映像などの情報をもった画像データが入力された場合には、立体映像から視差を算出し、視差に基づいて奥行き情報Dを算出し、算出した奥行き情報Dに基づいて画像処理強度Sを決定してもよい。その場合にも表示装置300は、上記と同様の効果が得られる。また、表示装置300に画像データとともに奥行き情報Dが入力される場合には、表示装置300は、奥行き情報Dを直接、画像処理強度算出部104へ入力するようにしてもよい。   In the present embodiment, the display device 300 including the depth information calculation unit 301 has been described. However, when image data having information such as a stereoscopic video is input, the parallax is calculated from the stereoscopic video, and the parallax is calculated. The depth information D may be calculated based on the image information, and the image processing intensity S may be determined based on the calculated depth information D. Even in that case, the display device 300 can obtain the same effect as described above. Further, when the depth information D is input to the display device 300 together with the image data, the display device 300 may input the depth information D directly to the image processing intensity calculation unit 104.

なお、表示装置300は、奥行き情報解析部105と画像処理強度算出部104aを備える構成としてもよく、上記第2の実施形態で述べた画像処理方法を適用することが可能である。これにより、動画を画像データとして入力した場合に、奥行き情報Dに含まれるノイズによる各パラメータのフレーム間の変動を低減することができ、出力画像データGoが示す画像のちらつきを低減することができる。さらに、主要被写体からの奥行き情報Dの違いに応じた画像処理強度で画像処理を行うことで、主要被写体を強調し、ユーザに対し主要被写体と背景との距離感を感じやすくさせることが可能な画像を表示することができる。
また、表示装置300は、上記第3の実施形態で述べた画像処理方法を適用することが可能である。これにより、奥行き情報と撮像装置設定情報に応じて演出効果を付与した画像の表示が可能となる。
Note that the display device 300 may include a depth information analysis unit 105 and an image processing intensity calculation unit 104a, and the image processing method described in the second embodiment can be applied. As a result, when a moving image is input as image data, it is possible to reduce the variation between the frames of each parameter due to noise included in the depth information D, and to reduce the flicker of the image indicated by the output image data Go. . Furthermore, by performing image processing with image processing intensity corresponding to the difference in depth information D from the main subject, it is possible to emphasize the main subject and make it easier for the user to feel the distance between the main subject and the background. An image can be displayed.
In addition, the display device 300 can apply the image processing method described in the third embodiment. As a result, it is possible to display an image with a presentation effect according to the depth information and the imaging device setting information.

また、上述の各実施形態では、画像処理強度決定部101、101aは、画像処理強度Sを決定する際に、撮像装置設定情報Pから強度補正値を算出し、該強度補正値と奥行き情報Dとを参照して画像処理強度Sを決定しているが、撮像装置設定情報Pと奥行き情報Dとから直接画像処理強度Sを決定するようにしてもよい。例えば、撮像装置設定情報Pと奥行き情報値との組み合わせに画像処理強度Sを対応付けているLUTを用いて、撮像装置設定情報Pと奥行き情報Dとから直接画像処理強度Sを決定するようにしてもよい。
また、上述の各実施形態では、画像処理強度決定部101、101aは、画素毎に画像処理強度Sを決定しているが、所定の大きさのブロック毎や、輪郭線で囲まれた被写体毎などに画像処理強度Sを決定するようにしてもよい。
In each of the embodiments described above, the image processing intensity determination units 101 and 101a calculate an intensity correction value from the imaging apparatus setting information P when determining the image processing intensity S, and the intensity correction value and the depth information D are calculated. However, the image processing strength S may be determined directly from the imaging device setting information P and the depth information D. For example, the image processing intensity S is directly determined from the imaging apparatus setting information P and the depth information D using an LUT in which the image processing intensity S is associated with a combination of the imaging apparatus setting information P and the depth information value. May be.
Further, in each of the above-described embodiments, the image processing intensity determination units 101 and 101a determine the image processing intensity S for each pixel, but for each block of a predetermined size or for each subject surrounded by an outline. For example, the image processing intensity S may be determined.

また、複数の装置を備えるシステムが、各実施形態の画像処理装置(100、100a、100b又は100c)、撮像装置200あるいは表示装置300の各処理を、それらの複数の装置で分散して処理してもよい。
また、各実施形態の画像処理装置(100、100a、100b又は100c)、撮像装置200あるいは表示装置300の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、画像処理装置(100、100a、100b又は100c)、撮像装置200あるいは表示装置300に係る上述した種々の処理を行ってもよい。
In addition, a system including a plurality of devices processes each processing of the image processing device (100, 100a, 100b, or 100c), the imaging device 200, or the display device 300 according to each embodiment in a distributed manner. May be.
Further, a program for executing each process of the image processing apparatus (100, 100a, 100b, or 100c), the imaging apparatus 200, or the display apparatus 300 of each embodiment is recorded on a computer-readable recording medium, and the recording medium The above-described various processes relating to the image processing apparatus (100, 100a, 100b, or 100c), the imaging apparatus 200, or the display apparatus 300 may be performed by causing the computer system to read and execute the program recorded on the computer.

なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW (World Wide Web) system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

(1)この発明は上述した課題を解決するためになされたもので、本発明の一態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部(101、101a)と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部(102)とを備えることを特徴とする画像処理装置(100、100a、100b、100c)である。 (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention refers to setting information of an imaging apparatus when an image is captured and depth information corresponding to the image. An image processing intensity determining unit (101, 101a) that determines an image processing intensity for each region into which the image is divided, and an image processing unit (102 that performs image processing on the image data of the image according to the image processing intensity) An image processing apparatus (100, 100a, 100b, 100c).

これにより、入力画像を撮像した撮像装置の設定が変更された場合にも、ユーザが奥行きを感じられる画像を生成することができる。   Thereby, even when the setting of the imaging device that captured the input image is changed, an image that allows the user to feel the depth can be generated.

(2)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、焦点距離を示す情報であり、前記画像処理強度決定部は、前記焦点距離を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が大きくなるように決定することを特徴とする。 (2) According to another aspect of the present invention, there is provided the image processing apparatus according to (1), wherein the setting information is information indicating a focal length, and the image processing intensity determination unit includes the focal length. The value of the image processing intensity is determined so as to increase as the value of the information indicating the value increases.

これにより、入力される画像を撮像した撮像装置の焦点距離が変化しても、ユーザが奥行きを感じられる画像を生成することができる。   Thereby, even if the focal length of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.

(3)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、F値を示す情報であり、前記画像処理強度決定部は、前記F値を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が小さくなるように決定することを特徴とする。 (3) According to another aspect of the present invention, in the image processing apparatus according to (1), the setting information is information indicating an F value, and the image processing intensity determination unit The value of the image processing intensity is determined so as to decrease as the value of the information indicating the value increases.

これにより、入力される画像を撮像した撮像装置のF値が変化しても、ユーザが奥行きを感じられる画像を生成することができる。   Thereby, even if the F value of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.

(4)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、感度を示す情報であり、前記画像処理強度決定部は、前記感度を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が大きくなるように決定することを特徴とする。 (4) According to another aspect of the present invention, in the image processing apparatus according to (1), the setting information is information indicating sensitivity, and the image processing intensity determination unit indicates the sensitivity. The value of the image processing intensity is determined to increase as the value of information increases.

これにより、入力画像を撮像した撮像装置の感度が変化しても、ユーザが奥行きを感じられる画像を生成することができる。   Thereby, even if the sensitivity of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.

(5)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、露光時間を示す情報であり、前記画像処理強度決定部は、前記露光時間を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が小さくなるように決定することを特徴とする。 (5) According to another aspect of the present invention, there is provided the image processing apparatus according to (1), wherein the setting information is information indicating an exposure time, and the image processing intensity determination unit includes the exposure time. The value of the image processing intensity is determined so as to decrease as the value of the information indicating the value increases.

これにより、入力画像を撮像した撮像装置の露光時間が変化しても、ユーザが奥行きを感じられる画像を生成することができる。   Thereby, even if the exposure time of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.

(6)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、前記画像における合焦点位置を示す情報であり、前記画像処理強度決定部は、前記合焦点位置について前記奥行き情報が表す奥行きと、前記画像内を分割した領域について前記奥行き情報が表す奥行きとの差異に応じた補正値を決定し、該補正値と前記奥行き情報とを参照して、前記画像処理強度を決定することを特徴とする。 (6) According to another aspect of the present invention, there is provided the image processing apparatus according to (1), wherein the setting information is information indicating a focal position in the image, and the image processing intensity determination unit includes: , Determining a correction value according to the difference between the depth represented by the depth information for the in-focus position and the depth represented by the depth information for a region divided in the image, and refer to the correction value and the depth information Then, the image processing intensity is determined.

これにより、入力画像を撮像した撮像装置の合焦点の位置が変化しても、ユーザが奥行きを感じられる画像を生成することができる。   Thereby, even if the position of the focal point of the imaging device that captured the input image changes, it is possible to generate an image that allows the user to feel the depth.

(7)また、本発明の他の態様は、被写体を撮像する撮像部と、(1)から(6)のいずれかの項に記載の画像処理装置とを具備し、前記画像は、前記撮像部が撮像した画像であり、前記設定情報は、前記画像を前記撮像部が撮像した際の設定情報であることを特徴とする撮像装置である。 (7) According to another aspect of the present invention, an imaging unit that images a subject and the image processing apparatus according to any one of (1) to (6) are provided, and the image includes the imaging The image pickup apparatus is an image picked up by the image pickup unit, and the setting information is setting information when the image pickup unit picks up the image.

(8)また、本発明の他の態様は、(1)から(6)のいずれかの項に記載の画像処理装置と、前記画像処理装置により画像処理された画像を表示する画像表示部とを備えることを特徴とする表示装置である。 (8) According to another aspect of the present invention, there is provided an image processing device according to any one of (1) to (6), and an image display unit that displays an image processed by the image processing device. It is provided with the following.

(9)また、本発明の他の態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する第1の過程と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う第2の過程とを有することを特徴とする画像処理方法である。 (9) According to another aspect of the present invention, image processing is performed for each region obtained by dividing the image with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image. An image processing method comprising: a first step of determining an intensity; and a second step of performing image processing on image data of the image according to the image processing intensity.

(10)また、本発明の他の態様は、コンピュータを、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部として機能させるための画像処理プログラムである。 (10) According to another aspect of the present invention, the computer refers to the setting information of the imaging device when the image is captured and the depth information corresponding to the image for each area into which the image is divided. An image processing program for functioning as an image processing intensity determining unit that determines image processing intensity and an image processing unit that performs image processing on image data of the image according to the image processing intensity.

100、100a、100b、100c…画像処理装置 101、101a…画像処理強度決定部 102…画像処理部 103…強度補正値決定部 104、104a…画像処理強度算出部 105…奥行き情報解析部 111…頻度分布算出部 112…奥行き情報抽出部 200…撮像装置 201…撮像部制御部 202、203…撮像部 204…視差算出部 205…画像表示部 206…画像記憶部 300…表示装置 301…奥行き情報算出部   DESCRIPTION OF SYMBOLS 100, 100a, 100b, 100c ... Image processing apparatus 101, 101a ... Image processing intensity determination part 102 ... Image processing part 103 ... Intensity correction value determination part 104, 104a ... Image processing intensity calculation part 105 ... Depth information analysis part 111 ... Frequency Distribution calculation unit 112 ... Depth information extraction unit 200 ... Imaging device 201 ... Imaging unit control unit 202, 203 ... Imaging unit 204 ... Parallax calculation unit 205 ... Image display unit 206 ... Image storage unit 300 ... Display device 301 ... Depth information calculation unit

Claims (5)

画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部と、
前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部と
を備えることを特徴とする画像処理装置。
An image processing intensity determination unit that determines image processing intensity for each area obtained by dividing the image with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image;
An image processing apparatus comprising: an image processing unit that performs image processing on image data of the image according to the image processing intensity.
被写体を撮像する撮像部と、
請求項1に記載の画像処理装置と
を具備し、
前記画像は、前記撮像部が撮像した画像であり、
前記設定情報は、前記画像を前記撮像部が撮像した際の設定情報であること
を特徴とする撮像装置。
An imaging unit for imaging a subject;
And an image processing apparatus according to claim 1,
The image is an image captured by the imaging unit,
The imaging apparatus, wherein the setting information is setting information when the imaging unit captures the image.
請求項1に記載の画像処理装置と、
前記画像処理装置により画像処理された画像を表示する画像表示部と
を備えることを特徴とする表示装置。
An image processing apparatus according to claim 1;
An image display unit that displays an image processed by the image processing device.
画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する第1の過程と、
前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う第2の過程と
を有することを特徴とする画像処理方法。
A first process of determining image processing intensity for each region into which the image is divided with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image;
And a second step of performing image processing on the image data of the image according to the image processing intensity.
コンピュータを、
画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部、
前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部
として機能させるための画像処理プログラム。
Computer
An image processing intensity determination unit that determines image processing intensity for each area obtained by dividing the image with reference to setting information of the imaging apparatus when the image is captured and depth information corresponding to the image,
An image processing program for causing an image processing unit to perform image processing on image data of the image according to the image processing intensity.
JP2012253181A 2012-11-19 2012-11-19 Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program Expired - Fee Related JP6441552B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012253181A JP6441552B2 (en) 2012-11-19 2012-11-19 Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012253181A JP6441552B2 (en) 2012-11-19 2012-11-19 Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2014102614A true JP2014102614A (en) 2014-06-05
JP6441552B2 JP6441552B2 (en) 2018-12-19

Family

ID=51025084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012253181A Expired - Fee Related JP6441552B2 (en) 2012-11-19 2012-11-19 Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6441552B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016059887A1 (en) * 2014-10-14 2016-04-21 シャープ株式会社 Image processing device, image capturing device, image processing method, and program
JP2017050830A (en) * 2015-09-04 2017-03-09 パナソニックIpマネジメント株式会社 Luminaire, illumination system and program
JP2020515982A (en) * 2017-12-20 2020-05-28 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd Image processing method, apparatus, computer-readable storage medium, and electronic device
JP2020153615A (en) * 2019-03-22 2020-09-24 パナソニックIpマネジメント株式会社 Heating cooker
JP2021082937A (en) * 2019-11-19 2021-05-27 キヤノン株式会社 Image processing device, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207985A (en) * 2002-12-25 2004-07-22 Fuji Photo Film Co Ltd Digital camera
JP2007124282A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207985A (en) * 2002-12-25 2004-07-22 Fuji Photo Film Co Ltd Digital camera
JP2007124282A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016059887A1 (en) * 2014-10-14 2016-04-21 シャープ株式会社 Image processing device, image capturing device, image processing method, and program
JP2016081149A (en) * 2014-10-14 2016-05-16 シャープ株式会社 Image processing device, imaging device, image processing method, and program
JP2017050830A (en) * 2015-09-04 2017-03-09 パナソニックIpマネジメント株式会社 Luminaire, illumination system and program
JP2020515982A (en) * 2017-12-20 2020-05-28 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd Image processing method, apparatus, computer-readable storage medium, and electronic device
US11132770B2 (en) 2017-12-20 2021-09-28 Shenzhen Sensetime Technology Co., Ltd Image processing methods and apparatuses, computer readable storage media and electronic devices
JP2020153615A (en) * 2019-03-22 2020-09-24 パナソニックIpマネジメント株式会社 Heating cooker
JP7213419B2 (en) 2019-03-22 2023-01-27 パナソニックIpマネジメント株式会社 heating cooker
JP2021082937A (en) * 2019-11-19 2021-05-27 キヤノン株式会社 Image processing device, image processing method, and program
JP7458752B2 (en) 2019-11-19 2024-04-01 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP6441552B2 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
WO2013094635A1 (en) Image processing device, imaging device, and display device
KR101699919B1 (en) High dynamic range image creation apparatus of removaling ghost blur by using multi exposure fusion and method of the same
TWI602152B (en) Image capturing device nd image processing method thereof
TWI476731B (en) Image processing apparatus, image processing method and program
JP5395273B2 (en) Stereoscopic image processing apparatus, stereoscopic imaging apparatus, stereoscopic imaging method, and program
JP2008294785A (en) Image processor, imaging apparatus, image file, and image processing method
WO2013047405A1 (en) Image processing apparatus and method, and program
JP2011239195A (en) Electronic apparatus
JP6441552B2 (en) Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program
JP2012205244A (en) Image processing device and method of controlling the same
WO2012098768A1 (en) Image processing device, image processing method, image processing program, and photography device
CN106575434B (en) Image processing apparatus, imaging apparatus, and image processing method
JP5781372B2 (en) Image processing apparatus and imaging apparatus
JP4916378B2 (en) Imaging apparatus, image processing apparatus, image file, and gradation correction method
KR20110109574A (en) Image processing method and photographing apparatus using the same
WO2018166170A1 (en) Image processing method and device, and intelligent conferencing terminal
JP2009284056A (en) Image processing apparatus, method, and program
JP5843599B2 (en) Image processing apparatus, imaging apparatus, and method thereof
JP5410378B2 (en) Video signal correction apparatus and video signal correction program
JP2020004007A (en) Image processing device, image processing method, and program
JP2020005084A (en) Image processing apparatus, image processing method, and program
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP5881005B2 (en) Image processing apparatus, image capturing apparatus, image display apparatus, image processing method, and program
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP5365881B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170622

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170630

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181122

R150 Certificate of patent or registration of utility model

Ref document number: 6441552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees