JP2014102614A - Image processing device, imaging device, display device, image processing method, and image processing program - Google Patents
Image processing device, imaging device, display device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2014102614A JP2014102614A JP2012253181A JP2012253181A JP2014102614A JP 2014102614 A JP2014102614 A JP 2014102614A JP 2012253181 A JP2012253181 A JP 2012253181A JP 2012253181 A JP2012253181 A JP 2012253181A JP 2014102614 A JP2014102614 A JP 2014102614A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- intensity
- value
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 521
- 238000003384 imaging method Methods 0.000 title claims abstract description 152
- 238000003672 processing method Methods 0.000 title description 9
- 238000000034 method Methods 0.000 claims description 66
- 230000008569 process Effects 0.000 claims description 37
- 238000012937 correction Methods 0.000 description 201
- 238000004364 calculation method Methods 0.000 description 125
- 238000004458 analytical method Methods 0.000 description 64
- 230000008859 change Effects 0.000 description 37
- 238000009826 distribution Methods 0.000 description 24
- 230000035945 sensitivity Effects 0.000 description 24
- 230000007423 decrease Effects 0.000 description 21
- 230000001965 increasing effect Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 20
- 230000004048 modification Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 13
- 239000000284 extract Substances 0.000 description 11
- 238000000605 extraction Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000000149 argon plasma sintering Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000238370 Sepia Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置、表示装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing device, an imaging device, a display device, an image processing method, and an image processing program.
静止画又は動画を、ディジタルカメラやディジタルビデオカメラなどの撮像装置で撮像したりディスプレイに表示したりする際に、それら画像の先鋭感や鮮明感を高めるための、様々な画像処理技術が開発されている。該画像処理技術として、例えば、先鋭感を増加させる輪郭強調処理や、鮮明感を増加させる彩度強調処理などが挙げられる。さらに、奥行き感を調整する画像処理として奥行き情報を使用した画像処理技術が有る。例えば、特許文献1では、撮像装置と被写体の3次元的な位置関係を示す奥行きデータ(情報)と、奥行き感の調整度合いを表す奥行き程度とに基づき、奥行き感補正のゲインを制御することで自由に画像の奥行き感を調整できる画像処理装置が開示されている。 Various image processing technologies have been developed to enhance the sharpness and sharpness of still images or moving images when they are captured by an imaging device such as a digital camera or digital video camera or displayed on a display. ing. Examples of the image processing technique include a contour enhancement process that increases sharpness and a saturation enhancement process that increases sharpness. Furthermore, there is an image processing technique using depth information as image processing for adjusting the sense of depth. For example, in Patent Document 1, by controlling the depth correction gain based on the depth data (information) indicating the three-dimensional positional relationship between the imaging device and the subject and the depth level indicating the adjustment level of the depth sensation. An image processing apparatus that can freely adjust the depth of an image is disclosed.
しかしながら、特許文献1に記載の画像処理装置においては、入力画像を撮像した撮像装置の設定、例えば、焦点距離、絞りなどが変更される場合を考慮しておらず、そのような場合に処理結果画像の奥行き感が不十分となる問題がある。例えば、焦点距離を変更してズームアップした場合、被写体と撮像装置の実際の位置関係が大きく変化していなくても、画角が狭くなり被写体が拡大され、被写体に近づいたような画像となる。また、被写界深度が浅くなり、被写界深度外の位置に存在する被写体のぼけ量が大きい画像となる。つまり、焦点距離の変化に応じて入力画像の被写体や構図が変化することで、奥行き感も変化するものの、特許文献1に記載の画像処理装置はこれを考慮していないため、処理結果画像の奥行き感が不十分となってしまう。 However, the image processing apparatus described in Patent Document 1 does not consider the case where the setting of the imaging apparatus that captured the input image, for example, the focal length, the aperture, or the like is changed. There is a problem that the depth of the image is insufficient. For example, when zooming up by changing the focal length, even if the actual positional relationship between the subject and the imaging device has not changed significantly, the angle of view becomes narrower and the subject is enlarged, resulting in an image that approaches the subject. . In addition, the depth of field becomes shallow, and an image with a large blur amount of a subject existing outside the depth of field is obtained. In other words, although the sense of depth changes as the subject and composition of the input image change according to the change in the focal length, the image processing apparatus described in Patent Document 1 does not consider this, so the processing result image A feeling of depth becomes insufficient.
本発明は、このような事情に鑑みてなされたものであって、撮像装置の設定が変更された場合にも、ユーザが奥行きを感じられる画像を生成することが可能な画像処理装置、撮像装置、表示装置、画像処理方法および画像処理プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an image processing apparatus and an imaging apparatus capable of generating an image that allows the user to feel the depth even when the setting of the imaging apparatus is changed. An object is to provide a display device, an image processing method, and an image processing program.
(1)本発明は上述した課題を解決するためになされたもので、本発明の一態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部とを備えることを特徴とする画像処理装置である。 (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention refers to setting information of an imaging apparatus when an image is captured and depth information corresponding to the image. An image processing intensity determining unit that determines an image processing intensity for each region into which the image is divided, and an image processing unit that performs image processing on the image data of the image according to the image processing intensity. An image processing apparatus.
(2)また、本発明の他の態様は、被写体を撮像する撮像部と、上述の画像処理装置とを具備し、前記画像は、前記撮像部が撮像した画像であり、前記設定情報は、前記画像を前記撮像部が撮像した際の設定情報であることを特徴とする撮像装置である。 (2) Moreover, the other aspect of this invention comprises the imaging part which images a to-be-photographed object, and the above-mentioned image processing apparatus, The said image is the image which the said imaging part imaged, The said setting information is The image pickup apparatus is setting information when the image pickup unit picks up the image.
(3)また、本発明の他の態様は、上述の画像処理装置と、前記画像処理装置により画像処理された画像を表示する画像表示部とを備えることを特徴とする表示装置である。 (3) Moreover, the other aspect of this invention is a display apparatus characterized by including the above-mentioned image processing apparatus and the image display part which displays the image image-processed by the said image processing apparatus.
(4)また、本発明の他の態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する第1の過程と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う第2の過程とを有することを特徴とする画像処理方法である。 (4) According to another aspect of the present invention, image processing is performed for each area obtained by dividing the image with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image. An image processing method comprising: a first step of determining an intensity; and a second step of performing image processing on image data of the image according to the image processing intensity.
(5)また、本発明の他の態様は、コンピュータを、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部として機能させるための画像処理プログラムである。 (5) According to another aspect of the present invention, the computer refers to setting information of an imaging device when an image is captured and depth information corresponding to the image, and for each area obtained by dividing the image. An image processing program for functioning as an image processing intensity determining unit that determines image processing intensity and an image processing unit that performs image processing on image data of the image according to the image processing intensity.
本発明によれば、入力画像を撮像した撮像装置の設定が変化しても、ユーザが奥行きを感じられる画像を生成することが可能となる。
ADVANTAGE OF THE INVENTION According to this invention, even if the setting of the imaging device which imaged the input image changes, it becomes possible to produce | generate the image which a user can feel depth.
[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照して詳細に説明する。なお、各図における表現は理解しやすいように誇張して記載しており、実際とは異なる場合がある。図1は、第1の実施形態における画像処理装置100の概略ブロック図である。画像処理装置100には、入力画像の画像データGiと、入力画像に対応した奥行き情報Dと、入力画像を撮像した際の撮像装置の撮像装置設定情報Pとが入力される。画像処理装置100は、奥行き情報Dと撮像装置設定情報Pとに基づき、画像データGiに対して画像処理を行い、処理結果を出力画像データGoとして出力する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. Note that the expressions in the drawings are exaggerated for easy understanding, and may differ from actual ones. FIG. 1 is a schematic block diagram of an
ここで、画像データGiおよび出力画像データGoは、画像を構成する画素各々の階調値などの値からなるデータである。また、奥行き情報Dは、画像データGiが表す入力画像の各画素に対応する奥行き情報値からなる情報である。奥行き情報値は、入力画像を撮像した撮像装置から、入力画像における、該奥行き情報値に対応する画素が表す被写体までの距離を表す値である。すなわち、ある画素の奥行き情報値が大きくなるほど、撮像装置から該画素が表す被写体までの距離が大きくなる。例えば、各奥行き情報値を8ビットで表す奥行き情報の場合は、奥行き情報値0が最も近景の被写体であり、奥行き情報値255が最も遠景の被写体である。 Here, the image data Gi and the output image data Go are data composed of values such as the gradation values of the pixels constituting the image. The depth information D is information including depth information values corresponding to each pixel of the input image represented by the image data Gi. The depth information value is a value representing the distance from the imaging device that captured the input image to the subject represented by the pixel corresponding to the depth information value in the input image. That is, as the depth information value of a certain pixel increases, the distance from the imaging device to the subject represented by the pixel increases. For example, in the case of depth information in which each depth information value is represented by 8 bits, the depth information value 0 is the most distant subject and the depth information value 255 is the most distant subject.
また、撮像装置設定情報Pは、画像データGiが表す入力画像を撮像した際の撮像装置の設定を表す情報であり、本実施形態では、入力画像を撮像した撮像装置のレンズの焦点距離を表す情報である。後述するように、撮像装置設定情報Pは、例えば、F値、ISO感度、露光時間(シャッタースピード)、合焦点位置などを表す情報であってもよい。なお、画像データGiは、動画像を表すデータであってもよいし、静止画を表すデータであってもよい。画像データGiは、ビデオ信号などの信号で入力されてもよいし、JPEG(Joint Photographic Experts Group)ファイル、MPEG(Moving Picture Experts Group)ファイルなどのデータファイルで入力されてもよい。 Further, the imaging device setting information P is information indicating the setting of the imaging device when the input image represented by the image data Gi is captured, and in this embodiment, represents the focal length of the lens of the imaging device that captured the input image. Information. As will be described later, the imaging apparatus setting information P may be information representing, for example, an F value, ISO sensitivity, exposure time (shutter speed), in-focus position, and the like. The image data Gi may be data representing a moving image or data representing a still image. The image data Gi may be input as a signal such as a video signal, or may be input as a data file such as a JPEG (Joint Photographic Experts Group) file or an MPEG (Moving Picture Experts Group) file.
画像処理装置100は、画像処理強度決定部101と、画像処理部102とを含んで構成される。画像処理強度決定部101は、入力画像に対応した奥行き情報Dと、入力画像を撮像した際の撮像装置の撮像装置設定情報Pとを参照して、画像を分割した領域毎(本実施形態では、画素毎)に、画像処理強度Sを決定する。画像処理部102は、画像処理強度Sに従い、入力画像の画像データGiに対して画像処理を行う。
画像処理強度決定部101は、強度補正値決定部103と、画像処理強度算出部104とを含んで構成される。
The
The image processing
強度補正値決定部103は、入力された撮像装置設定情報Pに基づいて、予め決められた規則によって強度補正値を決定し、画像処理強度算出部104に出力する。ここで、強度補正値は、後段の画像処理強度算出部104で画像処理強度を算出する際の補正度合いを表す値である。強度補正値決定部103の処理の詳細は後述する。
The intensity correction
画像処理強度算出部104は、強度補正値決定部103が決定した強度補正値と、画像処理装置100の外部から入力された奥行き情報Dとに基づいて、画像データGiの各画素における画像処理強度Sを算出する。画像処理強度算出部104は、算出した画像処理強度Sを画像処理部102へ出力する。画像処理強度算出部104の処理の詳細は後述する。
Based on the intensity correction value determined by the intensity correction
画像処理部102は、画像処理強度算出部104の出力情報である画像処理強度Sにしたがって、画像データGiに対して画像処理を行う。画像処理部102が行う画像処理は、輪郭強調処理、コントラスト強調処理、彩度強調処理、ぼかし処理、ノイズ除去処理などのいずれであってもよい。画像処理部102は、画像処理を行うことにより生成した画像を出力画像データGoとして画像処理装置100の外部へ出力する。画像処理部102の処理の詳細は後述する。
The
<強度補正値決定部103の処理の詳細>
続いて、強度補正値決定部103の処理の詳細について説明する。強度補正値決定部103は、画像処理装置100の外部から入力された設定情報Pに基づいて強度補正値を算出し、画像処理強度算出部104へ出力する。
<Details of Processing of Strength Correction
Next, details of the processing of the intensity correction
(焦点距離に基づく強度補正値の算出方法)
図2は、本実施形態における撮像装置設定情報P(レンズの焦点距離)と強度補正値との対応関係を示すグラフの一例である。同図を用いて、強度補正値決定部103がレンズの焦点距離に基づいて強度補正値を決定する方法について説明する。
(Calculation method of intensity correction value based on focal length)
FIG. 2 is an example of a graph showing a correspondence relationship between the imaging apparatus setting information P (lens focal length) and the intensity correction value in the present embodiment. A method in which the intensity correction
同図において、横軸が焦点距離、縦軸が強度補正値である。また、同図において、最小焦点距離fminと、最大焦点距離fmaxと、強度補正値決定部103に入力された撮像装置設定情報Pが示す焦点距離の一例として焦点距離fpとが示されている。また、最小焦点距離fminに対応する強度補正値は、最小強度補正値Cfminであり、最大焦点距離fmaxに対応する強度補正値は、最大強度補正値Cfmaxである。また、焦点距離fpに対応する強度補正値は、強度補正値Cf1である。
In the figure, the horizontal axis represents the focal length, and the vertical axis represents the intensity correction value. Further, in the figure, the minimum focal length fmin, the maximum focal length fmax, and the focal length fp are shown as an example of the focal length indicated by the imaging device setting information P input to the intensity correction
強度補正値決定部103は、図2に示すグラフに対応したLUT(Look Up Table)を予め記憶しており、入力された撮像装置設定情報Pが示す焦点距離に対応付けて、該LUTが記憶している値を読み出し、該値を強度補正値とする。すなわち、入力された撮像装置設定情報Pが示す焦点距離がfpであれば、強度補正値をCf1とし、入力された撮像装置設定情報Pが示す焦点距離がfminであれば、強度補正値をCfminとし、入力された撮像装置設定情報Pが示す焦点距離がfmaxであれば、強度補正値をCfmaxとする。なお、強度補正値決定部103は、LUTではなく、図2のグラフを表す演算式を記憶しておき、該演算式を用いて、強度補正値を算出するようにしてもよい。
The intensity correction
なお、入力画像を撮像した撮像装置の最小焦点距離及び最大焦点距離は、最小焦点距離fmin及び最大焦点距離fmaxが示す範囲内であることが望ましい。つまり、入力画像を撮像した撮像装置は、最小焦点距離fminから最大焦点距離fmaxまでの範囲かより狭い範囲で、焦点距離を変更可能な光学系を備えていることが望ましい。 Note that it is desirable that the minimum focal length and the maximum focal length of the imaging apparatus that captured the input image are within the ranges indicated by the minimum focal length fmin and the maximum focal length fmax. That is, it is desirable that an imaging apparatus that captures an input image includes an optical system that can change the focal length in the range from the minimum focal length fmin to the maximum focal length fmax or in a narrower range.
図2に示す例では、焦点距離が大きくなるにしたがって、線形に強度補正値が大きくなる特性が示されている。光学系のズームによる焦点距離の変化が線形であることを考慮すると、このような対応関係が最も好適である。ただし、これに限られるものではなく、例えば図3に示すように、焦点距離が大きくなるほど、より大幅に強度補正値が大きくなるような非線形の特性としてもよい。同図では、焦点距離fmin、fmaxのときは、強度補正値は図2と変わらず、焦点距離fpのときは、強度補正値Cf1より小さな強度補正値Cf2となることが示されている。 The example shown in FIG. 2 shows a characteristic that the intensity correction value increases linearly as the focal length increases. Considering that the change in the focal length due to the zooming of the optical system is linear, such a correspondence relationship is most preferable. However, the present invention is not limited to this. For example, as shown in FIG. 3, nonlinear characteristics may be used in which the intensity correction value is significantly increased as the focal length is increased. In the figure, it is shown that the intensity correction value is the same as that in FIG. 2 at the focal lengths fmin and fmax, and the intensity correction value Cf2 is smaller than the intensity correction value Cf1 at the focal length fp.
上記のように、焦点距離と強度補正値の関係を単調増加とすると、焦点距離の変化と画像処理結果が対応するため好適となる。ここで、本実施形態での単調増加は傾きが0である場合も含む広義の単調増加であり、例えば、焦点距離が十分に大きい場合、又は、小さい場合において、過度強調とならないように強度補正値を飽和させてもよい。 As described above, when the relationship between the focal length and the intensity correction value is monotonously increased, it is preferable because the change in the focal length corresponds to the image processing result. Here, the monotonic increase in the present embodiment is a monotonic increase in a broad sense including the case where the slope is 0. For example, when the focal length is sufficiently large or small, the intensity is corrected so as not to be overemphasized. The value may be saturated.
以上の方法により、強度補正値決定部103は、撮像装置設定情報P、すなわちレンズの焦点距離に基づいて強度補正値を算出し、画像処理強度算出部104に出力する。
一般に、焦点距離が大きくなると被写界深度が浅くなり、焦点の合っていない位置の被写体がぼけてぼけ領域が増加する。ぼけ領域では、被写体の輪郭がより曖昧になり、コントラストや彩度は低下する。そこで上記のように、焦点距離が大きくなるにしたがって、強度補正値を大きくすることで、後述する画像処理強度算出部104で設定される画像処理強度を大きくする。これにより、ズームアップ(焦点距離を大きく)して被写界深度が浅くなり、被写界深度外のぼけ量が大きくなった場合に、画像処理部102における輪郭強調処理、コントラスト強調や彩度補正処理などの画像処理強度をより大きくし、焦点距離の変化によるぼけ量の変化を抑えることができる。
With the above method, the intensity correction
In general, as the focal length increases, the depth of field decreases, and the subject at the out-of-focus position is blurred and the blur area increases. In the blurred area, the outline of the subject becomes more ambiguous, and the contrast and saturation decrease. Thus, as described above, the image processing intensity set by the image processing
なお、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、焦点距離の大小変化に対する画像処理強度の大小変化の関係とが同じになるように、強度補正値を決定している。
As will be described later, since the image processing
(F値に基づく強度補正値の算出方法(第1の変形例))
また、撮像装置設定情報Pは、絞りを表すF値であってもよい。以下、本実施形態の第1の変形例として、撮像装置設定情報PがF値であり、強度補正値決定部103が、F値に基づいて強度補正値を算出する場合を説明する。図4は、本実施形態の第1の変形例におけるF値と強度補正値との対応関係を示すグラフである。同図において、横軸はF値、縦軸は強度補正値である。また、同図において、最小F値Fminと、最大F値Fmaxと、強度補正値決定部103に入力された撮像装置設定情報Pが示すF値の一例としてF値Fpとが示されている。また、最小F値Fminに対応する強度補正値は、最大強度補正値CFmaxであり、最大F値Fmaxに対応する強度補正値は、最小強度補正値CFminである。また、F値Fpに対応する強度補正値は、強度補正値CF1である。
(Calculation method of intensity correction value based on F value (first modification))
Further, the imaging device setting information P may be an F value representing an aperture. Hereinafter, as a first modification of the present embodiment, a case where the imaging apparatus setting information P is an F value and the intensity correction
本変形例における強度補正値決定部103は、図4に示すグラフに対応したLUTを予め記憶しており、入力された撮像装置設定情報Pが示すF値に対応付けて、該LUTが記憶している値を読み出し、該値を強度補正値とする。
なお、入力画像を撮像した撮像装置の最小F値及び最大F値は、最小F値Fmin及び最大F値Fmaxが示す範囲内であることが望ましい。つまり、入力画像を撮像した撮像装置は、最小F値Fminから最大F値Fmaxまでの範囲かより狭い範囲で、絞りが可変な光学系を備えることが望ましい。
The intensity correction
Note that it is desirable that the minimum F value and the maximum F value of the imaging apparatus that captured the input image are within the ranges indicated by the minimum F value Fmin and the maximum F value Fmax. That is, it is desirable that an imaging apparatus that captures an input image includes an optical system whose aperture is variable in a range from the minimum F value Fmin to the maximum F value Fmax or in a narrower range.
図4に示す例では、F値が大きくなるにしたがって、非線形に強度補正値が小さくなる特性が示されている。同じ焦点距離であれば、F値が大きくなる(レンズの絞りを絞る)にしたがって被写界深度が深くなる関係があるため、F値が大きいほど強度補正値を小さくしている。このとき、レンズの開口面積が半分(明るさが半分)になるときF値が√2倍となる関係を考慮すると、図4に示したような非線形の対応関係が最も好適である。ただし、これに限られるものではなく、例えばF値が大きくなるにしたがって、線形に強度補正値が小さくなる特性としてもよい。 The example shown in FIG. 4 shows a characteristic that the intensity correction value decreases nonlinearly as the F value increases. For the same focal length, there is a relationship that the depth of field becomes deeper as the F value increases (the lens aperture is reduced), so the intensity correction value decreases as the F value increases. In this case, considering the relationship that the F value becomes √2 when the aperture area of the lens is halved (the brightness is halved), the non-linear correspondence as shown in FIG. 4 is most preferable. However, the present invention is not limited to this. For example, the intensity correction value may be linearly reduced as the F value increases.
このように、F値と強度補正値の関係を単調減少とすると、F値の変化と画像処理結果が対応するため好適となる。ここで、本実施形態での単調減少は傾きが0である場合も含む広義の単調減少であり、例えば、F値が十分に大きい、又は、小さい値において、画像処理強度パラメータを過度強調とならないように飽和させてもよい。 Thus, if the relationship between the F value and the intensity correction value is monotonically decreased, it is preferable because the change in the F value corresponds to the image processing result. Here, the monotonic decrease in the present embodiment is a monotonic decrease in a broad sense including the case where the slope is 0. For example, when the F value is sufficiently large or small, the image processing intensity parameter is not overemphasized. May be saturated.
一般に、F値が小さいほど被写界深度が浅くなり、焦点が合っていない被写体がぼけてしまう領域が増加する。反対に、F値が大きいほど被写界深度が深くなり、焦点が合っている被写体の領域が増加する。そこで上記のように、F値が大きくなるにしたがって、強度補正値を小さくすることで、後段の画像処理強度算出部104で設定される画像処理強度が弱くなる。したがって、レンズの絞りを開放(F値を小さくする)して被写界深度が浅くなり、被写界深度外のぼけ量が大きくなった場合に、輪郭強調処理、コントラスト強調や彩度補正処理などの画像処理強度をより強くし、絞り(F値)の変更によるぼけ量の変化の影響を抑えることができる。
In general, the smaller the F value, the shallower the depth of field, and the greater the area where an out-of-focus subject is blurred. Conversely, the greater the F value, the deeper the depth of field and the more focused subject areas. Therefore, as described above, as the F value increases, the intensity correction value is decreased, so that the image processing intensity set by the subsequent image processing
なお、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、F値の大小変化に対する画像処理強度の大小変化の関係とが逆になるように、強度補正値を決定している。
As will be described later, since the image processing
(ISO感度に基づく強度補正値の算出方法(第2の変形例))
また、撮像装置設定情報Pは、ISO感度であってもよい。以下、本実施形態の第2の変形例として、撮像装置設定情報PがISO感度であり、強度補正値決定部103が、ISO感度に基づいて強度補正値を算出する場合を説明する。
一般に、撮像装置では、ISO感度の値を変更すると、撮像素子に照射された光を光電変換する際の、電気信号の増幅度合いが調整される。そのため、例えば、撮像素子への入射光量が少ない場合には、ISO感度の値を大きくすると、電気信号を増幅する際の増幅度が大きくなり、明るい画像を撮像することが可能となる。
(Calculation method of intensity correction value based on ISO sensitivity (second modification))
Further, the imaging device setting information P may be ISO sensitivity. Hereinafter, a case where the imaging apparatus setting information P is ISO sensitivity and the intensity correction
In general, in an imaging apparatus, when the ISO sensitivity value is changed, the amplification degree of an electric signal when photoelectrically converting light irradiated to the imaging element is adjusted. Therefore, for example, when the amount of incident light to the image sensor is small, increasing the ISO sensitivity value increases the amplification factor when amplifying the electrical signal, and enables a bright image to be captured.
本変形例では、強度補正値決定部103は、ISO感度の値が大きくなるにしたがって、線形に強度補正値が大きくなるように、強度補正値を決定する。強度補正値決定部103は、例えば、図2に示した焦点距離と強度補正値との対応関係と同様な、線形の特性を用いる。ISO感度の値の変化が線形であることを考慮すると、このような線形の特性が最も好適である。
In this modification, the intensity correction
一般に、電気信号を増幅する際にはノイズ信号も同時に増幅されてしまうため、ISO感度の値が大きくなるにしたがってノイズ信号も増幅され、画質劣化が目立つようになる。そこで上記のように、ISO感度の値が大きくなるにしたがって、強度補正値を大きくすることで、後段の画像処理強度算出部104で設定される画像処理強度を強くする。これにより、ISO感度の値を大きくすることでノイズ信号が増幅され、画像が劣化した場合に、ぼかし処理やノイズ除去処理などの画像処理の画像処理強度をより強くし、ISO感度の増加による画像の劣化を抑えることができる。
In general, when an electric signal is amplified, a noise signal is also amplified at the same time. Therefore, as the ISO sensitivity value increases, the noise signal is also amplified, and image quality deterioration becomes conspicuous. Therefore, as described above, as the ISO sensitivity value increases, the intensity correction value is increased to increase the image processing intensity set by the subsequent image processing
なお、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、ISO感度の大小変化に対する画像処理強度の大小変化の関係とが同じになるように、強度補正値を決定している。
As will be described later, since the image processing
また、後述する画像処理部102における画像処理の種類が複数あってもよい。その場合、各々の画像処理に対して別々の強度補正値および画像処理強度を算出してもよい。例えば、画像処理部102においてノイズ除去処理と輪郭強調処理とを行う場合を説明する。前述のように、ISO感度の値が大きくなるとノイズ信号も増幅されるため、画像処理強度を大きくして、ノイズ除去処理によりノイズ量を低減する。しかし、輪郭強調処理はノイズを目立たせてしまうため、ノイズ除去処理と同様に画像処理強度を大きくすることは望ましくない。そこで、強度補正値決定部103は、ノイズ除去処理に対する第1強度補正値については、図3のような関係から算出し、輪郭強調処理に対する第2強度補正値については、図4のような関係から算出する。このように、複数の強度補正値と画像処理強度を算出することで、画像処理の内容に対して適切な画像処理強度が算出できるようになるため好適である。
There may be a plurality of types of image processing in the
(シャッタースピードに基づく強度補正値の算出方法(第3の変形例))
また、撮像装置設定情報Pは、シャッタースピード(露光時間)であってもよい。以下、本実施形態の第3の変形例として、撮像装置設定情報Pがシャッタースピードであり、強度補正値決定部103が、シャッタースピードに基づいて強度補正値を算出する場合を説明する。
一般に、撮像装置では、シャッタースピードの値を変更することで、撮像素子への露光時間を調整することが可能であり、シャッタースピードの値を半分にすれば、露光時間を半分にすることができる。例えば、動被写体を静止画で撮像する場合、露光時間が長いことで動被写体がぶれてしまうことがあるが、シャッタースピードの値を小さくし露光時間を短くすることで、動被写体のぶれを防ぐことが可能となる。
(Calculation method of intensity correction value based on shutter speed (third modification))
Further, the imaging apparatus setting information P may be a shutter speed (exposure time). Hereinafter, a case where the imaging apparatus setting information P is the shutter speed and the intensity correction
In general, in an imaging apparatus, it is possible to adjust the exposure time to the image sensor by changing the shutter speed value. If the shutter speed value is halved, the exposure time can be halved. . For example, when a moving subject is imaged as a still image, the moving subject may be blurred due to a long exposure time. By reducing the shutter speed value and shortening the exposure time, the moving subject is prevented from being blurred. It becomes possible.
本変形例では、強度補正値決定部103は、シャッタースピードの値が大きくなるにしたがって、非線形に強度補正値が小さくなるように、強度補正値を決定する。強度補正値決定部103は、例えば、図4に示したF値と強度補正値との対応関係のような非線形の特性を用いる。シャッタースピードの値を非線形で変化させることを考慮すると、このような非線形の対応関係が最も好適である。
In this modification, the intensity correction
一般に、シャッタースピードの値を小さく(露光時間を短く)した場合には、入射光量が減少するため撮像される画像が暗くなってしまう。そこで、適切な明るさの画像を撮像するために、上記したISO感度などによって電気信号の増幅を行ったり、あるいは、撮像後の画像の各画素値にゲインをかけて明るくしたりする。このような処理を行った場合、ノイズ信号も同時に増幅してしまう、あるいは、ノイズがのった画素値を明るくしてしまうため、画質劣化が目立つようになる。そこで上記のように、シャッタースピードの値が大きくなるにしたがって、強度補正値が小さくなるようにすると、後段の画像処理強度算出部104で設定される画像処理強度が弱くなる。したがって、シャッタースピードの値が小さくノイズが目立つ場合にはより強い画像処理強度とし、シャッタースピードの値が大きい場合には画像処理強度を弱くすることができる。
In general, when the shutter speed value is reduced (exposure time is shortened), the amount of incident light is reduced, and the captured image becomes dark. Therefore, in order to capture an image with appropriate brightness, an electric signal is amplified by the above-described ISO sensitivity or the like, or each pixel value of the image after imaging is gained with a gain. When such a process is performed, the noise signal is also amplified at the same time, or the pixel value on which the noise is added is brightened, so that the image quality deterioration becomes conspicuous. Therefore, as described above, if the intensity correction value is decreased as the shutter speed value is increased, the image processing intensity set by the subsequent image processing
なお、上記ではシャッタースピードの値に基づいて強度補正値を算出したが、露光時間の情報を撮像装置設定情報Pとして用いてもよい。上記したように、シャッタースピードと露光時間との対応関係は線形であるため、シャッタースピードと強度補正値との非線形の対応関係と同様に、露光時間が長く(値が大きく)なるにしたがって、強度補正値が非線形に小さくなるような対応関係とすればよい。 In the above description, the intensity correction value is calculated based on the shutter speed value. However, exposure time information may be used as the imaging device setting information P. As described above, since the correspondence between the shutter speed and the exposure time is linear, the intensity increases as the exposure time becomes longer (value increases) as in the nonlinear correspondence between the shutter speed and the intensity correction value. The correspondence relationship may be such that the correction value decreases nonlinearly.
また、後述するように、後述する画像処理強度算出部104は、奥行き情報値が大きいほど画像処理強度を大きくするので、強度補正値決定部103は、奥行き情報値の大小変化に対する画像処理強度の大小変化の関係と、シャッタースピード又は露光時間の大小変化に対する画像処理強度の大小変化の関係とが逆になるように、強度補正値を決定している。
Further, as will be described later, the image processing
(合焦点位置に基づく強度補正値の算出方法(第4の変形例))
さらに、撮像装置設定情報Pは、合焦点位置の情報であってもよい。以下、本実施形態の第4の変形例として、撮像装置設定情報Pが合焦点位置の情報であり、強度補正値決定部103が、合焦点位置情報に基づいて強度補正値を算出する場合を説明する。
ここで、合焦点位置情報とは、合焦位置の被写体が存在する入力画像上の2次元位置情報と、撮像装置から該被写体までの距離情報を表す奥行き情報値のことを言う。なお、該奥行き情報値は、奥行き情報Dを強度補正値決定部103に入力する構成として取得してもよいし、撮像装置の光学系、すなわちレンズの動作情報から凡その値を算出するようにしてもよい。
(Calculation method of intensity correction value based on in-focus position (fourth modification))
Further, the imaging device setting information P may be information on the focal point position. Hereinafter, as a fourth modification of the present embodiment, a case where the imaging apparatus setting information P is in-focus position information and the intensity correction
Here, the in-focus position information refers to two-dimensional position information on the input image where the subject at the in-focus position exists, and depth information values representing distance information from the imaging device to the subject. The depth information value may be acquired as a configuration in which the depth information D is input to the intensity correction
合焦点位置情報に基づいて強度補正値を算出する場合、例えば、近景に人物被写体が存在し、遠景に山などの風景が写っている入力画像のとき、合焦点の2次元位置が遠景側の被写体上であれば、焦点は遠景に合わされている。したがって、近景の人物被写体のぼけ量は大きくなっている。このとき、奥行き情報値の大きい遠景側の強度補正値は小さく、奥行き情報値の小さい近景側の強度補正値は大きくなるように算出することで、ぼけ量の大きい近景の人物被写体においてより大きい画像処理強度とし、合焦した遠景の被写体において画像処理強度を弱くすることができる。ここで、被写体の奥行き情報値と強度補正値の対応関係をグラフで表した場合、縦軸を強度補正値、横軸を奥行き情報値とすると、合焦点位置の奥行き情報値で強度補正値が最小となるV字型の特性で表すことができる。 When calculating the intensity correction value based on the in-focus position information, for example, when the input image includes a human subject in the foreground and a landscape such as a mountain in the foreground, the two-dimensional position of the in-focus is on the far side. If it is on the subject, the focus is on the distant view. Therefore, the blur amount of the near-field human subject is large. At this time, by calculating so that the intensity correction value on the foreground side with a large depth information value is small and the intensity correction value on the foreground side with a small depth information value is large, a larger image is obtained in a foreground human subject with a large amount of blur. With the processing intensity, it is possible to reduce the image processing intensity in a distant subject in focus. Here, when the correspondence relationship between the depth information value of the subject and the intensity correction value is represented by a graph, if the vertical axis is the intensity correction value and the horizontal axis is the depth information value, the intensity correction value is the depth information value at the in-focus position. It can be expressed by a V-shaped characteristic that is minimized.
なお、第1の実施形態およびその第1から第3の変形例では、強度補正値決定部103は、強度補正値を入力画像毎(動画の場合はフレーム毎)に決定しているが、本変形例では、強度補正値を入力画像の画素毎に決定する。
In the first embodiment and the first to third modifications, the intensity correction
以上では、焦点距離、F値、ISO感度、シャッタースピード又は合焦点位置の情報に基づいて強度補正値を算出する方法を説明したが、これに限られるものではない。例えば、複数の撮像装置設定情報Pが強度補正値決定部103に入力されることも考えられるため、複数の撮像装置設定情報Pに基づいて強度補正値を算出してもよい。
例えば、焦点距離とF値の両方の情報に基づいて算出するようにしてもよい。この場合、図2で示した焦点距離fpに基づいて算出した強度補正値Cf1と、図4で示したF値Fpに基づいて算出した強度補正値CF1とを加算した値を最終的な強度補正値とすることができる。また、強度補正値Cf1と強度補正値CF1の平均値又は乗算値などを用いてもよいし、強度補正値Cf1と強度補正値CF1の重みを変化させて加算した値を用いてもよい。
The method for calculating the intensity correction value based on the information on the focal length, F value, ISO sensitivity, shutter speed, or in-focus position has been described above, but the present invention is not limited to this. For example, since a plurality of imaging device setting information P may be input to the intensity correction
For example, it may be calculated based on information on both the focal length and the F value. In this case, a value obtained by adding the intensity correction value Cf1 calculated based on the focal length fp shown in FIG. 2 and the intensity correction value CF1 calculated based on the F value Fp shown in FIG. Can be a value. Further, an average value or a multiplication value of the intensity correction value Cf1 and the intensity correction value CF1 may be used, or a value obtained by changing the weights of the intensity correction value Cf1 and the intensity correction value CF1 may be used.
また、例えば、上記撮像装置設定情報Pのうち焦点距離、F値、ISO感度、シャッタースピードの4つに基づいて算出してもよい。この場合、上記例のように、それぞれの撮像装置設定情報Pに基づいて算出した4つの強度補正値の、加算値、平均値又は乗算値などを最終的な強度補正値としてもよい。また、それぞれの重みを変化させて加算した値を用いてもよい。
以上のように、複数の撮像装置設定情報Pを自由に組み合わせて強度補正値を算出することができる。
Further, for example, the calculation may be performed based on four of the imaging apparatus setting information P, that is, focal length, F value, ISO sensitivity, and shutter speed. In this case, as in the above example, the final intensity correction value may be an addition value, an average value, or a multiplication value of four intensity correction values calculated based on the respective imaging device setting information P. Further, a value obtained by adding the respective weights may be used.
As described above, the intensity correction value can be calculated by freely combining a plurality of imaging device setting information P.
さらに、撮像装置設定情報Pとして、被写界深度情報を用いるようにしてもよい。例えば、焦点距離、F値、許容錯乱円の直径などの複数の撮像装置設定情報と、奥行き情報Dとを強度補正値決定部103へ入力することで、それらの入力情報に基づいて被写界深度を算出することができる。この場合、被写界深度が浅くなるほど被写界深度外の位置に存在する被写体のぼけ量が大きくなることを考慮して、被写界深度が深く(値が大きく)なるにしたがって、強度補正値が小さくなるような、線形又は非線形の特性を持つ対応関係とすることができる。上記のように、被写界深度の値が大きくなるにしたがって、強度補正値が小さくなるようにすることで、後段の画像処理強度算出部104で設定される画像処理強度が弱くなる。したがって、被写界深度の値が小さくぼけ量が大きい場合にはより強い画像処理強度とし、被写界深度の値が大きい場合には画像処理強度を弱くすることができる。
Further, depth of field information may be used as the imaging device setting information P. For example, by inputting a plurality of imaging device setting information such as focal length, F value, allowable confusion circle diameter and the like and depth information D to the intensity correction
<画像処理強度算出部104の処理の詳細>
画像処理強度算出部104は、まず、奥行き情報Dに基づいて初期の画像処理強度(強度ベース値)を、入力画像の画素毎に決定する。画像処理強度算出部104は、続いて、強度ベース値を、強度補正値決定部103が決定した強度補正値に基づいて補正し、画像処理強度Sを決定する。図5を用い、奥行き情報Dに基づいて強度ベース値を決定する方法について以下に説明する。
<Details of Processing of Image Processing
The image processing
図5は、奥行き情報値と強度ベース値との対応関係の一例を示した図である。同図において、横軸が奥行き情報Dである奥行き情報値で、縦軸が強度ベース値である。同図において、奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。画像処理強度算出部104は、まず、この特性に基づいて強度ベース値を決定する。被写体の連続性を考慮すると、強度ベース値は奥行き情報値に対して単調増加の関係が好適である。
FIG. 5 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value. In the figure, the horizontal axis is the depth information value that is the depth information D, and the vertical axis is the intensity base value. In the figure, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases. The image processing
また、同図において、奥行き情報値が、取り得る範囲の最大値(例えば255)にあるときに、強度ベース値は最大のβ2となり、奥行き情報値が、取り得る範囲の最小値(例えば0)にあるときに、強度ベース値は最小のβ1となることが示されている。
次に、図5に示した特性に基づいて決定した強度ベース値を、強度補正値決定部103の出力情報である強度補正値に基づいて補正し、画像処理強度Sを決定する方法について説明する。
Further, in the figure, when the depth information value is at the maximum value (for example, 255) of the possible range, the intensity base value is the maximum β2, and the depth information value is the minimum value (for example, 0) of the possible range. It is shown that the intensity base value is the minimum β1.
Next, a method of determining the image processing intensity S by correcting the intensity base value determined based on the characteristics shown in FIG. 5 based on the intensity correction value that is output information of the intensity correction
以下では、例として、図2で示した特性に基づいて強度補正値を算出した場合について、図6を用いて説明する。
図6は、強度補正値と、奥行き情報値が最大のときの画像処理強度との対応関係の一例を示す図である。同図において、横軸は強度補正値であり、縦軸は奥行き情報値が最大のときの画像処理強度である。なお、同図の横軸は、図2に示した特性に基づいて算出した強度補正値と等しく、同じ記号で示されている。また、同図の縦軸は、図5に示した奥行き情報の最大値において、新たに設定される画像処理強度であり、強度補正値決定部103の出力情報である強度補正値に応じて決定される。
Hereinafter, as an example, a case where the intensity correction value is calculated based on the characteristics shown in FIG. 2 will be described with reference to FIG.
FIG. 6 is a diagram illustrating an example of a correspondence relationship between the intensity correction value and the image processing intensity when the depth information value is maximum. In the figure, the horizontal axis is the intensity correction value, and the vertical axis is the image processing intensity when the depth information value is maximum. Note that the horizontal axis of the figure is the same as the intensity correction value calculated based on the characteristics shown in FIG. 2, and is indicated by the same symbol. In addition, the vertical axis in the figure is the image processing intensity that is newly set in the maximum value of the depth information shown in FIG. 5, and is determined according to the intensity correction value that is output information of the intensity correction
図6において、画像処理強度算出部104に入力された強度補正値が0のとき、奥行き情報の最大値における画像処理強度は、図5に示した強度ベース値β2のままであることが示されている。また、強度補正値がCfmaxのとき、奥行き情報の最大値における画像処理強度はβmaxとなり、さらに、強度補正値がCf1のとき、奥行き情報の最大値における画像処理強度はβf1となることが示されている。
In FIG. 6, when the intensity correction value input to the image processing
図6に示す例では、強度補正値が大きくなるにしたがって、奥行き情報の最大値における画像処理強度が線形に大きくなる特性が示されている。ただし、これに限られるものではなく、強度補正値が大きくなるにしたがって、奥行き情報の最大値における画像処理強度が急に大きくなるような、非線形の特性としてもよい。
また、強度補正値が小さくなる場合には、強度補正値が大きくなる場合と反対に、奥行き情報の最大値における画像処理強度が線形に小さくなる特性により決定する。さらに、強度補正値が小さくなるにしたがって、奥行き情報の最大値における画像処理強度が急に小さくなるような、非線形の特性としてもよい。
The example shown in FIG. 6 shows a characteristic in which the image processing intensity at the maximum value of depth information increases linearly as the intensity correction value increases. However, the present invention is not limited to this, and it may be a non-linear characteristic in which the image processing intensity at the maximum value of the depth information suddenly increases as the intensity correction value increases.
When the intensity correction value is small, the image processing intensity at the maximum value of the depth information is determined to be linearly smaller, contrary to the case where the intensity correction value is large. Further, it may be a non-linear characteristic such that the image processing intensity at the maximum value of the depth information suddenly decreases as the intensity correction value decreases.
画像処理強度算出部104に強度補正値Cf1が入力されたとき、図6の特性に基づいて奥行き情報の最大値における画像処理強度はβf1となる。このとき、図5に示した奥行き情報値と強度ベース値との対応関係は、図7に示す奥行き情報値と画像処理強度Sとの対応関係に更新される。図7において、横軸が奥行き情報値であり、縦軸が画像処理強度Sである。同図において、奥行き情報の最大値における画像処理強度はβf1であり、図5においてβ2であった強度ベース値が、図7においてβf1である画像処理強度Sに更新されたことを示している。このように、強度補正値に基づいて強度ベース値を補正し、奥行き情報値と画像処理強度Sの対応関係を設定する。画像処理強度算出部104は、設定した奥行き情報値と画像処理強度Sの対応関係に、入力された奥行き情報Dを適用することにより、各画素における画像処理強度Sを算出する。
When the intensity correction value Cf1 is input to the image processing
一態様としては、画像処理強度算出部104は、図5に示すような奥行き情報値と強度ベース値との対応関係が、図5の例のようになっているLUTを予め記憶しており、奥行き情報が示す各画素における奥行き情報値に対応する強度ベース値を、該LUTから読み出す。画像処理強度算出部104は、読み出した強度ベース値に、強度補正値決定部103から入力された強度補正値を加算して、各画素の画像処理強度Sを算出する。また、他の態様としては、画像処理強度算出部104は、強度補正値毎に、奥行き情報値と画像処理強度Sとの対応関係を表すLUTを予め記憶しており、入力された強度補正値に応じて、LUTを選択し、入力された奥行き情報値に対応付けられた画像処理強度Sを、該選択したLUTから読み出す。
As one aspect, the image processing
以上の方法により、画像処理強度算出部104は、奥行き情報の最大値において画像処理強度Sが最も大きくなり、奥行き情報の最小値において画像処理強度Sが最も小さくなるように画像処理強度Sを算出する。さらに、奥行き情報の最小値と最大値の間で奥行き情報値が大きくなるほど、強度ベース値が大きくなるように設定し、強度ベース値が大きいほどより大きい値となるように画像処理強度Sを算出する。さらに、強度補正値が大きいほどより大きい値となるように画像処理強度Sを算出する。
By the above method, the image processing
<画像処理部102の処理の詳細>
図8と図9を用いて、画像処理装置100に入力される画像データGiと奥行き情報Dを説明する。図8は、画像処理装置100に入力される画像データGiが表す入力画像の例を示す図である。同図において、近景に存在する人物被写体の画像領域8bと、遠景に存在する背景被写体の画像領域8aとが示されている。
<Details of Processing of
Image data Gi and depth information D input to the
図9は、図8の画像データGiに対応した奥行き情報Dの例を示す図である。同図の各画素において、奥行き情報が白から黒までのグレースケールで表されており、白色になるほど奥行き情報が小さい。同図において、遠景に存在する背景被写体の画像領域8aに相当する奥行き情報9aと、近景に存在する人物被写体の画像領域8bに相当する奥行き情報9bとが示されている。人物被写体の奥行き情報9bは背景被写体の奥行き情報9aよりも小さく、人物被写体が近景に存在することを示している。
FIG. 9 is a diagram illustrating an example of the depth information D corresponding to the image data Gi of FIG. In each pixel in the figure, the depth information is represented by a gray scale from white to black, and the depth information is smaller as the color becomes white. In the drawing,
図8のようなシーンが画像データGiとして入力され、対応する奥行き情報が図9として入力される場合、主要な被写体は近景に配置される人物被写体であり、それ以外の領域は背景被写体である。遠景に位置する背景被写体は光の散乱などにより輪郭が不鮮明になり、反対に、近景に位置する人物被写体は鮮明に撮像されている。近景の人物被写体の領域はユーザが最も注視する領域であり、ノイズ感がより一層目立つため画質劣化として認識され易い。 When a scene as shown in FIG. 8 is input as the image data Gi and the corresponding depth information is input as FIG. 9, the main subject is a human subject placed in the foreground, and the other areas are background subjects. . The outline of a background subject located in a distant view becomes unclear due to light scattering or the like. On the other hand, a human subject located in a near view is clearly imaged. The area of the foreground human subject is the area most watched by the user, and the noise is more conspicuous, so that it is easily recognized as image quality degradation.
そこで、画像処理部102における処理は、被写体までの距離(奥行き情報)が大きくなるほど輪郭強調処理の強度を大きくすることで、近景被写体のノイズ感が強調されることを防ぎながら、遠景被写体の不鮮明な輪郭を強調することができる。
例えば、画像処理部102は、画像処理強度算出部104が決定した画像処理強度Sの値が大きいほど、画像データGiが表す入力画像の輪郭を強調するように輪郭強調処理を行う。輪郭強調処理とは、例えば、隣接する画素との明るさ値の差が、より大きくなるように明るさ値を変換する処理である。このとき、明るさ値の差が大きいほど輪郭が強調される。これらは、4近傍や8近傍の周辺画素を考慮した空間フィルタにより実現することができる。例えば、対象画素の画素値がP0、周辺画素の画素値がP1、P2、P3、P4である4近傍を考慮する場合、画像処理後の画素値Pは、P=P0+(P0×4−P1−P2‐P3‐P4)×Sとして算出することができる。ここで、Sは画像処理強度算出部104により算出される対象画素の画像処理強度Sである。
Therefore, the processing in the
For example, the
これにより、画像処理部102は、画像処理強度Sが大きくなるほど、入力画像の輪郭をより強調し、鮮明な画像を生成することができる。その結果、画像処理装置100は、画像の遠景を鮮明にすることにより、その画像を見たユーザが近景と遠景との距離感を感じやすくすることで、画像の奥行き感を向上させることができる。その結果、画像処理装置100は、ユーザに奥行きを感じさせることができる。
このとき、例えば、焦点距離が大きくなった場合には、強度補正値が大きくなり画像処理強度Sも大きくなる。したがって、画像処理部102は、焦点距離が大きくなって被写界深度外のぼけ量が大きくなった場合により強い輪郭強調を行うため、被写体がぼけて輪郭が曖昧になることを抑えることができる。
Thus, the
At this time, for example, when the focal length increases, the intensity correction value increases and the image processing intensity S also increases. Therefore, since the
さらに、遠景では光の散乱などによりコントラストも低下してしまう。そこで、画像処理部102における処理は、トーンカーブなどによりコントラストを強調するコントラスト補正をしてもよい。ただし、近景である人物被写体は十分なコントラストで十分な階調により撮像されており、過度のコントラスト補正を行うと階調数の減少が発生して画質が劣化してしまう。
Further, in a distant view, the contrast decreases due to light scattering. Therefore, the processing in the
そこで、画像処理部102は、画像処理強度Sが大きいほど、画像データGiのコントラストが強くなるようにコントラスト補正処理を行ってもよい。ここで、コントラスト補正処理とは、例えば、明るさ値が大きければ、明るさ値がより大きくなるように補正し、明るさ値が小さければ、明るさ値がより小さくなるように補正する処理である。このとき、補正する量がより大きいほど、より強いコントラスト補正処理となる。これらは、入力される値に対する補正した値を定義したLUTにより実現することができる。
Therefore, the
これにより、画像処理部102は、コントラスト感が向上した画像を生成することができる。その結果、画像処理装置100は、画像の遠景を鮮明にすることにより、近景と遠景との距離感を感じやすくさせることができるので、画像の奥行き感を向上させることができる。その結果、画像処理装置100は、その画像を見たユーザに対し奥行きを感じさせることができる。このように、画像処理部102においてコントラスト強調を行う場合も、輪郭強調の場合と同様に、焦点距離に応じてぼけ量が大きくなり、コントラストが低下することを抑えることができる。
As a result, the
また、記憶色や鮮やかさにより画像の彩度は高い方が好まれ、実物のように感じる。しかしながら、人物の肌などは肌色である必要があり、過度の彩度強調を行うと違和感が発生して画質劣化となってしまう。そこで、画像処理部102は、画像処理強度算出部104が決定した画像処理強度Sに基づいて、画像データGiに対して彩度補正を行ってもよい。ここで、彩度補正処理は、色相、彩度、明度の三成分からなるHSV(Hue,Saturation,Value)空間において、彩度を乗算又は加算したり、入力される画素値を行列による線形変換したりすることにより実現することができる。これにより、画像処理部102は、奥行き情報Dに基づいて彩度を変化させることができる。その結果、画像処理部102は、画像の遠景の彩度を強調することで、違和感無く彩度が高められた画像を生成することができる。
Also, it is preferred that the image has higher saturation due to the memory color and vividness, and it feels like the real thing. However, a person's skin or the like needs to be a skin color. If excessive saturation enhancement is performed, a sense of incongruity occurs and image quality deteriorates. Therefore, the
これにより、画像処理装置100は、画像の遠景の彩度を高くして、遠景を鮮明にすることにより、近景と遠景との距離感を感じやすくさせることができるので、画像の奥行き感を向上させることができる。その結果、画像処理装置100は、その画像を見たユーザに対し奥行きを感じさせることができる。このように、画像処理部102において彩度補正処理を行う場合も、輪郭強調のときと同様に、焦点距離に応じてぼけ量が大きくなり、彩度が低下することを抑えることができる。
As a result, the
なお、上述の第1の変形例でも、画像処理部102において、輪郭強調処理、コントラスト強調や彩度補正処理を行う場合、絞り(F値)の変更によるぼけ量の変化の影響を抑えることができる。
また、上述の第2の変形例では、画像処理部102において、ぼかし処理やノイズ除去処理を行う場合、ISO感度の変更による画像劣化の影響を抑えることができる。また、上述の第3の変形例では、画像処理部102において、ぼかし処理やノイズ除去処理を行う場合、シャッタースピードの変更による画像劣化の影響を抑えることができる。
Even in the first modification described above, when the
In the second modification described above, when the
(第1の実施形態の処理手順)
以下に、本実施形態における処理手順を、図10のフローチャートを用いて説明する。図10は、本実施形態における画像処理装置100の処理の一例を示すフローチャートである。まず、強度補正値決定部103は、撮像装置設定情報Pから強度補正値を算出する(ステップS101)。次に、画像処理強度算出部104は、奥行き情報Dと強度補正値とに基づいて、画像処理強度Sを決定し、奥行き情報Dと画像処理強度Sとの対応関係を設定する(ステップS102)。次に、画像処理強度算出部104は、設定した対応関係に、各画素における奥行き情報Dを適用することにより、各画素における画像処理強度Sを算出する(ステップS103)。最後に、画像処理部102は、画像処理強度算出部104が決定した各画素における画像処理強度Sに基づいて、その画素の画像データGiに対して画像処理を行う(ステップS104)。以上で、本フローチャートの処理を終了する。
(Processing procedure of the first embodiment)
Hereinafter, the processing procedure in the present embodiment will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart illustrating an example of processing of the
なお、画像データGiが表す画像が動画像のときは、図10に示す処理を、該動画像の各フレームに対して行う。また、撮像装置設定情報Pは、フレーム毎に値があってもよいし、所定のフレーム数毎に値があってもよい。
以上に説明したように、本実施形態の画像処理装置100は、撮像装置設定情報Pに基づいて強度補正値を算出する。画像処理装置100は、奥行き情報Dと強度補正値とに応じて、画像処理強度Sを決定し、各画素における画像処理強度Sを決定する。そして、画像処理装置100は、画素毎に決定した画像処理強度Sで、当該画素に対して予め決められた画像処理を行う。
When the image represented by the image data Gi is a moving image, the process shown in FIG. 10 is performed on each frame of the moving image. Further, the imaging apparatus setting information P may have a value for each frame, or may have a value for each predetermined number of frames.
As described above, the
これにより、画像処理装置100は、奥行き情報Dの範囲で、撮像装置設定情報Pに応じて画像処理強度Sを変化させることで、撮像装置設定情報など撮像装置の設定が変化する場合においても、該設定の変化による影響を抑えて、遠景の画像領域を鮮明にすることができる。その結果、その画像を見たユーザが感じる近景と遠景との距離に対する、撮像装置の設定の変化による影響を抑えることができる。つまり、画像処理装置100は、ユーザが奥行きを感じることができる画像を生成することができる。
Thereby, the
<第2の実施形態>
以下、本発明の第2の実施形態について、図面を参照して詳細に説明する。第1の実施形態では、図1の画像処理装置100において、奥行き情報Dと撮像装置設定情報Pとに基づいて画像処理強度Sを決定し、画像処理を行う方法について説明した。本実施形態における画像処理装置100aは、図11に示すように奥行き情報解析部105を有し、画像処理強度算出部104aは、強度補正値と奥行き情報Dとに加えて、奥行き情報解析部105の解析結果を用いて画像処理強度Sを決定する。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, the method of determining the image processing intensity S based on the depth information D and the imaging device setting information P and performing image processing in the
図11は、本実施形態における画像処理装置100aの構成を示す概略ブロック図である。画像処理装置100aは、画像処理装置100における画像処理強度決定部101に奥行き情報解析部105が追加され、さらに、画像処理強度算出部104が画像処理強度算出部104aに変更された画像処理強度決定部101aを備える構成となっている。なお、図1と共通する要素には同一の符号(102、103)を付し、その具体的な説明を省略する。
FIG. 11 is a schematic block diagram showing the configuration of the
画像処理装置100aは、奥行き情報Dを奥行き情報解析部105に入力し、奥行き情報解析部105の解析結果を画像処理強度算出部104aに入力する。
奥行き情報解析部105は、画像データGiに対応する奥行き情報Dに基づいて、該奥行き情報Dの頻度分布に関する情報を抽出する。具体的には、例えば、奥行き情報解析部105は、入力される一つの画像データに対応する奥行き情報Dの頻度分布に基づいて、予め決められた規則によって複数の奥行き情報値を抽出する。ここで、複数の奥行き情報値は、それぞれ異なる奥行き情報Dである。そして、奥行き情報解析部105は、抽出した奥行き情報Dの頻度分布に関する情報、例えば、複数の奥行き情報値を画像処理強度算出部104aに出力する。奥行き情報解析部105の処理の詳細は後述する。
The
The depth
画像処理強度算出部104aは、奥行き情報解析部105の出力情報と、強度補正値決定部103の出力情報と、奥行き情報Dとに基づいて、画像データGiの各画素における画像処理強度Sを決定する。画像処理強度算出部104aは、決定した画像処理強度Sを画像処理部102に出力する。
The image processing
<奥行き情報解析部105の処理の詳細>
以下に、奥行き情報解析部105の処理の詳細について説明する。
図12は、本実施形態における奥行き情報解析部105の概略ブロック図である。奥行き情報解析部105は、頻度分布算出部111と奥行き情報抽出部112とを含んで構成される。頻度分布算出部111は、画像処理装置100aの外部から入力された奥行き情報Dの奥行き情報の頻度分布を算出し、算出した頻度分布を奥行き情報抽出部112に出力する。奥行き情報抽出部112は、頻度分布算出部111から入力された頻度分布において、頻度が閾値α以上の範囲で奥行き情報Dから複数の奥行き情報値を抽出する。そして、奥行き情報抽出部112は、抽出した複数の奥行き情報値を画像処理強度算出部104aに出力する。
<Details of Processing of Depth
Details of the processing of the depth
FIG. 12 is a schematic block diagram of the depth
以下の説明では、奥行き情報抽出部112が、複数の奥行き情報値として、第一の奥行き情報値及び第二の奥行き情報値の二つの奥行き情報値を抽出する場合を例にあげて説明する。ここで、第一の奥行き情報値と第二の奥行き情報値について、図13を用いて説明する。図13は、奥行き情報値の頻度分布の一例を示した図である。同図において、横軸が奥行き情報値、縦軸が頻度である。同図において、頻度が最大となる奥行き情報Dobjが示されている。また、同図において、閾値α以上の頻度を取る範囲における奥行き情報Dの最小値(以下、範囲最小値という)Dminと、閾値α以上の頻度を取る範囲における奥行き情報Dの最大値(以下、範囲最大値という)Dmaxとが示されている。このとき、奥行き情報抽出部112は、範囲最小値Dminを第一の奥行き情報値とし、また、範囲最大値Dmaxを第二の奥行き情報値とする。
In the following description, a case where the depth
続いて、図13を用いて奥行き情報解析部105の処理について説明する。例えば、奥行き情報解析部105は、図13に示した奥行き情報Dの頻度分布を利用して、第一の奥行き情報と第二の奥行き情報とを抽出する。ここで、通常の方式で最大値及び最小値を抽出すると、頻度が予め決められた閾値αより小さい場合であっても最大値及び最小値として抽出されてしまい、奥行き情報にノイズが存在する場合などは誤抽出が発生する可能性がある。
Next, processing of the depth
本実施形態において、奥行き情報解析部105は、一つの奥行き情報の頻度分布において、範囲最小値Dminを第一の奥行き情報として抽出する。また、奥行き情報解析部105は、一つの奥行き情報の分布において、範囲最大値Dmaxを第二の奥行き情報として抽出する。奥行き情報解析部105は、抽出した第一の奥行き情報と第二の奥行き情報とを画像処理強度算出部104aに出力する。
In the present embodiment, the depth
これにより、奥行き情報解析部105は、安定して第一の奥行き情報及び第二の奥行き情報を抽出することができる。
また、奥行き情報解析部105は、主要被写体の位置を推定し、主要被写体の奥行き情報を抽出するようにしてもよい。例えば、奥行き情報の極大値のうち、最も頻度の値が大きい奥行き情報(最頻値)Dobjには主要な被写体が存在すると推定し、奥行き情報を抽出することが可能である。
Thereby, the depth
Further, the depth
さらに、奥行き情報解析部105は、画像データGiを任意の領域(例えば、縦4分割、横4分割で合計16分割の領域)に分割して領域ごとに奥行き情報の頻度分布を算出して、被写体の位置を推定してもよい。その場合、例えば、特定領域に偏って存在する被写体の場合、その被写体は奥行き情報全体の頻度分布では極大値として表れないが、その被写体は分割された領域の頻度分布では極大値として表れる場合がある。これにより、奥行き情報解析部105は、画像データGi内の各被写体の奥行き情報を推定することができる。同時に、各被写体が画像データGiを分割した領域のうちどの領域に属すかによって、各被写体の大まかな画像座標上の位置を推定することができる。
Further, the depth
奥行き情報解析部105は、このようにして抽出された複数の奥行き情報を、画像処理強度算出部104aに出力する。また、奥行き情報解析部105は、各被写体の画像座標上の位置情報を、画像処理強度算出部104aに出力することができる。
The depth
<画像処理強度算出部104aの処理の詳細>
実際に奥行き情報Dとして入力される奥行き情報値は、図13に示したように奥行き情報の階調値の取り得る範囲のうち、一部の範囲に分布している。そのため、画像処理による効果が十分に得られない可能性がある。そこで、画像処理強度算出部104aは、奥行き情報解析部105が算出した複数の奥行き情報を利用して強度ベース値を決定する。
<Details of Processing of Image Processing
The depth information values that are actually input as the depth information D are distributed in a part of the range that the gradation value of the depth information can take as shown in FIG. Therefore, there is a possibility that the effect of image processing cannot be obtained sufficiently. Therefore, the image processing
以下では、複数の奥行き情報値として、第一の奥行き情報値及び第二の奥行き情報値の二つの奥行き情報値を利用する例について説明する。画像処理強度算出部104aは、第一の奥行き情報値と第二の奥行き情報値との間の所望の範囲で、強度ベース値を変化させる。ここで、本実施形態の例では、範囲最小値Dminを第一の奥行き情報値とし、範囲最大値Dmaxを第二の奥行き情報値とする。
Hereinafter, an example in which two depth information values of a first depth information value and a second depth information value are used as a plurality of depth information values will be described. The image processing
図14は、奥行き情報値と強度ベース値との対応関係の一例を示す図である。同図において、横軸が奥行き情報値で、縦軸が強度ベース値である。同図において、範囲最小値Dminで強度ベース値がβ1であり、範囲最大値Dmaxで強度ベース値がβ2であることが示されている。また、同図において、範囲最小値Dminから範囲最大値Dmaxまでの範囲で、奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。なお、奥行き情報値がDmin以下では、強度ベース値はβ1で一定とし、奥行き情報値がDmax以上では、強度ベース値はβ2で一定とする。 FIG. 14 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value. In the figure, the horizontal axis is the depth information value, and the vertical axis is the intensity base value. In the figure, the intensity base value is β1 at the range minimum value Dmin, and the intensity base value is β2 at the range maximum value Dmax. Further, in the figure, in the range from the range minimum value Dmin to the range maximum value Dmax, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases. When the depth information value is Dmin or less, the intensity base value is constant at β1, and when the depth information value is Dmax or more, the intensity base value is constant at β2.
画像処理強度算出部104aは、例えば、図14に示すような特性により強度ベース値を決定する。具体的には、画像処理強度算出部104aは、強度ベース値をβ1からβ2で変化させる場合、範囲最小値Dminでβ1となり範囲最大値Dmaxでβ2となるように設定し、その間の奥行き情報値における強度ベース値を連続的に設定する。これにより、画像処理強度算出部104aは、奥行き情報値と強度ベース値の対応関係を設定する。以上の方法により強度ベース値が決定した後、画像処理強度算出部104の処理の詳細で述べた方法と同様にして、強度補正値に基づいて強度ベース値を補正し、画像処理強度Sを決定する。
For example, the image processing
(動画の場合)
なお、上述の画像処理装置100aは、1枚の静止画に相当する画像データGiの画像処理について説明したが動画に適用することも可能であり、同様の効果を得ることができる。動画での処理においては、画像処理強度算出部104aは、奥行き情報解析部105の抽出結果を、解析対象フレームに対して時間的に前のフレームの結果も考慮する。
(For videos)
The above-described
例えば、奥行き情報解析部105が、ある対象フレームで奥行き情報Dを解析した結果、範囲最大値がDmax1で、範囲最小値がDmin1で、主要被写体の奥行き情報がDobj1であった場合で、更に次の場合について説明する。次の場合とは、奥行き情報解析部105がその対象フレームの直前のフレームで奥行き情報Dを解析した結果、範囲最大値がDmax0で、範囲最小値がDmin0で、主要被写体の奥行き情報がDobj0であった場合である。
For example, when the depth
その場合、奥行き情報解析部105は、最終的に出力する範囲最大値として(Dmax1+Dmax0)/2を、最終的に出力する範囲最小値として(Dmin1+Dmin0)/2を、最終的に出力する主要被写体の奥行き情報として(Dobj1+Dobj0)/2を算出する。そして、奥行き情報解析部105は、算出した上記各パラメータを画像処理強度算出部104aに出力する。
In this case, the depth
これにより、画像処理強度算出部104aは、奥行き情報Dに含まれるノイズによる各パラメータのフレーム間の変動を低減することができ、出力画像データGoが示す画像のちらつきを低減することができる。
なお、上記奥行き情報解析部105が算出する各パラメータは平均値に限られず、中央値でもよいし、各パラメータで別々の算出方式で算出してもよい。具体的には、例えば、奥行き情報解析部105は、最終的に出力する範囲最小値を直前フレームと対象フレームにおける範囲最小値の平均値で算出し、最終的に出力する主要被写体の奥行き情報は直前フレームと対象フレームにおける主要被写体の奥行き情報の中央値で算出してもよい。
Thereby, the image processing
Each parameter calculated by the depth
また、対象フレームの各パラメータと平均をとるフレームは直前フレームに限らず、複数フレームだけ前のフレームでもよいし、対象フレームより後のフレームでもよく、対象フレームとは異なるフレームであればよい。また、奥行き情報解析部105は、二つのフレームで平均をとったが、これに限らず、三つ以上のフレームで平均をとってもよい。さらに、フレーム間で画像のシーンが大きく変わらない場合は、直前までの数フレームを、対象フレームの解析結果とすることで、画像処理の遅延を低減することができる。
Also, the frame that takes the average of each parameter of the target frame is not limited to the immediately preceding frame, but may be a frame that is a plurality of frames before, a frame that is after the target frame, or a frame that is different from the target frame. Moreover, although the depth
すなわち、奥行き情報解析部105は、対象フレームにおける奥行き情報の頻度分布に関する情報と、該対象フレームより前のフレームにおける少なくとも一つ以上の奥行き情報の頻度分布に関する情報を算出する。ここで、頻度分布に関する情報とは、頻度分布から算出される情報であり、例えば、範囲最小値、範囲最大値、主要被写体の奥行き情報又は中間奥行き情報である。そして、奥行き情報解析部105が算出した複数の奥行き情報を画像処理強度算出部104aへ出力すればよい。
That is, the depth
なお、奥行き情報解析部105は、画像データの平均輝度、輪郭強度又は色彩分布などが大きく変化した場合には、シーンが変化したと判定してもよい。その場合、奥行き情報解析部105は、前のフレームの計算結果を用いずに、対象フレームの計算結果だけを利用して各パラメータを算出してもよい。これにより、画像処理装置100は、シーンが変化した際には、前のフレームのパラメータを参照しないので、前のシーンのパラメータによる影響を受けずに、現在のシーンの奥行き情報Dに応じた画像処理強度Sで画像処理を行うことができる。
It should be noted that the depth
(主要被写体の奥行値を利用する場合)
また、上記では、奥行き情報Dに基づいて抽出した複数の奥行き情報値(例えば、範囲最小値Dmin、範囲最大値Dmax)と、強度補正値とに基づいて画像処理強度Sを決定する方法を説明したが、奥行き情報解析部105で近景の主要被写体の奥行き情報値を抽出し、その値を利用して画像処理強度算出部104aで画像処理強度Sを決定してもよい。ここで、画像データGiは主要被写体を中心とした画像であり、主要被写体からの奥行き情報Dの違いに対して画像処理をすることにより、主要被写体が強調される画像処理を行うことができる。
(When using the depth value of the main subject)
In the above description, a method of determining the image processing intensity S based on a plurality of depth information values (for example, the range minimum value Dmin, the range maximum value Dmax) extracted based on the depth information D and the intensity correction value will be described. However, the depth
図15は、主要被写体よりも奥に位置する被写体に対して、より大きい強度の画像処理を行う場合における、奥行き情報値と強度ベース値との対応関係の一例を示す図である。同図において、横軸が奥行き情報値で、縦軸が強度ベース値である。また、同図において、主要被写体の奥行き情報Dobjで強度ベース値がβ1であり、範囲最大値Dmaxで強度ベース値がβ2であることが示されている。また、同図において、主要被写体の奥行き情報Dobjから範囲最大値Dmaxまでの範囲で、奥行き情報の値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。 FIG. 15 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value when image processing with higher intensity is performed on a subject located behind the main subject. In the figure, the horizontal axis is the depth information value, and the vertical axis is the intensity base value. Further, in the drawing, it is shown that the intensity base value is β1 in the depth information Dobj of the main subject, the intensity base value is β2 at the maximum range value Dmax. Further, in the figure, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases in the range from the depth information Doobj of the main subject to the maximum range value Dmax.
奥行き情報解析部105の処理の説明で上述したように、奥行き情報Dの頻度分布から主要被写体の奥行き情報Dobjと範囲最大値Dmaxを抽出し、抽出した主要被写体の奥行き情報Dobjと範囲最大値Dmaxを画像処理強度算出部104aに出力する。
画像処理強度算出部104aは、強度ベース値をβ1からβ2で変化させる場合、強度ベース値は、奥行き情報Dが主要被写体の奥行き情報Dobjでβ1となり範囲最大値Dmaxでβ2となるように設定し、その間の奥行き情報Dに対応する強度ベース値を連続的に設定する。
As described above in the description of the processing of the depth
When the intensity base value is changed from β1 to β2, the image processing
すなわち、この場合には、奥行き情報解析部105で抽出した主要被写体の奥行き情報Dobjが第一の奥行き情報値であり、範囲最大値Dmaxが第二の奥行き情報値である。そして、画像処理強度算出部104aは、第二の奥行き情報値において強度ベース値が最も大きくなり、第一の奥行き情報において強度ベース値が最も小さくなり、奥行き情報が大きくなるにしたがって、強度ベース値が大きくなるように決定される。
このように決定した強度ベース値を、上述した処理と同様の方法により、強度補正値に基づいて補正を行い、最終的な画像処理強度Sが決定される。
That is, in this case, the depth information Doobj of the main subject extracted by the depth
The intensity base value determined in this way is corrected based on the intensity correction value by the same method as that described above, and the final image processing intensity S is determined.
これにより、画像処理強度算出部104aは、画像データの主要被写体の奥行き情報Dobjに応じた画像処理強度を設定する。
ここで、奥行き情報解析部105は、主要被写体が人物である場合には、顔認識技術を組み合わせることにより、主要被写体の奥行き情報Dobjを取得するようにしてもよい。例えば、顔認識により顔を検出したときに、検出した顔の領域に対応した奥行き情報Dを主要被写体の奥行き情報Dobjとする。このとき、奥行き情報解析部105は、検出した顔の領域に対応した奥行き情報Dを所定の領域の平均値とする。これにより、奥行き情報解析部105は、平均値を取ることより、奥行き情報Dに含まれるノイズなどの影響を低減することができる。
Thereby, the image processing
Here, when the main subject is a person, the depth
さらに、画像処理強度算出部104aは、主要被写体の奥行き情報Dobjと範囲最大値Dmaxの間の奥行き情報値を起点として範囲最大値Dmaxに向かって画像処理強度Sを大きくしてもよい。ここで、人物や動物などの主要被写体は厚みを持っている。そのため、奥行き情報解析部105で算出された主要被写体の奥行き情報Dobjは、主要被写体の画像領域に含まれる各画素に対応する奥行き情報Dのうちのいずれかの奥行き情報である。
Furthermore, the image processing
したがって、主要被写体より奥に位置する被写体から画像処理を開始するためには、画像処理強度算出部104aは、算出された主要被写体の奥行き情報Dobjより予め決められた値だけ大きい奥行き情報値を起点として範囲最大値Dmaxに向かって強度ベース値を大きくしてもよい。その際、例えば、画像処理強度算出部104aは、図16のような奥行き情報値と強度ベース値の対応関係を使用して、強度ベース値を設定してもよい。この場合にも、設定した強度ベース値について、上述した処理と同様の方法により、強度補正値に基づいて補正を行い、最終的な画像処理強度Sが決定される。
Therefore, in order to start image processing from a subject located behind the main subject, the image processing
図16は、主要被写体より奥に位置する被写体に対して、より大きい強度の画像処理を行う場合における、奥行き情報値と強度ベース値との対応関係の一例を示す図である。同図において、横軸が奥行き情報値で、縦軸が強度ベース値である。また、同図において、D0は主要被写体の奥行き情報Dobjと範囲最大値Dmaxの間に位置する奥行き情報(以下、中間奥行き情報と称する)である。同図において、中間奥行き情報D0で強度ベース値がβ1であり、範囲最大値Dmaxで強度ベース値がβ2であることが示されている。また、同図において、中間奥行き情報D0から範囲最大値Dmaxまでの範囲で、奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなる特性が示されている。 FIG. 16 is a diagram illustrating an example of a correspondence relationship between the depth information value and the intensity base value when image processing with higher intensity is performed on a subject located behind the main subject. In the figure, the horizontal axis is the depth information value, and the vertical axis is the intensity base value. In the figure, D0 is depth information (hereinafter referred to as intermediate depth information) located between the depth information Doobj of the main subject and the range maximum value Dmax. In the drawing, it is shown that the intensity base value is β1 in the intermediate depth information D0, and the intensity base value is β2 in the range maximum value Dmax. Further, in the figure, in the range from the intermediate depth information D0 to the maximum range value Dmax, there is shown a characteristic that the intensity base value increases linearly as the depth information value increases.
奥行き情報解析部105は、範囲最大値Dmaxと中間奥行き情報D0とを算出する。例えば、奥行き情報解析部105は、主要被写体の奥行き情報Dobjに所定値だけ加算することにより中間奥行き情報D0を算出する。また、範囲最大値Dmaxは前記奥行き情報解析部105の処理の詳細で述べた方法により抽出される。そして、奥行き情報解析部105は、範囲最大値Dmaxと中間奥行き情報D0とを画像処理強度算出部104aに出力する。
The depth
なお、奥行き情報解析部105は、主要被写体の奥行き情報Dobjに所定値だけ乗算すること、主要被写体の奥行き情報Dobjと範囲最大値Dmaxの平均値とすること、又は主要被写体の奥行き情報Dobjと範囲最大値Dmaxと予め決められた割合で混合した値とすること等により、中間奥行き情報D0を算出してもよい。
The depth
画像処理強度算出部104aは、強度ベース値をβ1からβ2で変化させる場合、中間奥行き情報D0でβ1となり範囲最大値Dmaxでβ2となるように設定し、その間の奥行き情報値に対する強度ベース値を連続的に設定する。
すなわち、この場合には、奥行き情報解析部105で算出した中間奥行き情報D0が第一の奥行き情報であり、範囲最大値Dmaxが第二の奥行き情報である。そして、画像処理強度算出部104aは、第二の奥行き情報において強度ベース値が最も大きくなり、第一の奥行き情報において強度ベース値が最も小さくなり、第一の奥行き情報と第二の奥行き情報の範囲で奥行き情報値が大きくなるにしたがって、線形に強度ベース値が大きくなるように決定される。
このように決定した強度ベース値を、上述した処理と同様の方法により、強度補正値に基づいて補正を行うことで、最終的な画像処理強度Sが決定される。
When changing the intensity base value from β1 to β2, the image processing
That is, in this case, the intermediate depth information D0 calculated by the depth
The final image processing intensity S is determined by correcting the intensity base value determined in this way based on the intensity correction value by the same method as that described above.
なお、画像処理強度算出部104aは、上述した図5の特性、図14の特性、図15の特性及び図16の特性をシーンによって選択するようにしてもよい。例えば、画像処理強度算出部104aは、近景の被写体が存在しない場合又は被写体として人物が存在しない場合などは、図5の特性を利用して画像処理強度Sを決定する。また、画像処理強度算出部104aは、近景の被写体や人物が被写体として存在する場合には、図16の特性を利用する。さらに、画像処理強度算出部104aは、視差範囲が一部に偏っている場合、例えば、近景のみの画像や遠景のみの画像などの場合、画像処理強度Sを奥行き情報Dによらず一律に予め決められた値にしてもよい。これにより、画像処理装置100は、シーンに応じて画像処理強度Sの決定方式を切り替えるので、シーンに応じた適切な画像処理を行うことができる。
Note that the image processing
以上の方法により決定した画像処理強度Sに基づいて、画像処理部102は画像データGiに対して画像処理を行うことで、画像処理強度算出部104aは、主要被写体よりも奥に位置する被写体の画像領域に対して、又は、主要被写体より所定値だけ奥の位置からさらに奥に位置する被写体の画像領域に対して、奥行き情報Dと撮像装置設定情報Pに応じた画像処理強度Sを決定することができる。このとき、画像処理部102は、主要被写体からの奥行き情報Dの違いに応じた画像処理強度Sで画像処理を行うので、主要被写体が強調され、その画像を見たユーザに対し主要被写体と背景との距離感を感じやすくさせることができる。つまり、画像処理装置100aは、ユーザに奥行きを感じさせることができる画像を生成することができる。
Based on the image processing intensity S determined by the above method, the
なお、本実施形態では、説明のために例として奥行き情報解析部105と画像処理強度算出部104aを備える画像処理装置100aを用いる方法を示したが、これに限られるものではない。図1の画像処理装置100を用いても実現可能であり、その場合、画像処理強度算出部104において奥行き情報Dに基づいて、本実施形態の処理を行うようにすることができる。
In the present embodiment, a method using the
[第3の実施形態]
以下、本発明の第3の実施形態について、詳細に説明する。上述した各実施形態では、画像処理装置100又は画像処理装置100aは、奥行き情報値が大きくなるほど(遠景ほど)画像処理強度を大きくし、さらに、焦点距離などの撮像装置設定情報Pに応じて強度補正値を変更することで画像処理強度を補正した。さらに、補正した画像処理強度に応じて画像データGiの各画素に輪郭強調処理、コントラスト補正及び彩度補正等を行うことで、ユーザに奥行きを感じさせることができる画像生成が可能であることを示した。
[Third Embodiment]
Hereinafter, the third embodiment of the present invention will be described in detail. In each of the above-described embodiments, the
本実施形態では、画像処理装置100又は画像処理装置100aにおける、例えば、画像処理強度算出部104又は画像処理強度算出部104aの画像処理強度Sの決定方法を変更する、又は、画像処理部102の画像処理内容を変更する、又はその両方を変更する。これにより、画像データGiに対して、奥行き情報Dと撮像装置設定情報Pに応じた画像演出を行うことが可能となる。
In the present embodiment, for example, the determination method of the image processing intensity S of the image processing
以下では、例として、図11に示した画像処理装置100aを用いて、ぼかし処理により画像演出する方法を説明する。
ここで、ぼかし処理とは、入力画像上の注目画素とその周辺画素とに対し、平均値フィルタやガウシアンフィルタを用いたフィルタ処理を行い、画像をぼかす処理のことである。
まず、例えば、第2の実施形態で述べた方法と同様にして画像処理強度Sを決定する。
Hereinafter, as an example, a method of producing an image effect by blurring processing using the
Here, the blurring process is a process of blurring an image by performing a filter process using an average value filter or a Gaussian filter on the target pixel and its peripheral pixels on the input image.
First, for example, the image processing intensity S is determined in the same manner as the method described in the second embodiment.
つまり、奥行き情報解析部105において第一の奥行き情報値と第二の奥行き情報値とを抽出し、第二の奥行き情報値において画像処理強度が最も大きくなり、第一の奥行き情報値において画像処理強度が最も小さくなり、第一の奥行き情報値と第二の奥行き情報値の間で奥行き情報値が大きくなるほど強度ベース値が大きくなるように設定する。さらに、強度補正値決定部103において強度補正値を算出し、強度補正値が大きいほど、画像処理強度が大きくなるように強度ベース値を補正して、画像処理強度Sを決定する。
That is, the depth
そして、画像処理装置100aの外部から入力された奥行き情報Dに基づいて、画像データGiの各画素における画像処理強度Sを決定する。画像処理強度算出部104aは、決定した画像処理強度Sを画像処理部102に出力する。次に、画像処理部102は、入力された画像処理強度Sに応じた強度により、画像データGiに対してぼかし処理を行う。つまり、画像処理強度Sが大きいほど、ぼかし処理の強度が大きくなるようにぼかし処理を行う。したがって、第一の奥行き情報から第二の奥行き情報にかけて徐々にぼかし処理の強度が大きくなり、遠景ほどぼけた画像を生成することができる。そして、画像処理部102は、ぼかし処理を行った画像データを出力画像データGoとして、画像処理装置100aの外部へ出力する。
Then, based on the depth information D input from the outside of the
これにより、本実施形態における画像処理装置100aは、奥行き情報Dと撮像装置設定情報Pに基づいて画像処理強度Sを決定し、画像処理強度Sに応じて画像処理を行うことで、奥行き情報と撮像装置設定情報に応じてぼかし効果を演出した画像生成が可能となる。例えば、焦点距離が大きくなった場合に、ぼかし処理をすることによって被写界深度が浅くなった効果を与えることができ、より焦点距離が大きくなるような印象を与えることが可能となる。
Accordingly, the
以上の説明では、奥行き情報値が大きいほど、つまり、遠景ほど画像処理強度が大きくなるように強度ベース値を決定し、さらに、強度補正値が大きいほど、画像処理強度が大きくなるように画像処理強度Sを決定した。しかし、画像処理強度Sの決定方法はこれに限られるものではない。すなわち、第1の実施形態、第1の実施形態の第1の変形例、第4の変形例の場合における、撮像装置設定情報Pの大小と強度補正値の大小との関係と逆にしてもよい。 In the above description, the intensity base value is determined so that the image processing intensity increases as the depth information value increases, that is, the distant view increases. Further, the image processing intensity increases as the intensity correction value increases. Intensity S was determined. However, the method for determining the image processing intensity S is not limited to this. That is, the relationship between the magnitude of the imaging device setting information P and the magnitude of the intensity correction value in the case of the first embodiment, the first modification of the first embodiment, and the fourth modification is reversed. Good.
また、以上の説明では、画像処理の一例としてぼかし処理について述べたが、これに限られるものではない。例えば、上述した輪郭強調処理、コントラスト補正又は彩度補正を画像処理として行ってもよいし、明るさ(輝度)を変化させる処理や輪郭強調処理、画像をカラーからグレースケールに変換する処理などを用いてもよい。 In the above description, the blurring process is described as an example of the image process, but the present invention is not limited to this. For example, the above-described edge enhancement processing, contrast correction, or saturation correction may be performed as image processing, processing for changing brightness (luminance), contour enhancement processing, processing for converting an image from color to gray scale, or the like. It may be used.
具体的には、例えば、奥行き情報値が大きい、つまり遠景ほど彩度が低下するように設定することで、近景被写体はカラーで、遠景被写体ほど白黒となる画像が得られ、近景被写体の誘目性を高める画像演出が可能となる。また、合焦点位置の情報に基づいて、合焦点位置の奥行き情報値と、奥行き情報値の差が大きい被写体ほど彩度を低下させる設定とすることで、合焦点位置(ズームアップ位置)の被写体の誘目性を高める画像演出が可能となる。 Specifically, for example, by setting so that the depth information value is large, that is, the saturation decreases with increasing distance, the foreground subject is colored, and the distant subject is black and white. An image effect that enhances the image quality becomes possible. Also, based on the information on the in-focus position, the subject with the in-focus position (zoom-up position) is set to lower the saturation as the subject has a larger difference between the depth information value of the in-focus position and the depth information value. It is possible to produce an image that enhances the attractiveness of the image.
また、輪郭抽出処理とグレースケール変換処理などを組み合わせることで、被写体の輪郭部分のみを残した線画と呼ばれる画像を得ることができる。これを用い、例えば、被写界深度情報に基づいて画像処理強度を変更し、被写界深度外の被写体を線画とすることで、被写界深度内の被写体のみを強調する画像演出が可能となる。
以上のような画像処理の他にも、モノクロ化、セピア化など様々な画像処理を適用することが可能であり、上記のような処理によって、奥行き情報Dと撮像装置設定情報Pに応じた画像演出が可能となる。
Further, by combining the contour extraction process and the gray scale conversion process, an image called a line drawing in which only the contour portion of the subject is left can be obtained. Using this, for example, by changing the image processing intensity based on the depth of field information and making the subject outside the depth of field a line drawing, it is possible to produce an image effect that emphasizes only the subject within the depth of field It becomes.
In addition to the image processing as described above, various image processing such as monochrome and sepia can be applied, and the image corresponding to the depth information D and the imaging device setting information P can be obtained by the above processing. Production is possible.
これにより、本実施形態で述べた画像処理装置100aは、奥行き情報Dと撮像装置設定情報Pに基づいて画像処理強度Sを決定し、画像処理強度Sに応じて画像処理を行うことで、奥行き情報Dと撮像装置設定情報Pに応じて演出効果を付与した画像の生成が可能となる。
As a result, the
なお、本実施形態では、説明のために例として奥行き情報解析部105と画像処理強度算出部104aを備える画像処理装置100aを用いる方法を示したが、これに限られるものではない。図1の画像処理装置100を用いても実現可能であり、その場合には、画像処理強度算出部104において、奥行き情報Dに基づいて本実施形態の処理を行うようにしてもよい。
In the present embodiment, a method using the
なお、以上の本実施形態で述べた画像処理強度算出部104、画像処理強度算出部104a、画像処理部102、強度補正値決定部103及び奥行き情報解析部105の各ブロックは、FPGA(Field−Programmable Gate Array)などのハードウェア、又は画像処理装置100もしくは画像処理装置100aに内在するマイコン(図示せず)などにより処理されるソフトウェアにより構成してもよい。
Note that the blocks of the image processing
[第4の実施形態]
以下、本発明の第4の実施形態について、図面を参照して詳細に説明する。図17は、第4の実施形態における撮像装置200の概略ブロック図である。なお、図1と共通する要素には同一の符号(101〜104)を付し、その具体的な説明を省略する。撮像装置200は、撮像部制御部201と、撮像部202と、撮像部203と、画像処理装置100bと、画像表示部205と、画像記憶部206とを備える。また、図17の画像処理装置100bの構成は、図1の第1の実施形態の画像処理装置100の構成に対して、視差算出部204が追加されたものになっている。
[Fourth Embodiment]
Hereinafter, a fourth embodiment of the present invention will be described in detail with reference to the drawings. FIG. 17 is a schematic block diagram of an imaging apparatus 200 according to the fourth embodiment. Elements common to those in FIG. 1 are denoted by the same reference numerals (101 to 104), and a specific description thereof is omitted. The imaging device 200 includes an imaging
撮像部制御部201は、撮像部202及び203を制御するための制御信号を出力する。ここで、制御信号は、焦点距離、F値、ISO感度、シャッタースピードなどの撮像装置設定情報Pであり、撮像部202と撮像部203と強度補正値決定部103とに出力される。
撮像部202及び203の2つの撮像装置は、光軸が略平行となるように横並び又は縦並びに配置されている。撮像部202及び203はレンズモジュールなどの光学系と、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサなどで構成される。また、撮像部202及び203は、撮像部制御部201から出力される撮像装置設定情報Pに応じて、レンズの焦点距離、絞り、イメージセンサのISO感度、シャッタースピード、焦点を合わせる被写体などを変更する。
The imaging
The two
撮像部202は被写体を撮像し、撮像することにより得られた第1画像データG1を視差算出部204と画像処理部102とに出力する。同様に、撮像部203は被写体を撮像し、撮像することにより得られた第2画像データG2を視差算出部204に出力する。
視差算出部204は、入力基準画像と、入力基準画像と視点の異なる入力参照画像に基づき、入力基準画像の各画素に対応する視差を算出し、算出した視差に基づいて奥行き情報Dを決定する。ここで、視差は2つの画像間の被写体のずれ量である。具体的には、例えば、視差算出部204は、撮像部202から入力された第1画像データG1と撮像部203から入力された第2画像データG2とを用いて、ブロックマッチングにより、第1画像データG1の各画素に対応する視差値を算出する。
The
The
ここで、ブロックマッチングは、次のような処理を行う。一方の画像データのある画素について、他方の画像データ上を水平方向に走査することで画素マッチングを行う。画素マッチングは注目画素を中心としたブロック単位で行われ、ブロック内の画素の絶対値差分の総和をとるSAD(Sum of Absolute Difference)を計算し、SADの値が最小となるブロックを決定することで、一方の撮像画像の注目画素に対応する他方の撮像画像上の画素を求める。SADによる計算手法以外に、SSD(Sum of Squared Intensity Difference)によるブロックマッチング、グラフカット、DP(Dynamic Programming)マッチングといった計算手法もある。対応画素が求まることでその画素の視差値が算出可能となる。 Here, the block matching performs the following processing. Pixel matching is performed on a pixel in one image data by scanning the other image data in the horizontal direction. Pixel matching is performed in units of blocks centering on the target pixel, and SAD (Sum of Absolute Difference) that calculates the sum of absolute value differences of pixels in the block is calculated to determine a block that minimizes the SAD value. Thus, the pixel on the other captured image corresponding to the target pixel of the one captured image is obtained. In addition to the SAD calculation method, there are calculation methods such as block matching by SSD (Sum of Squared Intensity Difference), graph cut, and DP (Dynamic Programming) matching. When the corresponding pixel is obtained, the parallax value of the pixel can be calculated.
ここで、撮像された被写体までの距離Zと視差dとの関係はd=f×B/Zで表される。fは撮像部202及び203の焦点距離であり、Bは撮像部202と撮像部203との間の距離である基線長である。上述の距離Zと視差dの関係式から、距離Zと視差dとには相関がある。本実施形態において、画像処理装置100bの視差算出部204は、視差dに基づいて奥行き情報Dを算出する。
Here, the relationship between the distance Z to the captured subject and the parallax d is expressed by d = f × B / Z. f is a focal length of the
図18は、距離Zと視差dとの関係を示した図である。同図に示すように、距離Zと視差dとは反比例の関係にあり、線形的な関係ではない。そこで、視差算出部204は、距離との関係が線形となるように視差dを変換し、変換後の値を奥行き情報Dとして利用する。具体的には、例えば、視差算出部204は、算出した視差dの逆数(1/d)を算出し、算出した視差dの逆数を奥行き情報Dとする。そして、視差算出部204は、算出した奥行き情報Dを、画像処理強度算出部104に出力する。
なお、視差の変換は、距離と完全に線形の関係にする必要はなく、それに近い変換であればよい。
FIG. 18 is a diagram illustrating the relationship between the distance Z and the parallax d. As shown in the figure, the distance Z and the parallax d are in an inversely proportional relationship and not a linear relationship. Therefore, the
Note that the parallax conversion need not be in a completely linear relationship with the distance, but may be a conversion close to that.
また、視差算出部204は、算出した視差dをそのまま奥行き情報Dとしてもよい。その場合、奥行き情報Dは被写体までの距離が遠いほど小さく、距離が近いほど大きくなる。そのため、画像処理強度算出部104は、奥行き情報Dの値が小さくなるほど画像処理強度Sを大きくすればよい。これにより、画像処理強度算出部104は、奥行き情報Dが奥を示すほど画像処理強度Sを大きくすることができる。
Further, the
画像処理強度算出部104は、視差算出部204から入力された奥行き情報Dと、強度補正値決定部103から入力された強度補正値とに基づいて、画像処理強度Sを決定する。画像処理部102は、画像処理強度算出部104が決定した画像処理強度Sに応じて、撮像部202から入力された第1画像データG1に対して画像処理を行う。画像処理部102は画像処理により得られた出力画像データGoを、画像表示部205に表示させたり、画像記憶部206に記憶させたりする。
The image processing
以上に説明したように、本実施形態の撮像装置200は、2つの画像データから奥行き情報Dを算出する。また、撮像装置設定情報Pに基づいて強度補正値を算出する。撮像装置200は、奥行き情報Dと強度補正値とに基づいて画像処理強度Sを決定し、第1画像データG1の各画素における画像処理強度Sを決定する。そして、撮像装置200は、画素毎に決定した画像処理強度Sで、当該画素に対して予め決められた画像処理を行うことより、撮像装置設定情報が変化する場合においても、遠景の画像領域を鮮明にすることができる。その結果、その画像を見たユーザに対し近景と遠景との距離感を感じやすくさせることができ、撮像装置200は、ユーザが奥行きを感じることができる画像を生成することができる。 As described above, the imaging apparatus 200 according to the present embodiment calculates the depth information D from the two image data. Further, the intensity correction value is calculated based on the imaging device setting information P. The imaging apparatus 200 determines the image processing intensity S based on the depth information D and the intensity correction value, and determines the image processing intensity S for each pixel of the first image data G1. The image capturing apparatus 200 performs image processing determined in advance for each pixel with the image processing intensity S determined for each pixel, so that even when the image capturing apparatus setting information changes, the image area of the distant view is displayed. It can be clear. As a result, the user who viewed the image can easily feel the distance between the near view and the distant view, and the imaging apparatus 200 can generate an image that allows the user to feel the depth.
なお、本実施形態では、撮像部を2つ備えた撮像装置200について説明したが、複数の画像から視差情報を算出する方式でも同様の効果が得られ、例えば、1回目の撮像位置から左右方向へ移動して2回目の撮像を行うことで実現できる。また、視差算出部204に代えて後述する奥行き情報算出部を備えるようにしてもよい。
In the present embodiment, the imaging apparatus 200 including two imaging units has been described. However, a similar effect can be obtained by a method of calculating parallax information from a plurality of images. For example, the horizontal direction from the first imaging position is obtained. This can be realized by moving to and performing the second imaging. Further, a depth information calculation unit to be described later may be provided instead of the
なお、撮像装置200は、奥行き情報解析部105と画像処理強度算出部104aを備える構成としてもよく、上記第2の実施形態で述べた画像処理方法を適用することが可能である。これにより、撮像装置200により動画を撮像する場合に、奥行き情報Dに含まれるノイズによる各パラメータのフレーム間の変動を低減することができ、出力画像データGoが示す画像のちらつきを低減することができる。さらに、主要被写体からの奥行き情報Dの違いに応じた画像処理強度で画像処理を行うことで、主要被写体を強調し、ユーザに対し主要被写体と背景との距離感を感じやすくさせることが可能な画像の生成ができる。
また、撮像装置200は、上記第3の実施形態で述べた画像処理方法を適用することが可能である。これにより、奥行き情報と撮像装置設定情報に応じて演出効果を付与した画像の生成が可能となる。
Note that the imaging apparatus 200 may include a depth
The imaging apparatus 200 can apply the image processing method described in the third embodiment. As a result, it is possible to generate an image with a presentation effect according to the depth information and the imaging device setting information.
[第5の実施形態]
以下、本発明の第5の実施形態について、図面を参照して詳細に説明する。図19は、第5の実施形態における表示装置300の概略ブロック図である。なお、図1又は図17と共通する要素には同一の符号(101〜104、205)を付し、その具体的な説明を省略する。表示装置300は、画像処理装置100cと、画像表示部205とを備える。図19の画像処理装置100cの構成は、図1の第1の実施形態の画像処理装置100の構成に対して、奥行き情報算出部301が追加された構成となっている。
[Fifth Embodiment]
Hereinafter, a fifth embodiment of the present invention will be described in detail with reference to the drawings. FIG. 19 is a schematic block diagram of a display device 300 according to the fifth embodiment. In addition, the same code | symbol (101-104,205) is attached | subjected to the element which is common in FIG. 1 or FIG. 17, and the specific description is abbreviate | omitted. The display device 300 includes an
奥行き情報算出部301は、自装置の外部から入力される画像データGiから奥行き情報Dを算出する。ここで、奥行き情報Dの算出には、従来のいずれの推定方式を用いるようにしてもよい。例えば、奥行き情報算出部301は、色情報、消失点解析、領域分割、オブジェクト抽出などにより2次元画像から3次元画像を生成することにより、奥行き情報Dを生成する。奥行き情報算出部301は、算出した奥行き情報Dを画像処理強度算出部104に出力する。
The depth
なお、撮像装置設定情報Pは、画像データGiに含まれていてもよい。例えば、JPEGフォーマットの画像にはExif(Exchangeable image file format)データとして焦点距離、F値、ISO感度、シャッタ速度などが格納されている。このように画像データに付加された情報を撮像装置設定情報Pとして使用することができる。
画像処理部102は、第1の実施形態の画像処理部102と同様の機能を有するが、以下の点が異なる。画像処理部102は、画像処理により得られた出力画像を画像表示部205に表示させる。
Note that the imaging device setting information P may be included in the image data Gi. For example, a JPEG format image stores focal length, F value, ISO sensitivity, shutter speed, and the like as Exif (Exchangeable image file format) data. Information added to the image data in this way can be used as the imaging device setting information P.
The
これにより、表示装置300は、画像データGiに基づいて奥行き情報Dを算出する。また、撮像装置設定情報Pに基づいて強度補正値を算出する。表示装置300は、奥行き情報Dと強度補正値とに基づいて画像処理強度Sを決定し、画像データGiの各画素における画像処理強度Sを決定する。そして、表示装置300は、画素毎に決定した画像処理強度Sで、当該画素に対して予め決められた画像処理を行うことより、撮像装置設定情報が変化する場合においても、遠景の画像領域を鮮明にすることができる。その結果、その画像を見たユーザに対し近景と遠景との距離感を感じやすくさせることができ、表示装置300は、ユーザが奥行きを感じることができる画像を表示することができる。 Thereby, the display apparatus 300 calculates the depth information D based on the image data Gi. Further, the intensity correction value is calculated based on the imaging device setting information P. The display device 300 determines the image processing intensity S based on the depth information D and the intensity correction value, and determines the image processing intensity S for each pixel of the image data Gi. The display device 300 performs image processing predetermined for each pixel with the image processing intensity S determined for each pixel, so that the image area of the distant view can be displayed even when the imaging device setting information changes. It can be clear. As a result, the user who viewed the image can easily feel the distance between the near view and the distant view, and the display device 300 can display an image that allows the user to feel the depth.
なお、本実施形態では、奥行き情報算出部301を備えた表示装置300について説明したが、立体映像などの情報をもった画像データが入力された場合には、立体映像から視差を算出し、視差に基づいて奥行き情報Dを算出し、算出した奥行き情報Dに基づいて画像処理強度Sを決定してもよい。その場合にも表示装置300は、上記と同様の効果が得られる。また、表示装置300に画像データとともに奥行き情報Dが入力される場合には、表示装置300は、奥行き情報Dを直接、画像処理強度算出部104へ入力するようにしてもよい。
In the present embodiment, the display device 300 including the depth
なお、表示装置300は、奥行き情報解析部105と画像処理強度算出部104aを備える構成としてもよく、上記第2の実施形態で述べた画像処理方法を適用することが可能である。これにより、動画を画像データとして入力した場合に、奥行き情報Dに含まれるノイズによる各パラメータのフレーム間の変動を低減することができ、出力画像データGoが示す画像のちらつきを低減することができる。さらに、主要被写体からの奥行き情報Dの違いに応じた画像処理強度で画像処理を行うことで、主要被写体を強調し、ユーザに対し主要被写体と背景との距離感を感じやすくさせることが可能な画像を表示することができる。
また、表示装置300は、上記第3の実施形態で述べた画像処理方法を適用することが可能である。これにより、奥行き情報と撮像装置設定情報に応じて演出効果を付与した画像の表示が可能となる。
Note that the display device 300 may include a depth
In addition, the display device 300 can apply the image processing method described in the third embodiment. As a result, it is possible to display an image with a presentation effect according to the depth information and the imaging device setting information.
また、上述の各実施形態では、画像処理強度決定部101、101aは、画像処理強度Sを決定する際に、撮像装置設定情報Pから強度補正値を算出し、該強度補正値と奥行き情報Dとを参照して画像処理強度Sを決定しているが、撮像装置設定情報Pと奥行き情報Dとから直接画像処理強度Sを決定するようにしてもよい。例えば、撮像装置設定情報Pと奥行き情報値との組み合わせに画像処理強度Sを対応付けているLUTを用いて、撮像装置設定情報Pと奥行き情報Dとから直接画像処理強度Sを決定するようにしてもよい。
また、上述の各実施形態では、画像処理強度決定部101、101aは、画素毎に画像処理強度Sを決定しているが、所定の大きさのブロック毎や、輪郭線で囲まれた被写体毎などに画像処理強度Sを決定するようにしてもよい。
In each of the embodiments described above, the image processing
Further, in each of the above-described embodiments, the image processing
また、複数の装置を備えるシステムが、各実施形態の画像処理装置(100、100a、100b又は100c)、撮像装置200あるいは表示装置300の各処理を、それらの複数の装置で分散して処理してもよい。
また、各実施形態の画像処理装置(100、100a、100b又は100c)、撮像装置200あるいは表示装置300の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、画像処理装置(100、100a、100b又は100c)、撮像装置200あるいは表示装置300に係る上述した種々の処理を行ってもよい。
In addition, a system including a plurality of devices processes each processing of the image processing device (100, 100a, 100b, or 100c), the imaging device 200, or the display device 300 according to each embodiment in a distributed manner. May be.
Further, a program for executing each process of the image processing apparatus (100, 100a, 100b, or 100c), the imaging apparatus 200, or the display apparatus 300 of each embodiment is recorded on a computer-readable recording medium, and the recording medium The above-described various processes relating to the image processing apparatus (100, 100a, 100b, or 100c), the imaging apparatus 200, or the display apparatus 300 may be performed by causing the computer system to read and execute the program recorded on the computer.
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW (World Wide Web) system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.
(1)この発明は上述した課題を解決するためになされたもので、本発明の一態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部(101、101a)と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部(102)とを備えることを特徴とする画像処理装置(100、100a、100b、100c)である。 (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention refers to setting information of an imaging apparatus when an image is captured and depth information corresponding to the image. An image processing intensity determining unit (101, 101a) that determines an image processing intensity for each region into which the image is divided, and an image processing unit (102 that performs image processing on the image data of the image according to the image processing intensity) An image processing apparatus (100, 100a, 100b, 100c).
これにより、入力画像を撮像した撮像装置の設定が変更された場合にも、ユーザが奥行きを感じられる画像を生成することができる。 Thereby, even when the setting of the imaging device that captured the input image is changed, an image that allows the user to feel the depth can be generated.
(2)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、焦点距離を示す情報であり、前記画像処理強度決定部は、前記焦点距離を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が大きくなるように決定することを特徴とする。 (2) According to another aspect of the present invention, there is provided the image processing apparatus according to (1), wherein the setting information is information indicating a focal length, and the image processing intensity determination unit includes the focal length. The value of the image processing intensity is determined so as to increase as the value of the information indicating the value increases.
これにより、入力される画像を撮像した撮像装置の焦点距離が変化しても、ユーザが奥行きを感じられる画像を生成することができる。 Thereby, even if the focal length of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.
(3)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、F値を示す情報であり、前記画像処理強度決定部は、前記F値を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が小さくなるように決定することを特徴とする。 (3) According to another aspect of the present invention, in the image processing apparatus according to (1), the setting information is information indicating an F value, and the image processing intensity determination unit The value of the image processing intensity is determined so as to decrease as the value of the information indicating the value increases.
これにより、入力される画像を撮像した撮像装置のF値が変化しても、ユーザが奥行きを感じられる画像を生成することができる。 Thereby, even if the F value of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.
(4)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、感度を示す情報であり、前記画像処理強度決定部は、前記感度を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が大きくなるように決定することを特徴とする。 (4) According to another aspect of the present invention, in the image processing apparatus according to (1), the setting information is information indicating sensitivity, and the image processing intensity determination unit indicates the sensitivity. The value of the image processing intensity is determined to increase as the value of information increases.
これにより、入力画像を撮像した撮像装置の感度が変化しても、ユーザが奥行きを感じられる画像を生成することができる。 Thereby, even if the sensitivity of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.
(5)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、露光時間を示す情報であり、前記画像処理強度決定部は、前記露光時間を示す情報の値が大きくなるにしたがって、前記画像処理強度の値が小さくなるように決定することを特徴とする。 (5) According to another aspect of the present invention, there is provided the image processing apparatus according to (1), wherein the setting information is information indicating an exposure time, and the image processing intensity determination unit includes the exposure time. The value of the image processing intensity is determined so as to decrease as the value of the information indicating the value increases.
これにより、入力画像を撮像した撮像装置の露光時間が変化しても、ユーザが奥行きを感じられる画像を生成することができる。 Thereby, even if the exposure time of the imaging device that captured the input image changes, an image that allows the user to feel the depth can be generated.
(6)また、本発明の他の態様は、(1)に記載の画像処理装置であって、前記設定情報は、前記画像における合焦点位置を示す情報であり、前記画像処理強度決定部は、前記合焦点位置について前記奥行き情報が表す奥行きと、前記画像内を分割した領域について前記奥行き情報が表す奥行きとの差異に応じた補正値を決定し、該補正値と前記奥行き情報とを参照して、前記画像処理強度を決定することを特徴とする。 (6) According to another aspect of the present invention, there is provided the image processing apparatus according to (1), wherein the setting information is information indicating a focal position in the image, and the image processing intensity determination unit includes: , Determining a correction value according to the difference between the depth represented by the depth information for the in-focus position and the depth represented by the depth information for a region divided in the image, and refer to the correction value and the depth information Then, the image processing intensity is determined.
これにより、入力画像を撮像した撮像装置の合焦点の位置が変化しても、ユーザが奥行きを感じられる画像を生成することができる。 Thereby, even if the position of the focal point of the imaging device that captured the input image changes, it is possible to generate an image that allows the user to feel the depth.
(7)また、本発明の他の態様は、被写体を撮像する撮像部と、(1)から(6)のいずれかの項に記載の画像処理装置とを具備し、前記画像は、前記撮像部が撮像した画像であり、前記設定情報は、前記画像を前記撮像部が撮像した際の設定情報であることを特徴とする撮像装置である。 (7) According to another aspect of the present invention, an imaging unit that images a subject and the image processing apparatus according to any one of (1) to (6) are provided, and the image includes the imaging The image pickup apparatus is an image picked up by the image pickup unit, and the setting information is setting information when the image pickup unit picks up the image.
(8)また、本発明の他の態様は、(1)から(6)のいずれかの項に記載の画像処理装置と、前記画像処理装置により画像処理された画像を表示する画像表示部とを備えることを特徴とする表示装置である。 (8) According to another aspect of the present invention, there is provided an image processing device according to any one of (1) to (6), and an image display unit that displays an image processed by the image processing device. It is provided with the following.
(9)また、本発明の他の態様は、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する第1の過程と、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う第2の過程とを有することを特徴とする画像処理方法である。 (9) According to another aspect of the present invention, image processing is performed for each region obtained by dividing the image with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image. An image processing method comprising: a first step of determining an intensity; and a second step of performing image processing on image data of the image according to the image processing intensity.
(10)また、本発明の他の態様は、コンピュータを、画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部、前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部として機能させるための画像処理プログラムである。 (10) According to another aspect of the present invention, the computer refers to the setting information of the imaging device when the image is captured and the depth information corresponding to the image for each area into which the image is divided. An image processing program for functioning as an image processing intensity determining unit that determines image processing intensity and an image processing unit that performs image processing on image data of the image according to the image processing intensity.
100、100a、100b、100c…画像処理装置 101、101a…画像処理強度決定部 102…画像処理部 103…強度補正値決定部 104、104a…画像処理強度算出部 105…奥行き情報解析部 111…頻度分布算出部 112…奥行き情報抽出部 200…撮像装置 201…撮像部制御部 202、203…撮像部 204…視差算出部 205…画像表示部 206…画像記憶部 300…表示装置 301…奥行き情報算出部
DESCRIPTION OF
Claims (5)
前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部と
を備えることを特徴とする画像処理装置。 An image processing intensity determination unit that determines image processing intensity for each area obtained by dividing the image with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image;
An image processing apparatus comprising: an image processing unit that performs image processing on image data of the image according to the image processing intensity.
請求項1に記載の画像処理装置と
を具備し、
前記画像は、前記撮像部が撮像した画像であり、
前記設定情報は、前記画像を前記撮像部が撮像した際の設定情報であること
を特徴とする撮像装置。 An imaging unit for imaging a subject;
And an image processing apparatus according to claim 1,
The image is an image captured by the imaging unit,
The imaging apparatus, wherein the setting information is setting information when the imaging unit captures the image.
前記画像処理装置により画像処理された画像を表示する画像表示部と
を備えることを特徴とする表示装置。 An image processing apparatus according to claim 1;
An image display unit that displays an image processed by the image processing device.
前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う第2の過程と
を有することを特徴とする画像処理方法。 A first process of determining image processing intensity for each region into which the image is divided with reference to setting information of the imaging device when the image is captured and depth information corresponding to the image;
And a second step of performing image processing on the image data of the image according to the image processing intensity.
画像を撮像した際の撮像装置の設定情報と、前記画像に対応した奥行き情報とを参照して、前記画像を分割した領域毎に、画像処理強度を決定する画像処理強度決定部、
前記画像処理強度に従い、前記画像の画像データに対する画像処理を行う画像処理部
として機能させるための画像処理プログラム。 Computer
An image processing intensity determination unit that determines image processing intensity for each area obtained by dividing the image with reference to setting information of the imaging apparatus when the image is captured and depth information corresponding to the image,
An image processing program for causing an image processing unit to perform image processing on image data of the image according to the image processing intensity.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012253181A JP6441552B2 (en) | 2012-11-19 | 2012-11-19 | Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012253181A JP6441552B2 (en) | 2012-11-19 | 2012-11-19 | Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014102614A true JP2014102614A (en) | 2014-06-05 |
JP6441552B2 JP6441552B2 (en) | 2018-12-19 |
Family
ID=51025084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012253181A Expired - Fee Related JP6441552B2 (en) | 2012-11-19 | 2012-11-19 | Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6441552B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016059887A1 (en) * | 2014-10-14 | 2016-04-21 | シャープ株式会社 | Image processing device, image capturing device, image processing method, and program |
JP2017050830A (en) * | 2015-09-04 | 2017-03-09 | パナソニックIpマネジメント株式会社 | Luminaire, illumination system and program |
JP2020515982A (en) * | 2017-12-20 | 2020-05-28 | シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd | Image processing method, apparatus, computer-readable storage medium, and electronic device |
JP2020153615A (en) * | 2019-03-22 | 2020-09-24 | パナソニックIpマネジメント株式会社 | Heating cooker |
JP2021082937A (en) * | 2019-11-19 | 2021-05-27 | キヤノン株式会社 | Image processing device, image processing method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004207985A (en) * | 2002-12-25 | 2004-07-22 | Fuji Photo Film Co Ltd | Digital camera |
JP2007124282A (en) * | 2005-10-28 | 2007-05-17 | Nikon Corp | Imaging apparatus |
-
2012
- 2012-11-19 JP JP2012253181A patent/JP6441552B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004207985A (en) * | 2002-12-25 | 2004-07-22 | Fuji Photo Film Co Ltd | Digital camera |
JP2007124282A (en) * | 2005-10-28 | 2007-05-17 | Nikon Corp | Imaging apparatus |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016059887A1 (en) * | 2014-10-14 | 2016-04-21 | シャープ株式会社 | Image processing device, image capturing device, image processing method, and program |
JP2016081149A (en) * | 2014-10-14 | 2016-05-16 | シャープ株式会社 | Image processing device, imaging device, image processing method, and program |
JP2017050830A (en) * | 2015-09-04 | 2017-03-09 | パナソニックIpマネジメント株式会社 | Luminaire, illumination system and program |
JP2020515982A (en) * | 2017-12-20 | 2020-05-28 | シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co.,Ltd | Image processing method, apparatus, computer-readable storage medium, and electronic device |
US11132770B2 (en) | 2017-12-20 | 2021-09-28 | Shenzhen Sensetime Technology Co., Ltd | Image processing methods and apparatuses, computer readable storage media and electronic devices |
JP2020153615A (en) * | 2019-03-22 | 2020-09-24 | パナソニックIpマネジメント株式会社 | Heating cooker |
JP7213419B2 (en) | 2019-03-22 | 2023-01-27 | パナソニックIpマネジメント株式会社 | heating cooker |
JP2021082937A (en) * | 2019-11-19 | 2021-05-27 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7458752B2 (en) | 2019-11-19 | 2024-04-01 | キヤノン株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6441552B2 (en) | 2018-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013094635A1 (en) | Image processing device, imaging device, and display device | |
KR101699919B1 (en) | High dynamic range image creation apparatus of removaling ghost blur by using multi exposure fusion and method of the same | |
TWI602152B (en) | Image capturing device nd image processing method thereof | |
TWI476731B (en) | Image processing apparatus, image processing method and program | |
JP5395273B2 (en) | Stereoscopic image processing apparatus, stereoscopic imaging apparatus, stereoscopic imaging method, and program | |
JP2008294785A (en) | Image processor, imaging apparatus, image file, and image processing method | |
WO2013047405A1 (en) | Image processing apparatus and method, and program | |
JP2011239195A (en) | Electronic apparatus | |
JP6441552B2 (en) | Image processing apparatus, imaging apparatus, display apparatus, image processing method, and image processing program | |
JP2012205244A (en) | Image processing device and method of controlling the same | |
WO2012098768A1 (en) | Image processing device, image processing method, image processing program, and photography device | |
CN106575434B (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5781372B2 (en) | Image processing apparatus and imaging apparatus | |
JP4916378B2 (en) | Imaging apparatus, image processing apparatus, image file, and gradation correction method | |
KR20110109574A (en) | Image processing method and photographing apparatus using the same | |
WO2018166170A1 (en) | Image processing method and device, and intelligent conferencing terminal | |
JP2009284056A (en) | Image processing apparatus, method, and program | |
JP5843599B2 (en) | Image processing apparatus, imaging apparatus, and method thereof | |
JP5410378B2 (en) | Video signal correction apparatus and video signal correction program | |
JP2020004007A (en) | Image processing device, image processing method, and program | |
JP2020005084A (en) | Image processing apparatus, image processing method, and program | |
JP2009200743A (en) | Image processor, image processing method, image processing program and imaging apparatus | |
JP5881005B2 (en) | Image processing apparatus, image capturing apparatus, image display apparatus, image processing method, and program | |
JP6786273B2 (en) | Image processing equipment, image processing methods, and programs | |
JP5365881B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150515 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160913 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20161114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170622 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170630 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20170728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6441552 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |