JP6576028B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6576028B2
JP6576028B2 JP2014214673A JP2014214673A JP6576028B2 JP 6576028 B2 JP6576028 B2 JP 6576028B2 JP 2014214673 A JP2014214673 A JP 2014214673A JP 2014214673 A JP2014214673 A JP 2014214673A JP 6576028 B2 JP6576028 B2 JP 6576028B2
Authority
JP
Japan
Prior art keywords
component
correction
flicker
image
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014214673A
Other languages
Japanese (ja)
Other versions
JP2016082510A (en
Inventor
尊志 小林
尊志 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014214673A priority Critical patent/JP6576028B2/en
Publication of JP2016082510A publication Critical patent/JP2016082510A/en
Application granted granted Critical
Publication of JP6576028B2 publication Critical patent/JP6576028B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、蛍光灯下など周期的な光量変化が生じる光源下で撮影した画像に対する画像処理技術に関するものである。   The present invention relates to an image processing technique for an image photographed under a light source in which a periodic light amount change occurs such as under a fluorescent lamp.

CMOSイメージセンサなどのXYアドレス方式の固体撮像素子を用いた撮像装置により蛍光灯下などフリッカが生じる光源下で被写体を動画記録する場合、画像内に明暗の縞模様が記録されることがある。このような画質の劣化を抑制するために、特許文献1では、画像上の周期的な輝度変化から光源の明滅成分を検出し、この明滅成分をキャンセルする技術が提案されている。   When a subject is recorded as a moving image under a light source that generates flicker, such as under a fluorescent lamp, by an imaging device using an XY address type solid-state imaging device such as a CMOS image sensor, a light and dark stripe pattern may be recorded in the image. In order to suppress such deterioration in image quality, Patent Document 1 proposes a technique for detecting a blinking component of a light source from a periodic luminance change on an image and canceling the blinking component.

特開2004−222228号公報JP 2004-222228 A

特許文献1に記載された技術では、画像中の縞模様をラインごとの画素値の利得として正弦波で近似して検出・補正を行う。   In the technique described in Patent Document 1, a stripe pattern in an image is approximated by a sine wave as a gain of a pixel value for each line and detected and corrected.

しかしながら、ところが実際の明滅特性と理想特性である正弦波からの乖離は照明の種類によって異なり、特に白色蛍光灯などでは光源内の特定色の感光体の応答性が高く、色成分間でも理想特性からの乖離度合いが異なる。そのため、特許文献1に記載された技術で実際の明滅特性に適した補正を行うのは困難である。さらに、実際の明滅特性に適していない補正値による補正を行った場合、特定色成分だけ部分的に補正残りや過補正が発生して画像に色付きが観測されるという課題があった。   However, the deviation from the actual flickering characteristic and the ideal characteristic of the sine wave differs depending on the type of illumination, especially in white fluorescent lamps, etc. The degree of deviation from is different. For this reason, it is difficult to perform correction suitable for the actual blinking characteristic by the technique described in Patent Document 1. Furthermore, when correction is performed using a correction value that is not suitable for the actual flickering characteristics, there is a problem in that a specific color component is partially corrected and overcorrected, and coloring is observed in the image.

そこで、本発明は、周期的な光量変化が生じる光源下で撮影した画像に生じる縞模様を色付きを抑えながら補正できるようにすることを目的とする。   Therefore, an object of the present invention is to make it possible to correct a striped pattern generated in an image taken under a light source in which a periodic light quantity change occurs while suppressing coloring.

上記目的を達成するために、本発明に係る画像処理装置は、入力された画像の色成分ごとにフリッカ成分を抽出する抽出手段と、前記抽出手段により抽出された色成分ごとのフリッカ成分に基づいて、前記入力された画像の色成分ごとにフリッカ補正のための補正値を算出する補正値算出手段と、前記入力された画像の色成分ごとにフリッカ補正を行う補正手段と、前記抽出された色成分ごとのフリッカ成分と前記入力された画像を取得する際のシャッター速度とに基づいて、前記補正値算出手段により算出された色成分ごとの前記補正値の信頼度を算出する信頼度算出手段と、を有し、前記補正手段は、前記信頼度算出手段により算出された前記補正値の信頼度が所定の閾値を下回る色成分に対して、前記補正値の信頼度が前記所定の閾値を下回らない色成分よりもフリッカ補正の補正度合いを弱めることを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention is based on an extraction unit that extracts a flicker component for each color component of an input image, and a flicker component for each color component extracted by the extraction unit. Correction value calculation means for calculating a correction value for flicker correction for each color component of the input image, correction means for performing flicker correction for each color component of the input image, and the extracted Reliability calculation means for calculating the reliability of the correction value for each color component calculated by the correction value calculation means based on the flicker component for each color component and the shutter speed at the time of acquiring the input image When have said correction means, said correction value of the reliability calculated by the reliability calculation unit for the color component below a predetermined threshold value, the reliability of the correction value of the predetermined threshold value Than the color component not less than characterized by weakening the correction degree of the flicker correction.

本発明によれば、周期的な光量変化が生じる光源下で撮影した画像に生じる縞模様を色付きを抑えながら補正できる。   ADVANTAGE OF THE INVENTION According to this invention, the striped pattern which arises in the image image | photographed under the light source which a periodic light quantity change produces can be corrected, suppressing coloring.

本実施形態にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning this embodiment. 本実施形態にかかる画像処理装置のデジタル信号処理回路の詳細を説明するブロック図である。It is a block diagram explaining the detail of the digital signal processing circuit of the image processing apparatus concerning this embodiment. 周期的な光量変化が生じる光源下で撮影して縞模様が生じている画像を示す図である。It is a figure which shows the image which image | photographed under the light source which a periodic light quantity change produces, and the stripe pattern has produced. 補正値修正部102における補正値修正処理のフローチャートを示す図である。It is a figure which shows the flowchart of the correction value correction process in the correction value correction part. 白色蛍光灯下で撮影された画像のG成分、B成分のフリッカ成分を示す図である。It is a figure which shows the flicker component of G component of the image image | photographed under the white fluorescent lamp, and B component. 白色蛍光灯下で所定の色の被写体を連続して撮影して得られた複数の画像の所定の行の色空間上の分布を示す図である。It is a figure which shows distribution on the color space of the predetermined | prescribed row | line | column of the some image obtained by image | photographing the object of a predetermined | prescribed color continuously under a white fluorescent lamp.

以下、図面を参照しながら、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る画像処理装置であるカメラ100の概略構成の一例を示すブロック図である。カメラ100は、例えば、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン、タブレット端末などを含む。   FIG. 1 is a block diagram illustrating an example of a schematic configuration of a camera 100 that is an image processing apparatus according to an embodiment of the present invention. The camera 100 includes, for example, a digital still camera, a digital video camera, a smartphone, a tablet terminal, and the like.

図1において、1は絞り4に対して被写体側に位置する第1レンズ群、10は絞り4に対して撮像素子16側(撮像装置の本体側)に配置された第2レンズ群を示している。すなわち、第1レンズ群1には、絞り4の開口を通過する前の光が入射し、第2のレンズ群には、絞り4の開口を通過した後の光が入射する。第1レンズ群1及び第2レンズ群10は、ズーム制御のためレンズ光軸上を前後に制御される。なお、図1では簡略化して1枚のレンズを図示しているが、通常、第1レンズ群1、第2レンズ群10は、それぞれ複数枚のレンズから構成される。また、第1レンズ群1、第2レンズ群10はズーム制御の他に、フォーカス制御、防振制御の機能を有する場合もある。なお、第1レンズ群1や第2レンズ群10は1枚のレンズから構成されていてもよく、本実施形態では、1枚のレンズから構成されている場合も含めてレンズ群と称する。   In FIG. 1, reference numeral 1 denotes a first lens group located on the subject side with respect to the diaphragm 4, and 10 denotes a second lens group disposed on the imaging element 16 side (the main body side of the imaging apparatus) with respect to the diaphragm 4. Yes. That is, light before passing through the aperture of the diaphragm 4 is incident on the first lens group 1, and light after passing through the aperture of the diaphragm 4 is incident on the second lens group. The first lens group 1 and the second lens group 10 are controlled back and forth on the lens optical axis for zoom control. Although FIG. 1 shows a single lens in a simplified manner, the first lens group 1 and the second lens group 10 are usually composed of a plurality of lenses. The first lens group 1 and the second lens group 10 may have functions of focus control and image stabilization control in addition to zoom control. The first lens group 1 and the second lens group 10 may be composed of a single lens. In the present embodiment, the first lens group 1 and the second lens group 10 are referred to as a lens group including a case where the first lens group 1 and the second lens group 10 are composed of one lens.

レンズ駆動モータ2は、ズーム駆動部13から供給される駆動電力に応じて、第1レンズ群1を光軸上を前後に駆動する。同様に、レンズ駆動モータ11もズーム駆動部13から供給される駆動電力に応じて、第2レンズ群10を光軸上を前後に駆動する。レンズ状態検出回路3は第1レンズ群1の駆動状態を検出し、その検出結果をマイクロコンピュータ20に出力する。同様に、レンズ状態検出回路12も第2レンズ群10の駆動状態を検出し、その検出結果をマイクロコンピュータ20に出力する。   The lens drive motor 2 drives the first lens group 1 back and forth on the optical axis in accordance with the drive power supplied from the zoom drive unit 13. Similarly, the lens drive motor 11 also drives the second lens group 10 back and forth on the optical axis in accordance with the drive power supplied from the zoom drive unit 13. The lens state detection circuit 3 detects the driving state of the first lens group 1 and outputs the detection result to the microcomputer 20. Similarly, the lens state detection circuit 12 also detects the driving state of the second lens group 10 and outputs the detection result to the microcomputer 20.

絞り4は、カメラ100の外部から入射する光量を調整する絞り羽根などである。絞り駆動モータ5は、絞り駆動部14より供給される駆動電力に応じて絞り4を駆動する。絞り状態検出回路6は、絞り4の駆動状態を検出し、その検出結果をマイクロコンピュータ20に出力する。第1レンズ群1、第2レンズ群10の移動により焦点距離が変化した場合、マイクロコンピュータ20から算出された絞りの開口径となるように、絞り駆動モータ5、絞り状態検出回路6により絞り4の制御を行う。   The diaphragm 4 is a diaphragm blade that adjusts the amount of light incident from the outside of the camera 100. The aperture drive motor 5 drives the aperture 4 according to the drive power supplied from the aperture drive unit 14. The diaphragm state detection circuit 6 detects the driving state of the diaphragm 4 and outputs the detection result to the microcomputer 20. When the focal length changes due to the movement of the first lens group 1 and the second lens group 10, the aperture 4 is controlled by the aperture drive motor 5 and the aperture state detection circuit 6 so that the aperture diameter calculated from the microcomputer 20 is obtained. Control.

ND(Neutral Density)フィルタ7は、撮像素子16への入射光路に対して挿入及び退避可能に構成され、挿入することで第1レンズ群1から入射する光を減少させる。NDフィルタ駆動モータ8は、NDフィルタ駆動部15により供給される駆動電力に応じてNDフィルタ7を駆動する。NDフィルタ駆動検出回路9は、NDフィルタ7の駆動状態を検出し、その検出結果をマイクロコンピュータ20に出力する。また、後述するように、絞り4が補正され開口径が変化した場合、マイクロコンピュータ20は、出力された検出結果からNDフィルタ7の位置を算出し、NDフィルタ駆動モータ8、NDフィルタ駆動検出回路9によりNDフィルタ7の制御を行う。なお、本実施形態では、NDフィルタ7として透過率あるいは濃度がグラデーション状に変化するNDフィルタを例にとって説明するが、単濃度のものであってもよい。また、図1では簡略化して1枚のNDフィルタを図示しているが、NDフィルタ7は、複数枚で構成されていても構わない。   An ND (Neutral Density) filter 7 is configured to be able to be inserted into and retracted from an incident optical path to the image sensor 16, and reduces light incident from the first lens group 1 by being inserted. The ND filter drive motor 8 drives the ND filter 7 according to the drive power supplied by the ND filter drive unit 15. The ND filter drive detection circuit 9 detects the drive state of the ND filter 7 and outputs the detection result to the microcomputer 20. As will be described later, when the diaphragm 4 is corrected and the aperture diameter changes, the microcomputer 20 calculates the position of the ND filter 7 from the output detection result, and the ND filter drive motor 8 and the ND filter drive detection circuit. 9 controls the ND filter 7. In the present embodiment, an ND filter whose transmittance or density changes in a gradation shape will be described as an example of the ND filter 7. However, a single density filter may be used. Further, in FIG. 1, a single ND filter is illustrated in a simplified manner, but the ND filter 7 may be composed of a plurality of sheets.

16は、CMOSイメージセンサなどのXYアドレス方式の固体撮像素子であり、第1レンズ群1から第2レンズ群10までを介して入射する被写体の光学像を光電変換し、得られた電荷を蓄積する。撮像素子16の各画素に蓄えられた電荷(画像信号)は、後述する撮像素子駆動部27の駆動パルスに応じてCDS/AGC回路17に出力される。CDS/AGC回路17は、出力された画像信号をサンプリング及び増幅する。なお、サンプリングでは相関二重サンプリング(CDS:Correlated Double Sampling)が、増幅では自動利得調整(AGC:Auto Gain Control)が行われる。そして、CDS/AGC回路17により処理された画像信号(アナログ信号)は、A/D変換器18において、デジタル画像信号に変換される。デジタル信号処理回路19は、A/D変換器18から出力されたデジタル画像信号に対して種々の信号処理を行う。   Reference numeral 16 denotes an XY address type solid-state imaging device such as a CMOS image sensor, which photoelectrically converts an optical image of an object incident through the first lens group 1 to the second lens group 10 and accumulates the obtained charges. To do. The electric charge (image signal) stored in each pixel of the image sensor 16 is output to the CDS / AGC circuit 17 in accordance with a drive pulse of the image sensor drive unit 27 described later. The CDS / AGC circuit 17 samples and amplifies the output image signal. Note that correlated double sampling (CDS) is performed for sampling, and automatic gain control (AGC: Auto Gain Control) is performed for amplification. The image signal (analog signal) processed by the CDS / AGC circuit 17 is converted into a digital image signal by the A / D converter 18. The digital signal processing circuit 19 performs various signal processing on the digital image signal output from the A / D converter 18.

記録部25は、デジタル信号処理回路19で信号処理が施された画像信号をメモリカードなどの外部メモリに書き出す。   The recording unit 25 writes the image signal subjected to the signal processing by the digital signal processing circuit 19 to an external memory such as a memory card.

マイクロコンピュータ20は、マイクロコントローラや単にコントローラと称される回路であり、カメラ100の動作を統括的に制御する。例えば、マイクロコンピュータ20は、デジタル信号処理回路19からの輝度や色等の情報を受けて、各種の演算処理を行う。   The microcomputer 20 is a circuit called a microcontroller or simply a controller, and comprehensively controls the operation of the camera 100. For example, the microcomputer 20 receives various information such as luminance and color from the digital signal processing circuit 19 and performs various arithmetic processes.

絞り駆動部14は、マイクロコンピュータ20による制御に基づき、絞り駆動モータ5へ駆動電力を供給する。例えば、絞り駆動部14は、撮像素子16が撮像した画像の測光値(輝度値)に応じてマイクロコンピュータ20により求められた露出値に基づく制御により、絞り4を絞る、または、開くための駆動電力を供給する。これにより、カメラ100では、撮像素子16に適正な光量が入射するように絞り調整を行うことが可能となる。なお、測光センサを別に設け、測光センサから得られた測光値を用いて絞り4を制御しても構わない。   The aperture drive unit 14 supplies drive power to the aperture drive motor 5 based on control by the microcomputer 20. For example, the diaphragm drive unit 14 is a drive for narrowing or opening the diaphragm 4 by control based on the exposure value obtained by the microcomputer 20 in accordance with the photometric value (luminance value) of the image captured by the image sensor 16. Supply power. Thereby, in the camera 100, it is possible to perform aperture adjustment so that an appropriate amount of light enters the image sensor 16. A photometric sensor may be provided separately, and the diaphragm 4 may be controlled using a photometric value obtained from the photometric sensor.

NDフィルタ駆動部15は、マイクロコンピュータ20による制御に基づき、NDフィルタ駆動モータ8へ駆動電力を供給する。例えば、NDフィルタ駆動部15は、撮像素子16が撮像した画像の測光値(輝度値)に応じてマイクロコンピュータ20により求められた露出値に基づく制御により、NDフィルタ7の挿入位置を変えるための駆動電力を供給する。   The ND filter drive unit 15 supplies drive power to the ND filter drive motor 8 based on control by the microcomputer 20. For example, the ND filter driving unit 15 changes the insertion position of the ND filter 7 by control based on the exposure value obtained by the microcomputer 20 according to the photometric value (luminance value) of the image captured by the image sensor 16. Supply drive power.

これにより、撮像装置では、撮像された画像の測光値に応じて撮像素子16に入射する光の光量を調整することが可能となる。   As a result, the imaging apparatus can adjust the amount of light incident on the imaging device 16 in accordance with the photometric value of the captured image.

撮像素子駆動部27は、マイクロコンピュータ20による制御に基づき、撮像素子16を駆動するための駆動パルス等を撮像素子16へ供給し、撮像素子16で撮像した画像の読み出しや露光時間の調整を行う。例えば、撮像素子駆動部27は、撮像素子16により撮像された画像の測光値に応じたマイクロコンピュータ20の制御により、所定の露光時間で撮像素子16の露光を行うための駆動パルスを供給する。これにより、カメラ100では、撮像された画像の測光値に応じて撮像素子16の露光時間を調整し、その画像を読み出すことが可能となる。   The image sensor driving unit 27 supplies drive pulses and the like for driving the image sensor 16 to the image sensor 16 based on the control by the microcomputer 20, and reads the image captured by the image sensor 16 and adjusts the exposure time. . For example, the image sensor drive unit 27 supplies drive pulses for performing exposure of the image sensor 16 with a predetermined exposure time under the control of the microcomputer 20 in accordance with the photometric value of the image captured by the image sensor 16. As a result, the camera 100 can adjust the exposure time of the image sensor 16 according to the photometric value of the captured image and read the image.

メモリ22は、RAM(Random Access Memory)などであり、一時的にデータを保存する。例えば、メモリ22は、撮像素子16で撮像されてデジタル信号処理回路19で処理された後の画像データなどを一時的に保存する。また、カメラ100を駆動するためのプログラムもメモリ22に保存され、マイクロコンピュータ20で逐次呼び出され実行される。また、事前にシミュレーションによる絞り4、NDフィルタ7の補正位置を使用する場合は、補正位置データを保存するものとする。   The memory 22 is a RAM (Random Access Memory) or the like, and temporarily stores data. For example, the memory 22 temporarily stores image data after being captured by the image sensor 16 and processed by the digital signal processing circuit 19. A program for driving the camera 100 is also stored in the memory 22 and is sequentially called and executed by the microcomputer 20. In addition, when using the correction positions of the diaphragm 4 and the ND filter 7 by simulation in advance, correction position data is stored.

外部キー23は、カメラ100のズーム倍率の変更や各種設定を行うために使用する。このとき、外部キーの操作をユーザに知らせるために表示装置24にアイコンやメッセージを表示する。   The external key 23 is used to change the zoom magnification of the camera 100 and make various settings. At this time, an icon or a message is displayed on the display device 24 to inform the user of the operation of the external key.

次に、デジタル信号処理回路19の詳細について図2を用いて説明する。   Next, details of the digital signal processing circuit 19 will be described with reference to FIG.

デジタル信号処理回路19の処理対象となる画像信号(A/D変換器18から出力されたデジタル画像信号)は、評価値取得部100とフリッカ補正部103とに並列に入力される。ここでデジタル信号処理回路19に入力される画像信号は、一般的なテレビジョンで入力可能な輝度・色差信号(YCC)でもよいし、RGB画像を時系列順に出力したRGB画像信号でもかまわない。   An image signal to be processed by the digital signal processing circuit 19 (digital image signal output from the A / D converter 18) is input in parallel to the evaluation value acquisition unit 100 and the flicker correction unit 103. Here, the image signal input to the digital signal processing circuit 19 may be a luminance / color difference signal (YCC) that can be input by a general television, or may be an RGB image signal obtained by outputting RGB images in chronological order.

評価値取得部100は、入力された画像信号を複合し、RGBの色信号値を画像の行ごとに積分値として取得し、補正値予測部101へ出力する。補正値予測部101は、入力された各行ごとの色信号の積分値から画像内で列方向に生じる周期的な信号レベルの変化成分(以下、フリッカ成分とする)を抽出し、フリッカ成分を打ち消すための補正パラメータを算出し、補正値修正部102へと出力する。   The evaluation value acquisition unit 100 combines the input image signals, acquires RGB color signal values as integration values for each row of the image, and outputs them to the correction value prediction unit 101. The correction value prediction unit 101 extracts a periodic signal level change component (hereinafter referred to as a flicker component) that occurs in the column direction in the image from the input color signal integration value for each row, and cancels the flicker component. Correction parameters are calculated and output to the correction value correction unit 102.

<フリッカ成分の補正値算出について>
CMOSイメージセンサになどのXYアドレス方式の撮像素子を用いて撮影する場合、図3に示すように、画像の列方向(垂直方向)に明暗の縞模様が生じた画像が得られることがある。これは、周期的な光量変化が生じる光源下で撮影される画像の取得周期(フレームレート)と撮影環境の光源の光量変化周期とが一致していないことにより発生する。補正値予測部101は、画像に生じた明暗の縞模様からフリッカ成分を抽出するために、以下の式により時間方向の定常的な信号成分を抽出する。
mem=ave×k+mout×(1−k)
<Calculation of flicker component correction value>
When taking an image using an XY addressing type image pickup device such as a CMOS image sensor, an image with a bright and dark stripe pattern in the image column direction (vertical direction) may be obtained as shown in FIG. This occurs because the acquisition cycle (frame rate) of an image shot under a light source in which a periodic light amount change occurs does not match the light amount change cycle of the light source in the shooting environment. The correction value prediction unit 101 extracts a stationary signal component in the time direction according to the following equation in order to extract a flicker component from a bright and dark stripe pattern generated in the image.
mem = ave × k + mout × (1-k)

memは上記式の出力としてメモリに格納される値であり、aveは評価値取得部100から入力される画像内の各行の色成分の信号値である。kは巡回型ローパスフィルタのフィルタ係数であり、moutは1フレーム前の画像の信号値が入力された時に演算された上記式の演算結果(すなわち、前回入力された画像に対して上記式で演算されたmem)である。上記演算を各色成分で各行について行うことにより、時間方向の定常的な信号成分を抽出できる。補正値予測部101は、抽出された定常的な信号成分を、現在のフレームで評価値取得部100から入力された信号レベルで各色成分の各信号値を除算することにより、フリッカ成分を算出する。さらに、補正値予測部101は、算出されたフリッカ成分から、垂直方向の信号のレベルの変動特性であるフリッカモデルを生成する。つまり、フリッカモデルは、画像の行ごとに算出したフリッカ成分を列方向に並べたときのフリッカ成分の変動特性を表していて、例えば垂直方向に振幅w、周波数f、位相θを持つ正弦波で近似することができる。周波数fは、フレームレートと光源の光量変化周期に基づいて算出され、各行の位相θは、行ごとに算出したフリッカ成分のうち隣接する最小値と最大値の中間値をとる行の位相をθ=0として算出される。振幅Wは、位相がπ/2または3π/2となる行のフリッカ成分と位相が0となる行のフリッカ成分との差から算出される。生成されたフリッカモデルは各色成分ごとに生成され、それを打ち消す補正値として、算出されたフリッカモデルから位相をπずらした正弦波の位相・振幅・周波数を補正値予測部101は補正値修正部102へ出力する。   mem is a value stored in the memory as an output of the above equation, and ave is a signal value of the color component of each row in the image input from the evaluation value acquisition unit 100. k is a filter coefficient of the cyclic low-pass filter, and mout is a calculation result of the above expression calculated when the signal value of the image of the previous frame is input (that is, the above expression is calculated for the previously input image). Mem). By performing the above calculation for each row with each color component, it is possible to extract a stationary signal component in the time direction. The correction value prediction unit 101 calculates a flicker component by dividing the extracted stationary signal component by the signal level of each color component by the signal level input from the evaluation value acquisition unit 100 in the current frame. . Further, the correction value prediction unit 101 generates a flicker model that is a fluctuation characteristic of the level of the signal in the vertical direction from the calculated flicker component. That is, the flicker model represents the fluctuation characteristics of the flicker component when the flicker components calculated for each row of the image are arranged in the column direction. For example, the flicker model is a sine wave having amplitude w, frequency f, and phase θ in the vertical direction. Can be approximated. The frequency f is calculated based on the frame rate and the light amount change period of the light source, and the phase θ of each row is the phase of the row taking the intermediate value between the adjacent minimum value and maximum value among the flicker components calculated for each row. = 0. The amplitude W is calculated from the difference between the flicker component of the row whose phase is π / 2 or 3π / 2 and the flicker component of the row whose phase is 0. The generated flicker model is generated for each color component, and the correction value predicting unit 101 corrects the phase, amplitude, and frequency of a sine wave whose phase is shifted by π from the calculated flicker model as a correction value for canceling the color component. To 102.

補正値修正部102における補正値修正処理について図4を用いて説明する。   The correction value correction process in the correction value correction unit 102 will be described with reference to FIG.

ステップS1にて補正値修正部102は、各色成分の補正値の信頼度を算出する。シャッター速度が高速になると、理想とする正弦波と実際のフリッカモデルとの乖離が大きくなる。さらに、光源によっては色成分間でフリッカ成分の振幅に差が生じ、振幅の大きな色成分は補正残りも大きくなる。そのため、シャッター速度が高速であるほど補正値の信頼度が小さいと考えることができる。そこで、本実施形態では、入力された画像に付加されたメタ情報からシャッター速度を取得し、補正値に含まれる振幅の値とシャッター速度から各色成分の信頼度を算出する。なお、本実施形態では信頼度の算出にはシャッター速度と振幅の値を用いたが、信頼度算出の方法は他の方法であってもかまわない。さらに、シャッター速度を取得する方法として画像に付加されたメタ情報を例として挙げているが、マイクロコンピュータ20からシャッター速度を取得するなど、他の方法を用いてもかまわない。   In step S1, the correction value correcting unit 102 calculates the reliability of the correction value of each color component. As the shutter speed increases, the difference between the ideal sine wave and the actual flicker model increases. Further, depending on the light source, a difference in the amplitude of the flicker component occurs between the color components, and the correction component of the color component having a large amplitude also increases. Therefore, it can be considered that the higher the shutter speed, the smaller the reliability of the correction value. Therefore, in this embodiment, the shutter speed is acquired from the meta information added to the input image, and the reliability of each color component is calculated from the amplitude value and the shutter speed included in the correction value. In the present embodiment, the shutter speed and the amplitude value are used to calculate the reliability. However, other methods may be used for the reliability calculation. Furthermore, although the meta information added to the image is given as an example of a method for acquiring the shutter speed, other methods such as acquiring the shutter speed from the microcomputer 20 may be used.

ここで、図5に白色蛍光灯下における高速シャッター時のフリッカ成分の信号レベルと補正後の信号レベルを示す。図5(a)は、列方向を横軸、信号レベルを縦軸にしたG成分のフリッカ成分を示していて、図5(b)は、列方向を横軸、信号レベルを縦軸にしたB成分のフリッカ成分を示している。   FIG. 5 shows the signal level of the flicker component at the time of high-speed shutter under a white fluorescent lamp and the signal level after correction. FIG. 5A shows the G component flicker component with the column direction on the horizontal axis and the signal level on the vertical axis. FIG. 5B shows the column direction on the horizontal axis and the signal level on the vertical axis. B component flicker component is shown.

白色蛍光灯などでは、B成分の振幅が他の色成分に対して大きく、B成分が他の色成分よりも理想特性からの乖離が大きくなる。そのため、図5(b)に示すようにB成分のみ補正残りが発生しRGBのバランスが崩れ、色付きが発生してしまう。   In a white fluorescent lamp or the like, the amplitude of the B component is larger than that of the other color components, and the deviation from the ideal characteristic of the B component is greater than that of the other color components. For this reason, as shown in FIG. 5B, only the B component remains uncorrected, the RGB balance is lost, and coloring occurs.

ところで、生体情報工学の見地から人間の視覚特性を分析によると高速で画像の色が切り替わる場合は知覚性能に限界があり、また色成分によっても知覚性能に差があることが知られている。主にR成分とG成分を知覚するL錐体、M錐体の応答速度は60Hz以上の時間方向の知覚性能を持っており、一方B成分を知覚するS錐体の知覚性能は50Hz未満である。そして、知覚性能以上の周波数で切り替わる色信号については、時間方向に平滑化された信号として知覚される。   By the way, according to the analysis of human visual characteristics from the viewpoint of bioinformatics, it is known that the perceptual performance is limited when the color of the image is switched at high speed, and the perceptual performance is also different depending on the color components. The response speeds of the L cone and M cone that mainly perceive the R component and the G component have perceptual performance in the time direction of 60 Hz or more, while the perception performance of the S cone that perceives the B component is less than 50 Hz. is there. A color signal that switches at a frequency higher than the perceptual performance is perceived as a signal smoothed in the time direction.

フレームレート60fpsで得られた画像信号に対する画像中に生じる縞模様の補正(以下、フリッカ補正とする)を考えると、図5(b)に示すようにB成分で補正残りが発生する。100Hzの光量変化が生じる光源下で60fpsで画像を得るときに発生するフリッカ成分をB成分の特性を考慮せずに補正した場合、この補正残りの様子が約3フレームで循環する。そのため、画像内のある領域を注視すると3フレームの内2フレームはある程度良好に補正され、1フレームでは補正残りが発生する。良好に補正された2フレームのB成分は安定した信号レベルとして連続するため、60fpsで画像を表示すると1/60(秒)×2=1/30(秒)の期間は同じ色が続くことになる。この1/30(秒)という期間は人間の知覚性能範囲内の更新周期である。一方、補正の残った1フレームは1/60(秒)の間続くことになる。この1/60(秒)という期間は人間の知覚性能範囲外の更新周期である。知覚性能範囲外の更新周期で画像が表示される場合、人間には時間方向に平滑化された信号として知覚されるため、補正残りのある画像と良好に補正された画像の間の信号値として知覚される。そのため、良好に補正されたB成分画像と補正の残った画像が上記のような周期で混在すると、時間方向に平滑化して知覚された場合に色信号としてはある方向に偏って知覚されてしまう。そこで、フリッカ補正の信頼性が小さく補正残りの発生が予想される場合においては、B成分の補正残りを大きくすると、1枚1枚の画像の色の偏りは大きくなるが時間方向に平滑化した場合の偏りを小さくすることができる。   Considering the correction of the fringe pattern generated in the image with respect to the image signal obtained at the frame rate of 60 fps (hereinafter referred to as flicker correction), the remaining correction occurs in the B component as shown in FIG. When the flicker component generated when an image is obtained at 60 fps under a light source in which a light amount change of 100 Hz occurs is corrected without considering the characteristics of the B component, the remaining correction state circulates in about 3 frames. Therefore, when a certain area in the image is watched, two of the three frames are corrected to some good extent, and the remaining correction occurs in one frame. Since the B component of 2 frames corrected well continues as a stable signal level, when the image is displayed at 60 fps, the same color continues for a period of 1/60 (second) × 2 = 1/30 (second). Become. This period of 1/30 (second) is an update cycle within the human perceptual performance range. On the other hand, one frame that remains corrected continues for 1/60 (second). This period of 1/60 (second) is an update cycle outside the human perceptual performance range. When an image is displayed with an update period outside the perceptual performance range, it is perceived as a signal smoothed in the time direction by humans, so as a signal value between the image with the remaining correction and the image that has been well corrected Perceived. For this reason, if a B component image that has been successfully corrected and an image that remains to be corrected are mixed in the above-described cycle, the color signal is perceived as being biased in a certain direction when it is perceived after being smoothed in the time direction. . Therefore, when the reliability of flicker correction is low and the occurrence of a remaining correction is expected, increasing the remaining B component correction increases the color deviation of each image, but smoothes it in the time direction. The bias in the case can be reduced.

図6は、白色蛍光灯下において所定の色の被写体を連続して撮影して得られた複数の画像の所定の行の代表色信号の色空間上の分布を示している。ここでの代表色信号は、所定の行のR成分、G成分、B成分から所定の公知の演算方法により求められる。図6(a)は、複数の画像に対してB成分の補正を通常通りに行った場合の分布を示し、図6(b)は、B成分の補正を弱めて行った場合のベクトル空間上の分布を示している。B成分の補正を通常通りに行った場合は、図6(a)に示すように、円で囲んだ一部の領域に集中した分布となるため、時間方向に平滑化した場合の偏りが大きくなる。一方、B成分の補正を弱めて行った場合は、図6(b)に示すように、円で囲んだ広範囲にばらけた分布となるため、時間方向に平滑化した場合の偏りは小さくなる。すなわち、B成分の補正を通常通りに行うよりもB成分の補正を弱めて行うほうが、時間方向に平滑化した場合の色付きを抑えることができる。   FIG. 6 shows a distribution in the color space of representative color signals of a predetermined row of a plurality of images obtained by continuously photographing a subject of a predetermined color under a white fluorescent lamp. The representative color signal here is obtained by a predetermined known calculation method from the R component, G component, and B component of a predetermined row. FIG. 6A shows the distribution when the B component correction is normally performed on a plurality of images, and FIG. 6B shows the distribution on the vector space when the B component correction is weakened. The distribution of is shown. When the correction of the B component is performed as usual, as shown in FIG. 6A, the distribution is concentrated in a part of the area surrounded by a circle, so that there is a large bias when smoothing in the time direction. Become. On the other hand, when the correction of the B component is weakened, as shown in FIG. 6B, since the distribution is spread over a wide range surrounded by a circle, the bias when smoothing in the time direction is reduced. That is, when the correction of the B component is weakened rather than the correction of the B component as usual, coloring in the case of smoothing in the time direction can be suppressed.

なお、知覚特性はあくまで画像の更新周期に影響するものであり、フレームレートによってはB成分に限らず知覚されないものがある。視聴されるフレームレートが50fps以上100fps以下であれば、色信号の信頼度によってB成分のみ補正値を修正し、視聴されるフレームレートが100fps以上であればRGB各成分の信頼度に応じて補正値の修正により色付きの改善が可能である。   Note that the perceptual characteristics only affect the image update cycle, and some frame rates are not limited to the B component and are not perceived. If the viewing frame rate is 50 fps or more and 100 fps or less, the correction value is corrected only for the B component depending on the reliability of the color signal. If the viewing frame rate is 100 fps or more, the correction is made according to the reliability of each RGB component. It is possible to improve coloring by correcting the value.

そのため、図4のステップのS2にて補正値修正部102は、画像の更新周期としてのフレームレートが100Hz以上か否か(更新周期が所定の周期より長くないか否か)の判定を行う。ここで画像信号のフレームレートに関する情報は画像信号のメタ情報に付加された情報を用いてもよいし、マイクロコンピュータ20から取得する方法を用いても、またはその他の方法であってもかまわない。   Therefore, in step S2 of FIG. 4, the correction value correction unit 102 determines whether or not the frame rate as the image update cycle is 100 Hz or more (whether or not the update cycle is longer than a predetermined cycle). Here, the information related to the frame rate of the image signal may use information added to the meta information of the image signal, may use a method obtained from the microcomputer 20, or may be other methods.

フレームレートが100Hz以上であれば、ステップS3にて補正値修正部102は、各色成分の信頼度が所定の閾値以下か否かの判定を行う。信頼度が閾値を下回った色成分が存在する場合、ステップS4にて補正値修正部102は、信頼度が所定の閾値を下回った色成分に対する補正度合いを小さく抑える補正値の修正を行う。ここでは、信頼度が所定の閾値を下回っていない色成分に対する補正度合いは修正しない。すなわち、信頼度が所定の閾値を下回った色成分に対する補正度合いを、信頼度が所定の閾値を下回らない色成分に対する補正度合いよりも弱くする。   If the frame rate is 100 Hz or higher, in step S3, the correction value correcting unit 102 determines whether or not the reliability of each color component is equal to or lower than a predetermined threshold. If there is a color component whose reliability is below the threshold, the correction value correction unit 102 corrects the correction value that suppresses the correction degree for the color component whose reliability is below the predetermined threshold in step S4. Here, the correction degree for the color component whose reliability is not lower than the predetermined threshold is not corrected. That is, the correction degree for the color component whose reliability is less than the predetermined threshold is made weaker than the correction degree for the color component whose reliability is not less than the predetermined threshold.

フレームレートが100fps以下であれば、ステップS5にて補正値修正部102は、フレームレートが50fps以上か否かの判定を行う。   If the frame rate is 100 fps or less, in step S5, the correction value correcting unit 102 determines whether or not the frame rate is 50 fps or more.

50fps以上であれば、ステップS6にて補正値修正部102は、B成分の信頼度が所定の閾値以下か否かの判定を行う。B成分の信頼度が所定の閾値を下回っていれば、B成分に対する補正度合いを小さく抑える補正値の修正を行う。ここでは、R成分、G成分に対する補正度合いは修正しない。   If it is 50 fps or more, in step S6, the correction value correcting unit 102 determines whether or not the reliability of the B component is equal to or less than a predetermined threshold. If the reliability of the B component is below a predetermined threshold value, the correction value that suppresses the correction degree for the B component is corrected. Here, the correction degree for the R component and the G component is not corrected.

以上のように各色成分に対する補正値修正処理を行った後、補正値修正部102は、各色成分に対する補正値をフリッカ補正部103に出力する。   After performing the correction value correction process for each color component as described above, the correction value correction unit 102 outputs the correction value for each color component to the flicker correction unit 103.

フリッカ補正部103は、入力された補正値に従って、補正対象の画像の各行・各色成分ごとに信号に対するゲインを制御して補正処理をかけ、フリッカ補正された画像を出力する。   The flicker correction unit 103 performs a correction process by controlling the gain for the signal for each row and each color component of the image to be corrected according to the input correction value, and outputs a flicker-corrected image.

以上のように、本実施形態では、信頼度が閾値を下回った色成分に対して、信頼度が所定の閾値を下回らない色成分よりも補正度合いを弱くすることで、周期的な光量変化が生じる光源下で撮影した画像に生じる縞模様を色付きを抑えながら補正できる。また、B成分に対して他の色成分よりも補正度合いを弱くすることで、周期的な光量変化が生じる光源下で撮影した画像に生じる縞模様を色付きを抑えながら補正できる。   As described above, in the present embodiment, the periodic light quantity change is caused by making the correction degree weaker than the color component whose reliability is not lower than the predetermined threshold for the color component whose reliability is lower than the threshold. It is possible to correct a striped pattern generated in an image taken under a generated light source while suppressing coloring. Further, by making the correction degree for the B component weaker than for the other color components, it is possible to correct a striped pattern generated in an image taken under a light source in which a periodic light quantity change is suppressed while suppressing coloring.

なお、上記の実施形態において、補正度合いを弱くすることには補正を行わないことも含まれてよい。   In the above-described embodiment, reducing the correction degree may include not performing correction.

また、上記の実施形態では、信頼度の判定を行っているが、信頼度の判定を行うことなく、B成分に対する補正度合いを、R成分、G成分に対する補正度合いより弱くするようにしてもよい。   In the above embodiment, the reliability is determined. However, the correction degree for the B component may be made weaker than the correction degrees for the R component and the G component without determining the reliability. .

また、上記の実施形態では、撮像機能を有する画像処理装置の例を説明したが、撮像機能を有していない画像処理装置であってもよい。撮像機能を有していない画像処理装置の場合、外部機器から入力された画像に対して上記の補正処理を行えばよい。なお、撮像機能を有する画像処理装置において、外部機器から入力された画像に対して上記の補正処理を行ってもよい。   In the above embodiment, an example of an image processing apparatus having an imaging function has been described. However, an image processing apparatus that does not have an imaging function may be used. In the case of an image processing apparatus that does not have an imaging function, the above correction process may be performed on an image input from an external device. Note that in the image processing apparatus having an imaging function, the above correction processing may be performed on an image input from an external device.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

16 撮像素子
19 デジタル信号処理回路
20 マイクロコンピュータ
100 評価値取得部
101 補正値予測部
102 補正値修正部
103 フリッカ補正部
Reference Signs List 16 Image Sensor 19 Digital Signal Processing Circuit 20 Microcomputer 100 Evaluation Value Acquisition Unit 101 Correction Value Prediction Unit 102 Correction Value Correction Unit 103 Flicker Correction Unit

Claims (7)

入力された画像の色成分ごとにフリッカ成分を抽出する抽出手段と、
前記抽出手段により抽出された色成分ごとのフリッカ成分に基づいて、前記入力された画像の色成分ごとにフリッカ補正のための補正値を算出する補正値算出手段と、前記入力された画像の色成分ごとにフリッカ補正を行う補正手段と、
前記抽出された色成分ごとのフリッカ成分と前記入力された画像を取得する際のシャッター速度とに基づいて、前記補正値算出手段により算出された色成分ごとの前記補正値の信頼度を算出する信頼度算出手段と、を有し、
前記補正手段は、前記信頼度算出手段により算出された前記補正値の信頼度が所定の閾値を下回る色成分に対して、前記補正値の信頼度が前記所定の閾値を下回らない色成分よりもフリッカ補正の補正度合いを弱めることを特徴とする画像処理装置。
Extraction means for extracting flicker components for each color component of the input image;
Correction value calculation means for calculating a correction value for flicker correction for each color component of the input image based on the flicker component for each color component extracted by the extraction means; and color of the input image Correction means for performing flicker correction for each component;
The reliability of the correction value for each color component calculated by the correction value calculation unit is calculated based on the flicker component for each extracted color component and the shutter speed when the input image is acquired. A reliability calculation means,
For the color component for which the reliability of the correction value calculated by the reliability calculation unit is less than a predetermined threshold, the correction unit is more than the color component for which the reliability of the correction value is not less than the predetermined threshold. An image processing apparatus characterized by weakening the degree of flicker correction.
前記補正手段は、前記入力された画像に関して前記信頼度算出手段により算出された前記補正値の信頼度が前記所定の閾値を下回る色成分に対して、前記入力された画像および所定のフレームレートで前記入力された画像に連続して得られた画像のフリッカ補正の補正度合いを、前記補正値の信頼度が前記所定の閾値を下回らない色成分よりも弱めることを特徴とする請求項1に記載の画像処理装置。   The correction unit is configured to apply the input image and a predetermined frame rate to a color component for which the reliability of the correction value calculated by the reliability calculation unit with respect to the input image is lower than the predetermined threshold. The flicker correction correction degree of an image obtained continuously from the input image is weaker than a color component whose reliability of the correction value does not fall below the predetermined threshold. Image processing apparatus. 前記補正手段は、前記所定のフレームレートが所定の値以上の場合、前記信頼度算出手段により算出された前記補正値の信頼度が前記所定の閾値を下回る色成分に対して、前記補正値の信頼度が前記所定の閾値を下回らない色成分よりもフリッカ補正の補正度合いを弱めることを特徴とする請求項2に記載の画像処理装置。   When the predetermined frame rate is equal to or higher than a predetermined value, the correction unit determines the correction value of the correction value for a color component whose reliability calculated by the reliability calculation unit is lower than the predetermined threshold. The image processing apparatus according to claim 2, wherein the degree of flicker correction is weaker than that of a color component whose reliability does not fall below the predetermined threshold. 前記信頼度算出手段は、前記抽出された色成分ごとのフリッカの振幅とシャッター速度に基づいて、前記補正値算出手段により算出された色成分ごとの前記補正値の信頼度を算出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The reliability calculation means calculates the reliability of the correction value for each color component calculated by the correction value calculation means based on the flicker amplitude and shutter speed for each of the extracted color components. The image processing apparatus according to any one of claims 1 to 3. 所定のフレームレートで得られた画像のR成分、G成分、B成分ごとにフリッカ成分を抽出する抽出手段と、
前記抽出手段により抽出された色成分ごとのフリッカ成分に基づいて、前記画像の色成分ごとにフリッカ補正のための補正値を算出する算出手段と、
前記画像のR成分、G成分、B成分ごとにフリッカ補正を行う補正手段と、を有し、前記補正手段は、前記所定のフレームレートが所定の値以上の場合に、前記画像のB成分に対して、当該画像のG成分とR成分よりもフリッカ補正の補正度合いを弱めることを特徴とする画像処理装置。
Extraction means for extracting a flicker component for each of the R component, G component, and B component of an image obtained at a predetermined frame rate;
Calculation means for calculating a correction value for flicker correction for each color component of the image based on the flicker component for each color component extracted by the extraction means;
Correction means for performing flicker correction for each of the R component, G component, and B component of the image, and the correction means uses the B component of the image when the predetermined frame rate is a predetermined value or more. On the other hand, an image processing apparatus characterized in that the degree of flicker correction is weaker than the G component and R component of the image.
入力された画像の色成分ごとにフリッカ成分を抽出する抽出ステップと、
前記抽出ステップで抽出された色成分ごとのフリッカ成分に基づいて、前記入力された画像の色成分ごとにフリッカ補正のための補正値を算出する補正値算出ステップと、
前記入力された画像の色成分ごとにフリッカ補正を行う補正ステップと、
前記抽出された色成分ごとのフリッカ成分と前記入力された画像を取得する際のシャッター速度とに基づいて、前記補正値算出ステップで算出された色成分ごとの前記補正値の信頼度を算出する信頼度算出ステップと、を有し、
前記補正ステップは、前記信頼度算出ステップにより算出された前記補正値の信頼度が所定の閾値を下回る色成分に対して、前記補正値の信頼度が前記所定の閾値を下回らない色成分よりもフリッカ補正の補正度合いを弱めることを特徴とする画像処理方法。
An extraction step of extracting a flicker component for each color component of the input image;
A correction value calculating step for calculating a correction value for flicker correction for each color component of the input image based on the flicker component for each color component extracted in the extraction step;
A correction step for performing flicker correction for each color component of the input image;
The reliability of the correction value for each color component calculated in the correction value calculation step is calculated based on the flicker component for each extracted color component and the shutter speed at the time of acquiring the input image. A reliability calculation step, and
In the correction step, for the color component in which the reliability of the correction value calculated in the reliability calculation step is less than a predetermined threshold, the reliability of the correction value is less than the color component in which the reliability is not lower than the predetermined threshold. An image processing method characterized by weakening the degree of flicker correction.
所定のフレームレートで得られた画像のR成分、G成分、B成分ごとにフリッカ成分を抽出する抽出ステップと、
前記抽出ステップで抽出された色成分ごとのフリッカ成分に基づいて、前記画像の色成分ごとにフリッカ補正のための補正値を算出する算出ステップと、
前記画像のR成分、G成分、B成分ごとにフリッカ補正を行う補正ステップと、を有し、
前記補正ステップは、前記所定のフレームレートが所定の値以上の場合に、前記画像のB成分に対して、当該のG成分とR成分よりもフリッカ補正の補正度合いを弱めることを特徴とする画像処理方法。
An extraction step of extracting a flicker component for each of the R component, G component, and B component of an image obtained at a predetermined frame rate;
A calculation step for calculating a correction value for flicker correction for each color component of the image based on the flicker component for each color component extracted in the extraction step;
A correction step of performing flicker correction for each of the R component, G component, and B component of the image,
In the correction step, when the predetermined frame rate is equal to or higher than a predetermined value, the correction degree of flicker correction is weakened with respect to the B component of the image as compared with the G component and the R component. Processing method.
JP2014214673A 2014-10-21 2014-10-21 Image processing apparatus and image processing method Active JP6576028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014214673A JP6576028B2 (en) 2014-10-21 2014-10-21 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014214673A JP6576028B2 (en) 2014-10-21 2014-10-21 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2016082510A JP2016082510A (en) 2016-05-16
JP6576028B2 true JP6576028B2 (en) 2019-09-18

Family

ID=55956572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014214673A Active JP6576028B2 (en) 2014-10-21 2014-10-21 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6576028B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005191A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005192A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005204A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005193A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005203A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019010145A (en) * 2017-06-29 2019-01-24 株式会社三洋物産 Game machine
JP2019106588A (en) 2017-12-11 2019-06-27 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and image capturing device
JP7234361B2 (en) * 2019-06-18 2023-03-07 富士フイルム株式会社 Image processing device, imaging device, image processing method, and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4904749B2 (en) * 2005-09-08 2012-03-28 ソニー株式会社 Flicker reduction method, flicker reduction circuit, and imaging apparatus
JP4687620B2 (en) * 2006-09-08 2011-05-25 カシオ計算機株式会社 Imaging device
JP2012010105A (en) * 2010-06-24 2012-01-12 Sony Corp Image processing device, imaging device, image processing method, and program

Also Published As

Publication number Publication date
JP2016082510A (en) 2016-05-16

Similar Documents

Publication Publication Date Title
JP6576028B2 (en) Image processing apparatus and image processing method
JP6717858B2 (en) Calibration of defective image sensor element
US9930263B2 (en) Imaging apparatus, for determining a transmittance of light for a second image based on an analysis of a first image
US9681060B2 (en) Imaging apparatus, method of correcting flicker, and program
JP2015115922A (en) Imaging apparatus and imaging method
US9961269B2 (en) Imaging device, imaging device body, and lens barrel that can prevent an image diaphragm value from frequently changing
JP6720881B2 (en) Image processing apparatus and image processing method
US9892497B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US10284767B2 (en) Shooting device, shooting method, and non-transitory computer readable recording medium storing program
US20150206296A1 (en) Image composition apparatus and image composition method
US10270991B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US9191573B2 (en) Image capturing apparatus for determining an exposure condition by calculating aphotmetric value for each object region and method of controlling the same
CN107205123B (en) Flash band determination device, control method thereof, storage medium, and image pickup apparatus
JP6243629B2 (en) Image processing apparatus and method, and imaging apparatus
JP2013176036A (en) Imaging apparatus and control method for the same
JP6463190B2 (en) Imaging apparatus, control method therefor, and program
JP2010028180A (en) Video camera
JP2021097347A (en) Imaging apparatus, control method of the same, and program
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JP2017038174A (en) Imaging device, control method and program
JP3206826U (en) Image processing device
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
KR102589856B1 (en) Photographing apparatus, photographing method, and Computer program product
JP2009218660A (en) Video display
JP6420620B2 (en) Image processing apparatus and method, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190820

R151 Written notification of patent or utility model registration

Ref document number: 6576028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151