JP2019106588A - 画像処理装置、画像処理方法及び撮像装置 - Google Patents

画像処理装置、画像処理方法及び撮像装置 Download PDF

Info

Publication number
JP2019106588A
JP2019106588A JP2017236879A JP2017236879A JP2019106588A JP 2019106588 A JP2019106588 A JP 2019106588A JP 2017236879 A JP2017236879 A JP 2017236879A JP 2017236879 A JP2017236879 A JP 2017236879A JP 2019106588 A JP2019106588 A JP 2019106588A
Authority
JP
Japan
Prior art keywords
image
value
color information
unit
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017236879A
Other languages
English (en)
Inventor
和幸 奥池
Kazuyuki Okuchi
和幸 奥池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2017236879A priority Critical patent/JP2019106588A/ja
Priority to PCT/JP2018/039696 priority patent/WO2019116746A1/ja
Priority to US16/768,809 priority patent/US11375137B2/en
Publication of JP2019106588A publication Critical patent/JP2019106588A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

【課題】高速フレームレートの撮像において、フリッカを抑制する。【解決手段】本開示に係る画像処理装置は、画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて前記画像の輝度を補正する第1の補正部と、前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正する第2の補正部と、を備える。この構成により、高速フレームレートの撮像において、フリッカを抑制することが可能となる。【選択図】図1A

Description

本開示は、画像処理装置、画像処理方法及び撮像装置に関する。
従来、例えば下記の特許文献1には、入力された画像の色成分ごとにフリッカ補正のための補正値を算出し、入力された画像の色成分ごとにフリッカ補正を行うことが記載されている。
特開2016−82510号公報
しかしながら、上記特許文献1に記載された技術は、入力画像に対して補正値を計算して画像処理により補正を行っているため、デジタルゲインで変調していることになる。従って、フリッカ振幅が大きくて、白とび、黒潰れがある画像に対しては補正できないという問題がある。
また、例えばフリッカ周波数に対して撮像のフレームレートが高速の場合、撮像素子のシャッター周期がフリッカ周期よりも短いため、シャッター時間をフリッカ周期の整数倍にしてフリッカを抑制する方法も実施する事ができない。
そこで、高速フレームレートの撮像において、フリッカを抑制することが求められていた。
本開示によれば、画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて前記画像の輝度を補正する第1の補正部と、前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正する第2の補正部と、を備える、画像処理装置が提供される。
本開示によれば、画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて画像の輝度を補正することと、前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正することと、を備える、画像処理方法が提供される。
本開示によれば、被写体の画像を撮像する撮像素子と、前記画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて前記画像の輝度を補正する第1の補正部と、前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正する第2の補正部と、を有する画像処理装置と、を備える、撮像装置が提供される。
以上説明したように本開示によれば、高速フレームレートの撮像において、フリッカを抑制することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る撮像装置を示す模式図である。 第1のフリッカ補正部による処理と、第2のフリッカ補正部による処理を並列して行う例を示す模式図である。 アナログゲインをRGB毎に設定できる撮像素子を用いた例を示す模式図である。 、図1Aの構成に加えて、目標とする対象物の検出を行うことができる対象物検出部と、対処物を検出した後のフレームにおいて、対象物の場所を把握し続ける対象物トラッキング部を有する例を示す模式図である。 図2と同様に、アナログゲインをRGB毎に設定できる撮像素子を用いた例を示す模式図である。 露光量計算部、第1のフリッカ補正部、第2のフリッカ補正部、露光量制御部による処理を示す模式図である。 撮像素子がグローバルシャッタ(GS)であるか否かに応じて、補正の方法を切り換える処理を示すフローチャートである。 図3に示す構成例における処理の流れを示すフローチャートである。 図3に示す構成例における処理の流れを示すフローチャートである。 撮像素子がグローバルシャッタ(GS)の場合に、第1のフリッカ補正部、第2のフリッカ補正部による、アナログゲインを用いたフリッカ補正を示す模式図である。 撮像素子がローリングシャッタ(RS)の場合に、第1のフリッカ補正部、第2のフリッカ補正部による、アナログゲインを用いたフリッカ補正を示す模式図である。 R,G,B毎の積算値のフリッカ周期1周期分を使って、積算値を取得できない部分の値を補完アルゴリズムによって補完する例を示す模式図である。 補正値iを予測する方法を示す模式図であって、フレームレートfps、光源周波数Hz時の補完方法を示す模式図である。 対象物をトラッキングする手法を説明するための模式図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.撮像装置の構成例
2.フリッカ補正の詳細
3.本実施形態のバリエーションについて
4.対象物の検出、トラッキングについて
5.応用例
1.撮像装置の構成例
まず、図1Aを参照して、本開示の一実施形態に係る撮像装置1000の構成について説明する。図1Aに示すように、撮像装置1000は、撮像素子100、A/D変換部110、露光量計算部120、フリッカ検出部130、第1のフリッカ補正部140、第2のフリッカ補正部150、信号処理部160、露光制御部170、を有して構成されている。
撮像素子100は、例えば1000[fps]程度の高速のフレームレートで被写体を撮像する。なお、本実施形態において、高速のフレームレートとは、例えば、後述するフリッカ現象の周波数に対して2倍以上の周波数のフレームレートをいうものとする。
撮像素子100は、複数の画素が行列状に配置されたセンサ面を有しており、画像の撮像に利用される撮像有効領域に配置された画素の受光量に応じた画素値により構築される撮像画像を出力する。
また、撮像素子100のセンサ面には、通常の撮像に使用される画素の他に、撮像環境の明るさを検出することに特化した画素(OPD(Optical Photo Detector)画素ともいう)が配置されていても良い。OPD画素により、撮像環境の明るさを示すOPD値を検出することができる。
ここで、例えば、撮像素子100では、ベイヤ配列に従って、赤色(R)、緑色(G)、青色(B)のカラーフィルタが有効画素に配置されている。OPD画素では、明るさを検出するために無色とされている。このため、撮像素子100が取得した各画素の画素値に対して、前処理を行うことにより、OPD画素の配置箇所に本来配置されていた色と同色であって、かつ、そのOPD画素の近隣にある複数の有効画素の画素値を線形補間し、OPD画素の配置位置に対応する箇所の画素値を求めても良い。
撮像素子100で撮像された画像データ(画素値)は、A/D変換部110でデジタル信号に変換され、フリッカ検出部130に入力される。フリッカ検出部130は、フリッカ検出を実施する。これにより、フリッカ光源の周波数が推定される。
フリッカ検出部130による、フリッカ周期情報の推定について説明する。例えば、本実施形態においては、画像の輝度の平均値を複数の撮像フレームごとに格納しておき、格納したデータに対して離散フーリエ変換(Discrete Fourier Transform:DFT)を用いることにより、周波数、位相等のフリッカ現象の情報を推定する。
詳細には、対象物がフリッカ現象を生じさせるフリッカ光源(例えば、蛍光灯など)に照射されている場合においては、複数の撮像フレームにおける対象物の輝度は、フリッカ現象の周期に従って変化するはずである。そこで、本実施形態においては、所定のフレームレートで取得された複数の撮像フレームごとに対象物の画像に対応する複数の画素の輝度の平均値を取得する。そして、DFT(離散フーリエ変換)を適用することにより、輝度の時間変化、すなわち、輝度の時間変化における周波数成分(周波数、点灯時間の幅、点灯間隔等)を推定する。
周期情報を推定する際に用いる撮像フレームは、フリッカ現象の周期に比べて高速のフレームレートで取得されていることから、DFTを適用することにより、フリッカ現象の周期情報を推定することが可能である。
なお、本実施形態においては、周期情報の推定は、上述の例に限定されるものではなく、他の方法を用いてもよい。例えば、所定の期間における複数の撮像フレームを解析し、対象物が明るい状態から暗くなり、再度明るくなるまでのフレームの数をカウントすることにより、フリッカ現象の周期情報を推定してもよい。
また、A/D変換部110でデジタル信号に変換された画像データは、露光量計算部120、第1のフリッカ補正部140、第2のフリッカ補正部150に順次入力される。図5は、露光量計算部120、第1のフリッカ補正部140、第2のフリッカ補正部150、露光量制御部170による処理を示す模式図である。
露光量計算部120では、検波値と測光モードから露光量を計算する。先ず、検波値取得ステップ(ステップS10)では、画面をn枠に分割した時に、それぞれの枠に入っている輝度値の積算値とピクセル数を取得する。測光モード取得ステップ(ステップS12)では、各枠の重みを取得する。これらを用いて、評価値を以下の式から求める。なお、評価値の求め方はこの方法に限られるものではなく、他の計算方法で求めても良い。評価値が求まると、評価値と目標値とのずれに基づいて、目標値に収束する露光量を求める(ステップS14)。
2.フリッカ補正の詳細
第1のフリッカ補正部140では、推定されたフリッカ周波数とフリッカ周期分の輝度値情報を用いて、露光量計算部120で計算された露光量に対して、画面全体に対してフリッカ分を補正する。具体的に、第1のフリッカ補正部140は、画が黒潰れ、白とびしない補正量になるように、露光量を補正し、その露光量を露光量制御部170に通知することにより、アナログゲインを用いたフリッカ補正を実施する。
露光量制御部170は、撮像素子100が撮像した画像データに基づいて、適切な露出量になるように露光量計算部120が計算した露光量に対して、第1のフリッカ補正部10で計算された補正量を元に撮像素子100の露光制御を実施する。
図5では、露光量計算部120による処理に続いて、第1のフリッカ補正部140、露光量制御部170、第2のフリッカ補正部150による処理を示している。第1のフリッカ補正部140では、露光量計算部120で求められた露光量に対して、フリッカ補正量を加味した補正露光量を計算する(ステップS16)。この補正露光量を用いて、露光制御部170でシャッター、ゲイン値が計算され、撮像素子100に値が反映される(ステップS18)。これにより、撮像素子100にて取得されるアナログ値が補正されることになり、アナログゲインによる補正を行うことができる。これにより、デジタルゲインを用いた補正と異なり、画像の黒潰れ、白とびを抑制できる。
また、第2のフリッカ補正部150では、RGB毎に異なるデジタルゲイン変調を施すことで、フリッカ光源毎の波長特性(R/G/B毎の特性)の違いを補正する。第2のフリッカ補正部150では、第1のフリッカ補正部140で既に補正されている分の差分を補正する。図5に基づいて処理の流れを説明すると、第2のフリッカ補正部150では、フリッカ補正用の露光量を計算する(ステップS20)。そして、第1のフリッカ補正部140での補正量を差し引いた補正量を適応する(ステップS22)。第2のフリッカ補正部150にて補正された画像は、信号処理部160で所望の信号処理が施され、画像信号として出力される。
第2のフリッカ補正部150による処理では、撮像素子100がグローバルシャッタ(GS)のセンサであるか否かに応じて、補正の方法が異なる。図6は、撮像素子100がグローバルシャッタ(GS)であるか否かに応じて、補正の方法を切り換える処理を示すフローチャートである。
先ず、ステップS30では、撮像素子100がグローバルシャッタ(GS)のセンサであるか否かが判定される。撮像素子100がグローバルシャッタ(GS)のセンサの場合は、ステップS32へ進み、画面全体に対して補正を行う。一方、撮像素子100がグローバルシャッタ(GS)のセンサではなく、ローリングシャッタ(RS)のセンサである場合は、ステップS34へ進み、ライン毎に補正を行う。ステップS36では、信号処理部160による信号処理が行われる。
図8は、撮像素子100がグローバルシャッタ(GS)の場合に、第1のフリッカ補正部140、第2のフリッカ補正部150による、デジタルゲインを用いたフリッカ補正を示す模式図である。グローバルシャッタ(GS)では、全画素で同時に画素値の読み出しが行われる。図8では、最も左側に、時系列に縦方向に並べた10フレームの画像を模式的に示している。また、第1のフリッカ補正部140で行われる処理を説明するために、フリッカ波形と、補正後のフリッカ波形を示している。また、第2のフリッカ補正部150で行われる処理を説明するために、補正前のR,G,Bの各信号と、補正後のR,G,Bの各信号を示している。
第1のフリッカ補正部140では、各フレームのフリッカ波形bのフリッカ周期1周期分の平均値dを補正の目標値とする。ここで、フリッカ波形bは、フリッカ現象によりOPD画素の画素値が変化する様子を示しており、グローバルシャッタ(GS)の場合、フレーム毎にOPD画素の画素値が変化する。
フリッカ周期1周期前のフリッカ波形bに基づき、目標値(平均値d)と各フレームのフリッカ周期1周期前のフリッカ波形bの平均値aを用いて、平均値aと平均値dとの差分である補正値cをフレーム毎に求める。補正値cをフリッカ波形bに適用した結果は、図8に示す補正後のフリッカ波形eとなる。露光量制御部170が補正量cに基づいて露光制御を行うことにより、補正後のフリッカ波形eでは、補正前の平均値aがフリッカ波形e上に移動している。これにより、輝度成分について、フリッカ現象による変動を抑制できる。
次に、第2のフリッカ補正部150によるフリッカ補正について説明する。上述したように、第2のフリッカ補正部150では、撮像素子100がグローバルシャッタ(GS)かローリングシャッタ(RS)かに応じて補正方法が選択される。図8では、撮像素子100がグローバルシャッタ(GS)であるため、画面全体に対して、RGB毎にフリッカ補正を実施する。
図8に示す、第2のフリッカ補正部150で行われる処理では、説明の便宜上、1番目のフレームに対して行われる処理のみを示している。図8に示す波形fは、第2のフリッカ補正部150による補正前の輝度YとR,G,Bの画素値の関係を示している。第1のフリッカ補正部140において輝度Yによる補正を実施したことにより、輝度Yについては、補正前の平均値aが目標値に補正されている。
一方、第1のフリッカ補正部140による補正を行った場合でも、輝度信号YとR,G,B信号との間には位相や振幅で差異がある。具体的に、第1のフリッカ補正部140による補正後のR信号、G信号、B信号は、図8の「第2のフリッカ処理部で行われる処理」の補正前の状態に示されている波形fのようになる。波形fでは、R信号、G信号、B信号のそれぞれについて、中央の目標値に対してずれが生じていることが判る。
このため、第2のフリッカ補正部150は、画面全体のRGB値からRGB毎に補正量を計算し、画面全体に適用する。第2のフリッカ補正部150での処理は、第1のフリッカ補正部140での補正方法をR,G,B毎に適用したものとなる。例えば、R信号を補正する場合、1フレームの画面全体でR信号の画素値を積算し、フリッカ1周期分で積算値を平均し、これを目標値とする。補正を行う際には、1フレームの画面全体でR信号の画素値を積算し、目標値との乖離分を補正値として、補正値に相当するデジタルゲインをR信号の各画素値に乗算することで補正する。B信号、G信号についても、同様に補正を行う。デジタルゲインを画面全体に適用することで、例えば、画面内の一部の領域で被写体が動いたような場合に、その動きが補正値に与える影響を抑制することができ、ロバスト性の高いフリッカ補正を実現できる。
この際、第1のフリッカ補正部140での補正がR,G,B毎に各画素に適用されているため、第1のフリッカ補正部140により補正された分を差し引いた残りの目標値とのずれが、RGB毎に第2のフリッカ補正部150で補正される。補正結果は、図8の「第2のフリッカ処理部で行われる処理」に示されている波形gのようになる。波形gに示すように、R信号、G信号、B信号が中央の目標値に補正されていることが判る。
図9は、撮像素子100がローリングシャッタ(RS)の場合に、第1のフリッカ補正部140、第2のフリッカ補正部150による、アナログゲインを用いたフリッカ補正を示す模式図である。ローリングシャッタ(RS)の場合、ライン毎に画素値の読み出しが行われる。図9に示す処理では、フレーム内でのフリッカ波形bの挙動が図8と異なるが、処理の内容は図8と同じである。
ローリングシャッタ(RS)の場合、図9の各フレームの画像において、横方向のライン毎に順次に露光が行われる。このため、フリッカ現象による各フレームの横方向におけるライン毎のフリッカ波形bは、フリッカ現象に倣い、曲線状に変化する。
そして、図9に示すように、各フレームの画面全体から補正量cを求め、ライン毎に補正を実施する。図8と同様に、フリッカ周期の1周期分の平均値dを補正の目標値とし、各フレームのフリッカ波形bの平均値aと平均値dとの差分を補正値cとする。補正値cを適用した結果は、図8に示す「第1のフリッカ処理部で行われる処理」に示される補正後のフリッカ波形eとなる。露光量制御部170が補正量cに基づいて露光制御を行うことにより、補正後のフリッカ波形eでは、補正前の平均値aがフリッカ波形e上に移動している。
ローリングシャッタ(RS)の場合、ライン毎に露光が行われて画素値が読み出されるため、各フレームのライン毎にフリッカ現象の輝度が反映されたフリッカ波形bとなる。そして、各フレームのライン毎に補正値cが一律に適用されるため、各フレームの補正後のフリッカ波形eは、ライン毎に値が異なるものになる。
第2のフリッカ補正部150では、図8と同様の処理を行う。すなわち、フリッカ補正部140で補正された分を差し引いた残りを、R,G,B毎にフリッカ補正部150で補正する。例えば、R信号を補正する場合、1フレームの画面全体でR信号の画素値を積算し、フリッカ1周期分で積算値を平均し、これを目標値とする。そして、補正対象のフレームのR信号の画素値の積算値を求め、目標値と補正するフレームのR信号の積算値との乖離分をデジタルゲインとして、R信号の各画素値を補正する。補正結果は、図9の「第2のフリッカ処理部で行われる処理」に示されている波形gのようになる。
図9に示す例では、各フレームの中央のラインでは、輝度信号Y、R信号、G信号、B信号は、それぞれが中央の目標値に一致する。一方、第2のフリッカ補正部150による補正後の波形gにおいても、各フレームの中央のラインから離れるほど、R,G,B信号と目標値との乖離が生じる。
このため、図10に示すように、R,G,B毎の積算値のフリッカ周期1周期分を使って、積算値を取得できない部分の値を補完アルゴリズムによって補完することで予測し、補正を行うようにしても良い。
図10において、第1のフリッカ補正部140による処理は、図9と同様である。第2のフリッカ補正部150の処理では、R信号の場合を例に挙げて補正の処理を示している。第2のフリッカ補正部150の処理において、補正量hは、各フレームのR信号の積算値と目標値との乖離分から得られる値である。一方、補正値iは、各フレームの補正値hから推定することで求まる推定値である。フリッカ周波数(通常は100Hzまたは120Hz)の2倍以上の高速フレームレートで撮影をしている場合においては、サンプリング定理を満たすことで、補正値hから補正値iを予測することが可能である。
第2のフリッカ補正部150は、補正値h、補正値iを用いて、第1のフリッカ補正部140で既に補正されたR信号、G信号、B信号の画素値を更に補正する。
このように、図10に示す例では、面全体のRGB値からライン毎の補正量をRGB毎に推定し、ライン毎に補正を行う。
図11は、補正値iを予測する方法を示す模式図であって、一例として、フレームレート1000fps、光源周波数100Hzの場合の補間方法を示している。図11中において、フレーム毎に画面内でのR,G,Bのそれぞれについて画素値の平均値(図中に四角でプロットした画面平均値)が求まる。そして、画面平均値に基づいて、図11中に破線で示す推定値が求まる。画面平均値に基づく推定は、例えば、補間処理として一般的なラグランジュの補間を用いて行うことができる。図11に示すように、推定値は、フリッカ現象に応じて周期的に増減を繰り返すことが判る。
例えば、図11に示す10フレーム目まで画面内でのRGBの各信号の画面平均値が既に求められているものとする。フリッカ現象の周期がおよそNフレーム分に相当するものとすると、11フレーム目、12フレーム目のRGBの各信号の画面平均値は、N+1フレーム前、Nフレーム前、N−1フレーム前、N−2フレーム前の画面平均値から求めることができる。そして、11フレーム目、12フレーム目のライン毎のRGBの各信号は、N+1フレーム前、Nフレーム前、N−1フレーム前、N−2フレーム前の画面平均値から推定することができる。
以上のように、1周期前の画面平均値を用いて各ラインのフリッカ波形を推定することで、その結果を現フレームの補正量に適用することができる。なお、フレームレートと光源周波数との関係により1周期前の画面平均値を用いることができない場合は、M周期前(Mは任意の整数とする)の平均OPD値を用いる。
なお、ローリングシャッタ(RS)の場合にライン毎の補正を行わなくても良く、ローリングシャッタ(RS)の場合であっても、図9に示したように、ライン毎に補正量を求めずに画面全体に対しての補正量を求めて、画面単位で補正を実施しても良い。
なお、以上の説明では、ベイヤ配列の場合について説明したが、RCCB、RCCGなど、ベイヤ配列以外の場合であっても、ベイヤ配列の場合と同様に、輝度と色に分けて処理を行うことで、フリッカを補正することができる。
3.本実施形態のバリエーションについて
図1Bは、第1のフリッカ補正部140による処理と、第2のフリッカ補正部150による処理を並列して行う例を示す模式図である。図1Bに示すように、第1のフリッカ補正部140による処理と、第2のフリッカ補正部150による処理は、並行して行うことができる。
また、図2は、アナログゲインをRGB毎に設定できる撮像素子100を用いた例を示す模式図である。アナログゲインをRGB毎に設定できる撮像素子100を使用する場合は、第1のフリッカ補正部140の機能と第2のフリッカ補正部150の機能を共に備えるフリッカ補正部180を使用することができ、第1のフリッカ補正部140と第2のフリッカ補正部150に分離する必要はない。この場合、RGB毎のアナログゲインに基づいて、露光制御部170により、RGB毎に露光量が制御される。
図3は、図1Aの構成に加えて、目標とする対象物の検出を行うことができる対象物検出部190と、対象物を検出した後のフレームにおいて、対象物の場所を把握し続ける対象物トラッキング部200を有する例を示す模式図である。また、図3に示す例では、対象物トラッキング部200の後段に第3のフリッカ補正部210が設けられている。第3のフリッカ補正部210の機能は、第2のフリッカ補正部150の機能と同様であるが、トラッキングした対象物を含む所定領域で補正値を計算する点で第2のフリッカ補正部150と相違する。図3に示す例では、第3のフリッカ補正部210により、注目した対象物の付近からRGB毎に補正量を計算し、画面全体に補正を適用することが可能である。対象物の付近からRGB毎の補正量を算出することで、着目したい対象物におけるフリッカ補正を高精度に行うことができる。
図4は、図2と同様に、アナログゲインをRGB毎に設定できる撮像素子100を用いた例を示す模式図である。図4に示す例では、第1のフリッカ補正部140と第2のフリッカ補正部150が設けられておらず、図2と同様に、第1のフリッカ補正部140の機能と第2のフリッカ補正部150の機能を共に備えるフリッカ補正部180が設けられている。
更に、図4に示す例では、図3と同様に、対象物検出部190と対象物トラッキング部200が設けられており、対象物トラッキング部200の後段に第3のフリッカ補正部210が設けられている。従って、注目した対象物の付近からRGB毎に補正量を計算し、画面全体に適用することが可能である。
図7Aは、図3に示す構成例における処理の流れを示すフローチャートである。以下では、図7Aに基づいて、図3に示す構成例における処理の流れを説明する。先ず、ステップS40では、撮像素子100がグローバルシャッタ(GS)であるか否かを判定し、グローバルシャッタ(GS)の場合はステップS42へ進む。ステップS42では、対象物検出部190により対象物を検出したか否かを判定する。
ステップS42で対象物を検出した場合は、ステップS44へ進む。ステップS44では、対象物トラッキング部200により対象物のトラッキングを行う。次のステップS46では、画面内の対象物を含む所定領域の画像に基づいて、第3のフリッカ補正部210によりRGB毎に補正値を計算する。
一方、ステップS42で対象物を検出していない場合は、ステップS48へ進む。ステップS48では、第2のフリッカ補正部140により、画面全体からRGB毎に補正量を算出する。
ステップS46,S48の後はステップS50に進む。ステップS50では、ステップS46,S48で求めた補正値に基づき、画面全体でフリッカ補正を行う。次のステップS55では、信号処理部による信号処理を行う。以上のように、図3に示す構成例では、対象物検出部190により対象物が検出されていない場合は、第3のフリッカ補正部210によるフリッカ補正は行われずに、第2のフリッカ補正部140によるフリッカ補正が行われる。そして、第2のフリッカ補正部140によるフリッカ補正後の画像から対象物が検出された場合は、第3のフリッカ補正部210による対象物の領域付近でのフリッカ補正が行われる。第2のフリッカ補正部140によるフリッカ補正後の画像から対象物を検出することで、対象物を確実に検出することが可能となる。また、第2のフリッカ補正部140によるフリッカ補正後の画像から対象物が検出された場合は、第3のフリッカ補正部210による対象物の領域付近でのフリッカ補正を行うことで、着目したい対象物におけるフリッカ補正を高精度に行うことができる。第3のフリッカ補正部210によるフリッカ補正が開始すると、第2のフリッカ補正部140によるフリッカ補正は停止される。
また、ステップS40でグローバルシャッタ(GS)でない場合、すなわちローリングシャッタ(RS)の場合は、ステップS52へ進む。ステップS52では、第2のフリッカ補正部140により、画面全体からRGB毎に補正値を計算し、次のステップS54では、図10に示したようにライン毎に補正を行う。ステップS50,S54の後はステップS55へ進み、信号処理部160による信号処理が行われる。
図7Aの処理では、ローリングシャッタ(RS)の場合は対象物検出を行わない場合を示したが、図7Bに示すように、ローリングシャッタ(RS)の場合に対象物検出を行うようにしても良い。図7Bの処理では、ステップS40,S42,S44,S46,S48,S50,S55の処理は、図7Aと同様に行われる。ステップS40でローリングシャッタ(RS)と判定された場合は、ステップS60へ進む。ステップS60では、対象物検出部190により対象物を検出したか否かを判定する。
ステップS60で対象物を検出した場合は、ステップS62へ進む。ステップS62では、対象物トラッキング部200により対象物のトラッキングを行う。次のステップS64では、画面内の対象物を含む所定領域の画像に基づいて、第3のフリッカ補正部210によりRGB毎に補正値を計算する。次のステップS68では、画面全体でフリッカの補正を行う。
一方、ステップS60で対象物を検出していない場合は、ステップS66へ進む。ステップS66では、第2のフリッカ補正部150により、画面全体からRGB毎に補正量を算出する。次のステップS70では、図10に示したように、ライン毎にフリッカ補正を行う。
ステップS68,S70の後はステップS55に進む。ステップS55では、ステップS68,S70で求めた補正値に基づき、画面全体でフリッカ補正を行う。以上のように、図7Bの処理によれば、撮像素子100がローリングシャッタ(RS)の場合に、対象物をトラッキングしている場合は、対象物を含む所定領域の画像に基づいてRGB毎のフリッカ補正が行われる。また、撮像素子100がローリングシャッタ(RS)の場合に、対象物をトラッキングしていない場合は、画面全体からRGB毎に補正量を算出し、ライン毎にフリッカ補正が行われる。
4.対象物の検出、トラッキングについて
図12は、対象物検出部190による対象物の検出の例を示す模式図である。図12に示す例においては、高速フレームレートで撮像された複数の撮像フレームから、トラッキングの対象となる対象物を検出する方法を示している。図12では、対象物の一例として人間の手を示している。この手は、キーボードに対するタイピングのために、狭い領域において微小に移動しているものとする。なお、本実施形態において、対象物は、このような人間の手に限定されるものではない。
先ず、撮像したカラーの撮像フレームに対して画像処理を行い、図12の左側に示すようなグレースケール化された撮像フレーム(元画像200,202)を生成する。詳細には、例えば赤色(R)についてグレースケール化された撮像フレームを生成する場合には、カラーの撮像フレームにおける各画素の赤色(R)の画素値を色情報として抽出する。この場合、グレースケール化された撮像フレームにおいては、R画素値が高い画素は白くなり、R画素値が低い場合には黒くなる。元画像200に対して、次フレームの元画像202は手の位置が移動している。
そして、グレースケール化された撮像フレームの各画素のR画素値を所定の閾値と比較し、例えば、所定の閾値以上の画素の画素値を1に変換し、所定の閾値未満の画素の画素値を0に変換する。このようにすることで、図12の中央に示されるような2値化された撮像フレームの画像210,212を生成することができる。図12の中央に示される2値化された2つの画像210,212では、手の画素値が1に変換され、手の周辺の画素値が0に変換されている。
なお、グレースケール化された撮像フレームを生成する際には、赤色、緑色、青色(RGB)のいずれかの画素値を抽出しても良いし、3つの画素値の平均値を用いても良い。また、各画素値に重み付けした後に、各画素値を積算した値を用いてもよい。また、グレースケール化された撮像フレームを生成する際には、検出しようとする対象物の特徴に応じて、好適な色、方法を選択することが好ましい。
そして、図12の中央上段に示す2値化された2つの撮像フレームの画像210,212を比較し、撮像フレーム間の差分をとった画像214を抽出することにより、画像214内で動きが生じた特定の領域(対象物)を抽出する。画像214において、手が動いた領域は画素値の差分が1になるため、白色で示されている。従って、画像214中において、白色で示された領域が、対象物(手)の動きとして検出されることになる。そして、このような処理を繰り返すことにより、対象物をトラッキングすることができる。
なお、本実施形態においては、対象物の検出は上述の方法に限定されるものではなく、例えば、対象物の特徴点を予め記憶しておき、撮像フレームから記憶した特徴点を抽出することにより、対象物の検出を行ってもよい。例えば、この場合、対象物が人物の顔であった場合には、人物の顔の特徴点(目、鼻、口)に基づいて、人物の検出を行う。
次に、対象物トラッキング部200による対象物のトラッキングについて詳細に説明する。図12の右側の画像216に示すように、対象物トラッキング部200は、検出された対象物(手)に対して、トラッキング(追跡)を行う。
例えば、セルフウィンドウ法を用いて、高速フレームレートで撮像された連続した複数の撮像フレームにおいて、対象物をトラッキングし続ける。セルフウィンドウ法は、高速フレームレートで撮像された撮像フレームにおいて、対象物をトラッキングするアルゴリズムの一種である。高速フレームレートで撮像した場合、複数の撮像フレームにおける対象物の移動距離(差分)は小さい。従って、前の撮像フレームにおける対象物の周囲の領域に、当該対象物を抽出するための抽出ウィンドウを設定した場合、次の撮像フレームにおいても、当該対象物は上記抽出ウィンドウの中に含まれることとなる。
より具体的には、抽出ウィンドウは、前の撮像フレームにおける対象物を示す画素領域に対して1画素分だけ外側に膨らませた画素領域として設定される。もし、次の撮像フレームレートにおいて対象物が設定した抽出ウィンドウに含まれていない場合には、フレームレートを更に高速にすることにより、対象物を抽出ウィンドウに含まれるようにすることができる。そして、対象物の移動距離が小さいことから、対象物を探査する範囲である抽出ウィンドウの面積を狭くすることができる。従って、抽出ウィンドウ内で画像のマッチング等を行うことにより、対象物を容易に検出することが可能となる。図12の例では、手を検出するために肌色を用い、肌色を構成するR,G,Bの画素値が抽出ウィンドウにあるか否かで、対象物をトラッキングすることが可能である。
なお、抽出ウィンドウは、前の撮像フレームにおける対象物を示す画素領域に対して1画素分だけ外側に膨らませた画素領域として設定されるとして説明したが、本実施形態においては1画素分だけ膨らませることに限定されるものではない。例えば、2以上の画素分だけ膨らませた画素領域を抽出ウィンドウとして設定してもよい。膨らませる画素の数は、例えば、フレームレートと対象物の速度等に応じて適宜選択することができる。
また、次の撮像フレームレートにおいて、対象物が設定した抽出ウィンドウに含まれていない場合には、フレームレートを更に高速にするものとしたが、このような方法に限定されるものではない。例えば、抽出ウィンドウの設定の際に膨らせる画素の数を調整することにより、対象物を当該抽出ウィンドウに含まれるようにしても良い。
さらに、セルフウィンドウ法は、前の撮像フレームから計算される抽出ウィンドウと、次の2値化された対象物の画像の間での論理積を計算することにより、ターゲット抽出画像を生成し、対象物をトラッキングする。また、セルフウィンドウ法によれば、前後の撮像フレームのターゲット抽出画像との間での対象物の画像を比較することにより、対象物の位置情報、面積(形状)情報だけでなく、対象物の移動方向、移動速度等の情報も取得することができる。以上の説明から明らかなように、セルフウィンドウ法を用いる場合、対象物をトラッキングする際に用いる撮像フレームは、高速フレームレートにて撮像されていることが好ましい。
なお、本実施形態においては、対象物のトラッキングは、上述の例に限定されるものではなく、他の方法を用いてもよい。例えば、本実施形態においては、前後の撮像フレームに共通する特徴点に基づいて、対象物のトラッキングを行ってもよい。
以上説明したように本実施形態によれば、第1のフリッカ補正部140によるフリッカ補正を行うことで、撮像素子100で取得されたアナログデータの時点で、サチュレーション(白とび、黒潰れ)の発生を抑制でき、S/Nを高めることができる。また、撮像素子100の移動、動被写体に対してもロバスト性のあるフリッカ補正方法を提供することが可能となる。
4.応用例
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図13は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図13に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図13では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図14は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図14には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図13に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図13の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図13に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
以上説明した車両制御システム7000において、図1等を用いて説明した本実施形態に係る撮像装置1000情報処理装置100は、図13に示した応用例の撮像部7410に適用することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて前記画像の輝度を補正する第1の補正部と、
前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正する第2の補正部と、
を備える、画像処理装置。
(2) 前記第1の補正部は、複数のフレームにおける前記輝度平均値を平均して得られる値を目標値として、前記画像の輝度が当該目標値になるように補正する、前記(1)に記載の画像処理装置。
(3) 前記複数のフレームは、フリッカ現象による輝度変化の少なくとも1周期分を含む、前記(2)に記載の画像処理装置。
(4) 前記第1の補正部が前記輝度平均値の周期的な変化に基づいて算出した補正値に基づいて、前記画像の露光量を制御する露光量制御部を備える、前記(1)〜(3)のいずれかに記載の画像処理装置。
(5) 前記第2の補正部は、前記第1の補正部による補正が行われた前記画像に対して補正を行う、前記(1)〜(4)のいずれかに記載の画像処理装置。
(6) 前記第2の補正部は、前記画像の複数の前記色情報の値をそれぞれの積算値を求め、複数のフレームにおける前記積算値を平均して得られる値を目標値として、前記積算値が当該目標値となるように複数の前記色情報のそれぞれを補正する、前記(1)〜(5)のいずれかに記載の画像処理装置。
(7) 前記複数のフレームは、フリッカ現象による前記色情報の変化の少なくとも1周期分を含む、前記(6)に記載の画像処理装置。
(8) 複数の前記色情報は、赤、緑、青の3色の前記色情報である、前記(6)に記載の画像処理装置。
(9) 前記第2の補正部は、前記色情報を前記画像の全体で一律に補正する、前記(1)〜(8)のいずれかに記載の画像処理装置。
(10) 前記第2の補正部は、前記色情報の画素配列のライン毎に補正する、前記(1)〜(8)のいずれかに記載の画像処理装置。
(11) 前記第2の補正部は、1フレーム内の任意のラインについては、前記積算値に基づいて補正を行い、
前記任意のライン以外のラインについては、前記積算値から推定される推定値に基づいて補正を行う、前記(6)に記載の画像処理装置。
(12) 前記画像内で対象物を検出する対象物検出部と、
前記対象物をトラッキングするトラッキング部と、を備え、
前記第2の補正部は、前記トラッキングした前記対象物を含む所定領域で前記色情報を補正する、前記(1)〜(11)のいずれかに記載の画像処理装置。
(13) 画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて画像の輝度を補正することと、
前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正することと、
を備える、画像処理方法。
(14) 被写体の画像を撮像する撮像素子と、
前記画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて前記画像の輝度を補正する第1の補正部と、前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正する第2の補正部と、を有する画像処理装置と、
を備える、撮像装置。
100 撮像素子
140 第1のフリッカ補正部
150 第2のフリッカ補正部
170 露光制御部
1000 撮像装置

Claims (14)

  1. 画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて前記画像の輝度を補正する第1の補正部と、
    前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正する第2の補正部と、
    を備える、画像処理装置。
  2. 前記第1の補正部は、複数のフレームにおける前記輝度平均値を平均して得られる値を目標値として、前記画像の輝度が当該目標値になるように補正する、請求項1に記載の画像処理装置。
  3. 前記複数のフレームは、フリッカ現象による輝度変化の少なくとも1周期分を含む、請求項2に記載の画像処理装置。
  4. 前記第1の補正部が前記輝度平均値の周期的な変化に基づいて算出した補正値に基づいて、前記画像の露光量を制御する露光量制御部を備える、請求項1に記載の画像処理装置。
  5. 前記第2の補正部は、前記第1の補正部による補正が行われた前記画像に対して補正を行う、請求項1に記載の画像処理装置。
  6. 前記第2の補正部は、前記画像の複数の前記色情報の値をそれぞれの積算値を求め、複数のフレームにおける前記積算値を平均して得られる値を目標値として、前記積算値が当該目標値となるように複数の前記色情報のそれぞれを補正する、請求項1に記載の画像処理装置。
  7. 前記複数のフレームは、フリッカ現象による前記色情報の変化の少なくとも1周期分を含む、請求項6に記載の画像処理装置。
  8. 複数の前記色情報は、赤、緑、青の3色の前記色情報である、請求項6に記載の画像処理装置。
  9. 前記第2の補正部は、前記色情報を前記画像の全体で一律に補正する、請求項1に記載の画像処理装置。
  10. 前記第2の補正部は、前記色情報の画素配列のライン毎に補正する、請求項1に記載の画像処理装置。
  11. 前記第2の補正部は、1フレーム内の任意のラインについては、前記積算値に基づいて補正を行い、
    前記任意のライン以外のラインについては、前記積算値から推定される推定値に基づいて補正を行う、請求項6に記載の画像処理装置。
  12. 前記画像内で対象物を検出する対象物検出部と、
    前記対象物をトラッキングするトラッキング部と、を備え、
    前記第2の補正部は、前記トラッキングした前記対象物を含む所定領域で前記色情報を補正する、請求項1に記載の画像処理装置。
  13. 画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて画像の輝度を補正することと、
    前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正することと、
    を備える、画像処理方法。
  14. 被写体の画像を撮像する撮像素子と、
    前記画像の輝度平均値を算出し、前記輝度平均値の周期的な変化に基づいて前記画像の輝度を補正する第1の補正部と、前記画像の色情報を取得し、前記色情報の周期的な変化に基づいて前記色情報を補正する第2の補正部と、を有する画像処理装置と、
    を備える、撮像装置。
JP2017236879A 2017-12-11 2017-12-11 画像処理装置、画像処理方法及び撮像装置 Pending JP2019106588A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017236879A JP2019106588A (ja) 2017-12-11 2017-12-11 画像処理装置、画像処理方法及び撮像装置
PCT/JP2018/039696 WO2019116746A1 (ja) 2017-12-11 2018-10-25 画像処理装置、画像処理方法及び撮像装置
US16/768,809 US11375137B2 (en) 2017-12-11 2018-10-25 Image processor, image processing method, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236879A JP2019106588A (ja) 2017-12-11 2017-12-11 画像処理装置、画像処理方法及び撮像装置

Publications (1)

Publication Number Publication Date
JP2019106588A true JP2019106588A (ja) 2019-06-27

Family

ID=66820240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236879A Pending JP2019106588A (ja) 2017-12-11 2017-12-11 画像処理装置、画像処理方法及び撮像装置

Country Status (3)

Country Link
US (1) US11375137B2 (ja)
JP (1) JP2019106588A (ja)
WO (1) WO2019116746A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021019929A1 (ja) * 2019-07-26 2021-02-04 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距システムおよび測距装置の調整方法
JP2023526688A (ja) * 2020-06-10 2023-06-22 コーニンクレッカ フィリップス エヌ ヴェ ピクセル情報の決定

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230254591A1 (en) * 2022-02-09 2023-08-10 Samsung Electronics Co., Ltd. System and method for flicker avoidance in multi-frame multi-exposure image captures

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177427A (ja) 1993-12-20 1995-07-14 Victor Co Of Japan Ltd ビデオカメラ
JP4861234B2 (ja) * 2007-04-13 2012-01-25 株式会社エルモ社 露出制御方法及び撮像装置
JP4856249B2 (ja) * 2007-09-27 2012-01-18 シャープ株式会社 表示装置
JP2009290660A (ja) * 2008-05-30 2009-12-10 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラムおよび印刷装置
JP5132470B2 (ja) * 2008-08-01 2013-01-30 三洋電機株式会社 画像処理装置
JP5299867B2 (ja) * 2009-06-30 2013-09-25 日立コンシューマエレクトロニクス株式会社 画像信号処理装置
US9897792B2 (en) * 2012-11-30 2018-02-20 L&T Technology Services Limited Method and system for extended depth of field calculation for microscopic images
JP6576028B2 (ja) 2014-10-21 2019-09-18 キヤノン株式会社 画像処理装置及び画像処理方法
JP2016122941A (ja) 2014-12-25 2016-07-07 キヤノン株式会社 画像処理装置
US10536633B2 (en) * 2015-02-06 2020-01-14 Panasonic Intellectual Property Management Co., Ltd. Image processing device, imaging system and imaging apparatus including the same, and image processing method
JP2017098777A (ja) 2015-11-25 2017-06-01 キヤノン株式会社 撮像装置及びその制御方法、プログラム
KR102287944B1 (ko) * 2015-12-22 2021-08-09 삼성전자주식회사 영상 출력 장치 및 영상 출력 방법
US10354370B2 (en) * 2016-03-24 2019-07-16 Panasonic Intellectual Property Management Co., Ltd. Image processor, image processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021019929A1 (ja) * 2019-07-26 2021-02-04 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距システムおよび測距装置の調整方法
JP2023526688A (ja) * 2020-06-10 2023-06-22 コーニンクレッカ フィリップス エヌ ヴェ ピクセル情報の決定
JP7418617B2 (ja) 2020-06-10 2024-01-19 コーニンクレッカ フィリップス エヌ ヴェ ピクセル情報の決定

Also Published As

Publication number Publication date
US20210176390A1 (en) 2021-06-10
WO2019116746A1 (ja) 2019-06-20
US11375137B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
US10957029B2 (en) Image processing device and image processing method
US10880498B2 (en) Image processing apparatus and image processing method to improve quality of a low-quality image
WO2017057043A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JPWO2018037678A1 (ja) 画像処理装置および情報生成装置と情報生成方法
JP6977722B2 (ja) 撮像装置、および画像処理システム
WO2017057057A1 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2018150685A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US11585898B2 (en) Signal processing device, signal processing method, and program
WO2019116746A1 (ja) 画像処理装置、画像処理方法及び撮像装置
JP6981416B2 (ja) 画像処理装置と画像処理方法
JP2019145021A (ja) 情報処理装置、撮像装置、及び撮像システム
JP7363890B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN111868778B (zh) 图像处理装置、图像处理方法以及存储介质
WO2019215979A1 (ja) 画像処理装置、車載装置、画像処理方法及びプログラム
WO2018034157A1 (ja) 画像処理装置、画像処理方法、および撮像装置
WO2021229983A1 (ja) 撮像装置及びプログラム
US11438517B2 (en) Recognition device, a recognition method, and a program that easily and accurately recognize a subject included in a captured image
US10791287B2 (en) Imaging control apparatus and method, and vehicle