JP2018019387A - 信号処理装置、撮影装置、及び、信号処理方法 - Google Patents

信号処理装置、撮影装置、及び、信号処理方法 Download PDF

Info

Publication number
JP2018019387A
JP2018019387A JP2016181496A JP2016181496A JP2018019387A JP 2018019387 A JP2018019387 A JP 2018019387A JP 2016181496 A JP2016181496 A JP 2016181496A JP 2016181496 A JP2016181496 A JP 2016181496A JP 2018019387 A JP2018019387 A JP 2018019387A
Authority
JP
Japan
Prior art keywords
image
synthesis
unit
signal
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016181496A
Other languages
English (en)
Inventor
小泉 誠
Makoto Koizumi
誠 小泉
昌勝 藤本
Masakatsu Fujimoto
昌勝 藤本
一高 岡本
Kazutaka Okamoto
一高 岡本
大輝 山崎
Daiki Yamazaki
大輝 山崎
康史 柴田
Yasushi Shibata
康史 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to PCT/JP2017/024105 priority Critical patent/WO2018012317A1/ja
Priority to US16/316,075 priority patent/US10805548B2/en
Publication of JP2018019387A publication Critical patent/JP2018019387A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields

Abstract

【課題】輝度差が非常に大きいシーンにおいて、点滅する撮影対象を確実に撮影することができるようにする。【解決手段】異なる露光時間で撮影された複数の画像間における差分を検出し、その差分に基づいて、複数の画像の合成割合を示す合成係数を算出し、その合成係数に基づいて複数の画像を合成することで、輝度差が非常に大きいシーンにおいて、点滅する撮影対象を確実に撮影することができる。本技術は、例えば、画像を撮影するカメラユニット等に適用することができる。【選択図】図7

Description

本技術は、信号処理装置、撮影装置、及び、信号処理方法に関し、特に、例えば、輝度差が非常に大きいシーンにおいて、点滅する撮影対象を確実に撮影することができるようにした信号処理装置、撮影装置、及び、信号処理方法に関する。
近年、自動運転など高度な運転制御を実現する事を目的として自動車に車載カメラが搭載されるケースが増えている。
しかしながら、車載カメラでは安全性を確保するため、トンネルの出口など輝度差が非常に大きい条件においても視認性を担保する事が求められており、画像の白飛びを抑えて広ダイナミックレンジ化するための技術が必要な状況である。このような白飛びの対策としては、例えば、特許文献1に開示されている技術が知られている。
また、近年、信号機や、電子的な道路標識の光源が、白熱電球等からLED(Light Emitting Diode)に置き換わりつつある。
LEDは、白熱電球に比較して、明滅の応答速度が高速であるため、例えば、自動車等に搭載される車載カメラ等で、LEDの信号機や道路標識を撮影すると、フリッカが発生し、信号機や道路標識が消灯した状態で撮影される。このようなフリッカの対策としては、例えば、特許文献2に開示されている技術が知られている。
特開平5−64075号公報 特開2007−161189号公報
ところで、トンネルの出口など輝度差が非常に大きいシーンにおいて、明滅の応答速度が高速なLEDの信号機や道路標識などを確実に撮影するための技術は確立されておらず、そのような技術が求められていた。
本技術はこのような状況に鑑みてなされたものであり、輝度差が非常に大きいシーンにおいて、点滅する撮影対象を確実に撮影することができるようにするものである。
本技術の一側面の信号処理装置は、異なる露光時間で撮影された複数の画像間における差分を検出する検出部と、前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出する合成係数算出部と、前記合成係数に基づいて前記複数の画像を合成する合成部と、を備える信号処理装置である。
本技術の一側面の撮影装置は、異なる露光時間で撮影された複数の画像を生成する画像生成部と、前記複数の画像間における差分を検出する検出部と、前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出する合成係数算出部と、前記合成係数に基づいて前記複数の画像を合成する合成部と、を備える撮影装置である。
本技術の一側面の信号処理方法は、異なる露光時間で撮影された複数の画像間における差分を検出することと、前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出することと、前記合成係数に基づいて前記複数の画像を合成することと、を含む信号処理方法である。
本技術の一側面の信号処理装置、撮影装置、及び信号処理方法においては、異なる露光時間で撮影された複数の画像間における差分が検出され、前記差分に基づいて、前記複数の画像の合成割合を示す合成係数が算出され、前記合成係数に基づいて前記複数の画像が合成される。
信号処理装置や撮影装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。
本技術の一側面によれば、輝度差が非常に大きいシーンにおいて、点滅する撮影対象を確実に撮影することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
輝度差が非常に大きい撮影対象の撮影の例を説明する図である。 点滅する撮影対象の撮影の例を説明する図である。 輝度差が非常に大きい撮影対象に対する対処方法を説明する図である。 信号機の点灯状態が記録されるべきであるにも関わらず、消灯状態が記録されてしまう場合の例を示す図である。 点滅光源の消灯期間を上回る露光時間で撮影を行う場合の例を示す図である。 光源の点滅周期をN等分割したタイミングでN回撮影を行い、N枚の撮影データを取得する場合の例を示す図である。 本技術を適用した撮影装置としてのカメラユニットの一実施の形態の構成例を示すブロック図である。 タイミング制御部によるシャッタ制御の例を示す図である。 タイミング制御部によるシャッタ制御の例を示す図である。 信号処理部の構成例を示す図である。 2枚合成を行う場合の信号処理を説明するフローチャートである。 信号処理部による信号処理の処理結果の例を示す図である。 信号処理部による信号処理の処理結果の例を示す図である。 3枚合成を行う場合の信号処理部の構成例を示す図である。 3枚合成を行う場合の信号処理を説明するフローチャートである。 3枚合成を行う場合の信号処理を説明するフローチャートである。 3枚合成を行う場合の信号処理部の他の構成例を示す図である。 動き検出部による動き検出処理の変形例を示す図である。 動き検出部による動き検出処理の他の変形例を示す図である。 本技術の信号処理の詳細な内容を説明する図である。 本技術の信号処理の詳細な内容を説明する図である。 本技術の信号処理の詳細な内容を説明する図である。 本技術の信号処理の詳細な内容を説明する図である。 積層型の固体撮像装置の構成例を示す図である。 画素領域と信号処理回路領域の詳細な構成例を示す図である。 積層型の固体撮像装置の他の構成例を示す図である。 画素領域と信号処理回路領域とメモリ領域の詳細な構成例を示す図である。 コンピュータの構成例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.本技術の概要
2.本技術の実施の形態
3.本技術の実施の形態の変形例
4.本技術の信号処理の詳細な内容
5.固体撮像装置の構成例
6.コンピュータの構成例
7.応用例
<1.本技術の概要>
(輝度差が非常に大きい撮影対象の撮影の例)
近年、自動運転など高度な運転制御を実現する事を目的として自動車に車載カメラが搭載されるケースが増えている。しかしながら、車載カメラでは安全性を確保するため、トンネルの出口など輝度差が非常に大きい条件においても視認性を担保する事が求められており、画像の白飛びを抑えて広ダイナミックレンジ化するための技術が必要な状況である。
図1は、輝度差が非常に大きい撮影対象の撮影の例を説明する図である。図1においては、トンネルの出口の撮影の例を示しているが、トンネルの出口の状況が認識できないと、安全を確保するための運転制御を行うことができない。
(点滅する撮影対象の撮影の例)
また、近年において、信号機や標識の光源が電球からLEDに置き換わりつつある。しかしながらLEDは明滅の応答速度が従来式の電球に比べて高速であるため、撮影装置でLEDの信号機や標識を撮影するとフリッカが発生し消灯して見えてしまうという問題があり、ドライブレコーダの証拠能力の担保や自動車の運転自動化に向けて大きな課題となっている。
図2は、点滅する撮影対象の撮影の例を説明する図である。図2において、第1フレーム(Frame1)と第2フレーム(Frame2)の画像では、青(左端)が点灯している信号機が映っているが、第3フレーム(Frame3)と第4フレーム(Frame4)の画像では、消灯している状態の信号機が映っている。
このように、信号機が消灯した状態で映ることは、例えば、ドライブレコーダに利用されている場合に、映像(画像)の証拠能力に支障をきたす原因になる。また、信号機が消灯した状態で映ることは、その画像が、例えば、自動車の自動運転に利用されている場合に、自動車の停止等の運転制御に支障をきたす原因になる。
(輝度差が非常に大きいシーンにおいて、点滅する撮影対象に対する対処方法)
ここで、上述した特許文献1には、複数の異なる露光量で撮影された画像を合成する事で白飛びを抑制し、見かけのダイナミックレンジを拡大する手法が提案されている。この手法においては、図3に示すように、露光時間の長い長時間露光画像(長蓄画像)の輝度値を参照し、明るさが所定の閾値を下回れば長時間露光画像(長蓄画像)、上回れば短時間露光画像(短蓄画像)を出力する事で、広いダイナミックレンジを持つ画像を生成する事が可能となる。
一方で、図2に示したように、LED信号機など高輝度な被写体が点滅をしている場合に、長時間露光画像(長蓄画像)と短時間露光画像(短蓄画像)の合成を行う事で、本来信号機の点灯状態が記録されるべきであるにも関わらず消灯状態が記録されてしまう場合がある。図4には、信号機の点灯状態が記録されるべきであるにも関わらず、消灯状態が記録されてしまう場合の例を示している。
図4の例においては、長蓄画像にのみ、LED点灯状態が映っている場合に、光源が明るいため、信号が飽和して閾値を上回っている。そのため、長蓄画像から短蓄画像への置き換えが生じることになるが、短蓄画像には、LED点灯状態が映っていないため、消灯状態が発生してしまう。また、図4の例においては、短蓄画像にのみ、LED点灯状態が映っている場合に、長蓄画像の明るさが、閾値を下回っているため、長蓄画像から短蓄画像への置き換えは発生しない。その結果、長蓄画像にはLEDの点灯状態が映っていないため、消灯状態が発生してしまう。
また、図2に示したLEDのフリッカに対しては、点滅光源の消灯期間を上回る露光時間で撮影を行う事で、発光期間の撮り逃しを防ぐ手法がある。例えば、光源の点滅周波数が100Hz、発光Duty比が60%であれば消灯期間4msを露光時間の下限値とし、常にそれ以上の露光時間を確保する事で光源の点灯状態を撮影し続ける事ができる(上述した特許文献2参照)。図5には、点滅光源の消灯期間を上回る露光時間で撮影を行う場合の例を示している。図5の例では、消灯期間4msの場合において、4ms < 露光時間となっている。
しかしながら、車載カメラなどレンズF値を固定で使用しなければならないシステムの場合、晴天時の屋外など照度の高い状況下では、露光時間を光源の消灯期間よりも短くできないため、露光過多となり、被写体の視認性が低下してしまう。そのため、図1に示した画像の白飛びが発生するような輝度差の大きいシーンにおいては、画像のダイナミックレンジを拡大する効果は得られない。
さらに、図2に示したLEDのフリッカに対しては、撮像素子において光源の点滅周期をN等分割したタイミングでN回撮影を行い、N枚の撮影データを取得した後、それらの画像の平均値ないし最大値を選択する手法がある。
この手法を用いることで、例えば100Hzで点滅している光源の点滅周期10msを3等分割したタイミングで3回撮影を行い、3枚の撮影データの平均値ないし最大値を選択する事で、LEDの消灯状態が記録されてしまう事を抑制する事が可能となる。
図6には、光源の点滅周期をN等分割したタイミングでN回撮影を行い、N枚の撮影データを取得する場合の例を示している。図6においては、点滅周期(Tb)の光源に対して、点滅周期を3等分したタイミングで3回撮影を行う場合を例示している。また、図6においては、S0,S1,S2は、1フレーム以内で3回撮影を行う際のそれぞれの露光タイミングを示している。それぞれの露光における露光時間(Tc)は同一である。
S0の露光開始時間を、0とすると、S0,S1,S2のそれぞれの露光タイミングは、以下の通りとなる。
S0の露光開始時間:0,S0の露光終了時間:0 + Tc
S1の露光開始時間:Tb/3,S1の露光終了時間:Tb/3 + Tc
S2の露光開始時間:(Tb/3) × 2,S2の露光終了時間:(Tb/3) × 2 + Tc
しかしながら、図6に示した手法は、複数回の撮影を行う際に、それぞれの露光時間を同一にする事を前提とした技術であるため、図2に示したLEDのフリッカに対しては効果があるものの、図1に示した画像の白飛びが発生するような輝度差の大きいシーンにおいて、画像のダイナミックレンジを拡大する効果を得るまでは至らない。
以上のように、現状の技術では、図1に示した画像の白飛びが発生するような輝度差の大きいシーンにおいて、画像のダイナミックレンジを拡大することと、図2に示したLEDのフリッカの対策とを両立が可能な技術は、まだ確立されていない。本技術では、これらを両立させるために、以下の3つの技術的特徴を有する点をポイントとしている。
(1)映像信号のダイナミックレンジを拡大するため、撮像素子において複数の異なる露光量で撮影を行う際に、それらの露光期間を可能な限り近接させる露光制御を行う事で実効的な露光時間を伸ばし、高速点滅被写体の点灯期間を捕捉しやすくする。
(2)信号処理部において異なる露光量で撮影した複数の画像を合成する際に、露光比を加味したそれぞれの画像の最大値を同一座標の画素値の差分量に応じてブレンドする。その際に、ノイズ量を加味して動き判定を行う。
(3)上記の露光制御と信号処理の組み合わせによって、輝度差の大きなシーンにおいても白飛び、黒潰れを抑制すると同時に、LED信号機等の高速点滅被写体の点灯状態を正しく出力する事が可能な撮影装置を提供する。
本技術では、このような技術的特徴を有することで、輝度差が非常に大きいシーンにおいて、点滅(高速に点滅)する撮影対象を確実に撮影することが可能となり、その結果として、図1に示した画像の白飛びが発生するような輝度差の大きいシーンにおいて、画像のダイナミックレンジを拡大することと、図2に示したLEDのフリッカの対策とを両立することができる。
以下、このような本技術の技術的特徴を、具体的な実施の形態を参照しながら説明する。
<2.本技術の実施の形態>
(カメラユニットの構成例)
図7は、本技術を適用した撮影装置としてのカメラユニットの一実施の形態の構成例を示すブロック図である。
図7において、カメラユニット10は、レンズ101、撮像素子102、ディレイライン103、信号処理部104、出力部105、及びタイミング制御部106から構成される。
レンズ101は、被写体からの光を集光し、撮像素子102に入射させて結像させる。
撮像素子102は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。撮像素子102は、レンズ101からの入射光を受光し、光電変換を行うことにより、入射光に対応する撮影画像(の画像データ)を撮影する。
すなわち、撮像素子102は、タイミング制御部106から指定される撮影タイミングで撮影を行う撮影部として機能し、出力部105が出力する出力画像のフレームレートの期間に、N回の撮影を行い、そのN回の撮影により得られるN枚の撮影画像を、順次出力する。
ディレイライン103は、撮像素子102が順次出力するN枚の撮影画像を順次記憶し、そのN枚の撮影画像を、同時に、信号処理部104に供給する。
信号処理部104は、ディレイライン103からのN枚の撮影画像を処理し、1フレーム(枚)の出力画像を生成する。その際、信号処理部104は、撮影画像の画素値の差分量に応じてN枚の撮影画像の画像データの最大値をブレンドして、出力画像を生成する。
さらに、信号処理部104は、出力画像に対して、例えば、ノイズの除去や、WB(ホワイトバランス)の調整等の処理を行い、出力部105に供給する。また、信号処理部104は、ディレイライン103からのN枚の撮影画像の明るさから露光レベルを検出(検波)し、タイミング制御部106に供給する。
出力部105は、信号処理部104からの出力画像(映像データ)を出力する。
タイミング制御部106は、撮像素子102の撮影タイミングを制御する。すなわち、タイミング制御部106は、信号処理部104で検出された露光レベルに基づいて、撮像素子102の露光時間の調整を行う。その際に、タイミング制御部106は、N枚の撮影画像の露光タイミングを可能な限り近接させるようにシャッタ制御を行う。
カメラユニット10は、以上のように構成される。
(タイミング制御部のシャッタ制御の例)
次に、図8及び図9を参照して、図7のタイミング制御部106によるシャッタ制御について説明する。
図7のカメラユニット10において、撮像素子102は、露光時間の異なるN枚の撮影画像の撮影データを取得する。その際、タイミング制御部106は、それらの撮影期間を可能な限り近接させる事で実効的な露光時間を伸ばし、LED等の高速点滅被写体の点滅周期をカバーしやすくするための制御を行う。
ここでは、図8を参照しながら、その具体例として3枚の撮影画像を取得する際の露光タイミングについて説明する。図8において、T0,T1,T2は、1フレーム以内で3回撮影を行う際のそれぞれの露光タイミングを示している。それぞれの露光における露光時間の比率は、信号のダイナミックレンジを確保するために、例えば、T0:T1:T2 = 4:2:1の比率とすることができる。
この際、タイミング制御部106は、T0の露光が完了次第、すぐにT1の露光を開始し、T1の露光が完了次第、すぐにT2の露光を開始するように露光タイミングの制御を行う。すなわち、T0の露光終了とT1の露光開始との間隔、及びT1の露光終了とT2の露光開始との間隔が極小化されている。このような露光タイミング制御を行う事で、高速点滅被写体の点灯期間がT0,T1,T2のいずれかの露光期間とオーバーラップしやすくなり、点灯期間の画像を捕捉できる確率を上げることができる。
また、N枚の撮影画像の撮影期間を近接させることで、次のような効果が得られる。すなわち、図9Aと図9Bを比較して説明すれば、図9Aに示すように、T0,T1,T2の露光タイミングを離して設定する場合には、点灯期間が短い(発光Duty比が小さい)点滅光源の場合に、露光タイミングと発光タイミングがオーバーラップしない可能性がある。
一方で、図9Bに示すように、T0,T1,T2の露光タイミングを近接させる場合には、実効的な露光時間が伸びるため、点灯期間が短い点滅光源に対して露光タイミングと発光タイミングがオーバーラップする可能性を向上させることができる。なお、例えば、LED信号機の消灯期間は、典型的には3ms前後が想定されるので、タイミング制御部106は、この消灯期間に応じて、T0,T1,T2の露光タイミングを近接させる制御を行うことができる。
さらに、後述の信号処理部104にて、T0,T1,T2の最大値を出力する制御を行う場合に、T0,T1,T2の画素値が異なるような動体を撮影する場合は、二重エッジ像などのアーチファクトを発生させてしまうケースがあるが、T0,T1,T2の露光タイミングを近接させる事で、動体の見た目の動き量を小さく抑える事ができ、最大値出しの弊害を抑える効果も期待できる。
なお、T0,T1,T2の露光タイミングを近接させるシャッタ制御は、例えばフレーム間の読み出し動作とシャッタ動作とを時間的にオーバーラップさせるタイプのセンサを用いる事で実現できる。また、関連する技術としては、下記の特許文献3が開示されている。
特許文献3:特開2008−22485号公報
しかしながら、N枚の撮影期間を近接させて露光するだけでは、図2に示したLEDのフリッカの対策としては不十分である。すなわち、特許文献3に開示されている技術であると、例えば、第1サブフレームの信号のみにLEDの点灯状態が記録され、かつ画素値が飽和している場合に、信号のダイナミックレンジを拡大するために第2サブフレームの信号に値を置き換える合成処理を行ったとき、LEDの消灯が発生してしまうことになる。そこで、以下、このようなLEDの消灯が生じないようにするための信号処理部104の構成について説明する。
(信号処理部の構成例)
図10は、図7の信号処理部104の構成例を示す図である。
図10の信号処理部104においては、撮像素子102で取得されたN枚の撮影画像の画像データを処理し、1フレーム(枚)の出力画像に合成している。その際に、信号処理部104は、常にN枚の撮影画像の画像データ間で合成を行い、トータルN-1回の合成処理が行われるようにする。
図10においては、その最も単純な例として、2枚の撮影画像を、1枚の出力画像に合成する際の信号処理について説明する。
なお、図10においては、T0,T1は、1フレーム以内で2回撮影を行った際のそれぞれの露光時間に対応する撮影画像を示している。また、図10において、それぞれの露光における露光時間の比率は、信号のダイナミックレンジを確保するために、例えば、T0:T1 = 16:1の比率であると仮定する。T1の明るさをT0に合わせるための露光比ゲインを、SGAIN1と定義すると、SGAIN1 = T0の露光時間 / T1の露光時間 = 16[倍]となる。以下、このT0,T1に対応する撮影画像をそれぞれ、画像信号T0,画像信号T1とも記述する。
図10において、信号処理部104は、合成基準信号生成部121、合成係数算出部122、動き検出部123、合成係数変調部124、及び合成部125から構成される。
合成基準信号生成部121は、画像信号T0と画像信号T1を合成するための基準となる信号(基準信号S0,基準信号S1)を生成する。その際、合成基準信号生成部121は、画像信号T0から基準信号S0を、画像信号T1から基準信号S1を生成する。なお、基準となる基準信号S0,S1の生成方法としては、例えば、あらかじめ定められたタップ数でフィルタをかけて簡易的な輝度値を算出することで生成することができる。
合成基準信号生成部121は、画像信号T0と画像信号T1を、合成部125に供給する。また、合成基準信号生成部121は、基準信号S0を、合成係数算出部122及び動き検出部123に供給し、基準信号S1を、動き検出部123に供給する。
合成係数算出部122は、合成基準信号生成部121からの基準信号S0を参照して、画像信号T0と画像信号T1を合成するための合成係数を算出する。合成係数算出部122は、合成係数を、合成係数変調部124に供給する。
動き検出部123は、合成基準信号生成部121からの基準信号S0と、基準信号S1に露光比SGAIN1を信号の間の差分を動き量と定義して、動き判定を行う。その際、動き検出部123は、信号のノイズとLED等の高速点滅体の点滅を区別するために、動き量をセンサ特性から想定されるノイズ量と比較して動き係数を算出する。
ただし、その際、動き検出部123においては、例えば、S0<S1の場合と、S1<S0の場合で、動き判定の判定基準を分けるものとする。なお、動き検出部123での動き判定の詳細については、図18及び図19を参照して後述する。動き検出部123は、動き係数を、合成係数変調部124に供給する。
合成係数変調部124は、合成係数算出部122からの合成係数に対して、動き検出部123からの動き係数を加味した変調を行い、動き補償後合成係数を算出する。その際、合成係数変調部124は、動き量が大きい場合には、画像信号T0と、画像信号T1に露光比SGAIN1を乗じた信号のうち、どちらか大きい方が多く合成されるようにする。合成係数変調部124は、動き補償後合成係数を、合成部125に供給する。
合成部125は、合成基準信号生成部121からの画像信号T0と画像信号T1を、合成係数変調部124からの動き補償後合成係数で合成(アルファブレンド)して、その結果得られるHDR(High Dynamic Range)合成後信号としての合成後画像信号を出力する。
信号処理部104は、以上のように構成される。
(2枚合成を行う場合の信号処理)
次に、図11のフローチャートを参照して、図10の信号処理部104により実行される、2枚合成を行う場合の信号処理の流れを説明する。
ステップS11において、合成基準信号生成部121は、そこに入力される画像信号T0から、基準信号S0を生成する。
ステップS12において、合成基準信号生成部121は、そこに入力される画像信号T1から、基準信号S1を生成する。
なお、T0とT1の露光時間の比率は、例えば、T0:T1 = 16:1の比率とすることができる。したがって、画像信号T0は、長時間露光画像(長蓄画像)である一方で、画像信号T1は、短時間露光画像(短蓄画像)であるとも言える。
ステップS13において、合成係数算出部122は、ステップS11の処理で得られる基準信号S0から、合成係数を算出する。
ステップS14において、動き検出部123は、S0 < S1×S1露光比の関係を満たすかどうかを判定する。
ステップS14において、S0 < S1×S1露光比の関係を満たしていると判定された場合、処理は、ステップS15に進められる。ステップS15において、動き検出部123は、ノイズ正規化ゲイン1を用いて動き判定を行う。
一方で、ステップS14において、S0 < S1×S1露光比の関係を満たしていない、すなわち、S0 ≧ S1×S1露光比の関係になると判定された場合、処理は、ステップS16に進められる。ステップS16において、動き検出部123は、ノイズ正規化ゲイン0を用いて動き判定を行う。
ステップS15又はS16の処理で、動き判定が行われると、処理は、ステップS17に進められる。ステップS17において、動き検出部123は、ステップS15又はS16の処理で得られる動き判定の結果に基づいて、動きがあるかどうかを判定する。
ステップS17において、動きがあると判定された場合、処理は、ステップS18に進められる。ステップS18において、動き検出部123は、ステップS15又はS16の処理等で得られる動き量に応じて、動き係数を算出する。
なお、動き検出部123により実行されるステップS14乃至S18の処理の詳細は、図19を参照して後述するが、動き評価値の符号と露光比に応じたノイズ正規化ゲイン(0,1)を乗算した後に、動き判定処理を行うことで、動き検出の精度を向上させることができる。
ステップS19において、合成係数変調部124は、ステップS13の処理で得られる合成係数に対し、ステップS18の処理で得られる動き係数を用いて変調を行い、動き補償後合成係数を生成する。
一方で、ステップS17において、動きがないと判定された場合、処理は、ステップS20に進められる。ステップS20において、合成係数変調部124は、ステップS13の処理で得られる合成係数をそのまま、動き補償後合成係数として使用するようにする。
ステップS19又はS20の処理で、動き補償後合成係数が得られると、処理は、ステップS21に進められる。
ステップS21において、合成部125は、ステップS19又はS20の処理で得られる動き補償後合成係数を参照して、画像信号T0と画像信号T1とを合成する。すなわち、合成部125では、動き補償後合成係数を用いることで、動き量が大きい場合に、画像信号T0と、画像信号T1に露光比SGAIN1(= 16)を乗じた信号のうち、どちらか大きい方が多く合成されることになる。
ステップS22において、合成部125は、ステップS21の処理で得られる合成後画像信号を出力する。
以上、2枚合成を行う場合の信号処理の流れを説明した。
(信号処理部の処理結果の例)
次に、図12及び図13を参照して、図7の信号処理部104による信号処理(図11)の処理結果について説明する。
図12には、LED信号機が映っている撮影画像に対する信号処理の処理結果を示している。なお、ここでは、図12Aに、従来の手法を用いた場合の処理結果を示して、図12Bの本技術の手法を用いた場合の処理結果と比較している。
図12Aの従来の手法の場合、長蓄画像(画像信号T0)にのみLED信号機の点灯状態が記録されており、かつ長蓄(T0)の画素値が飽和している状況で、信号のダイナミックレンジを拡大するために、長蓄(T0)の飽和レベルを超えた画素値を短蓄(T1)に置き換えると、短蓄画像(画像信号T1)では、LED信号機が消灯しているため、置き換え後の信号も消灯が発生することになる。
一方で、図12Bの本技術の手法の場合、信号のダイナミックレンジを拡大するために、長蓄(T0)の飽和レベルを超えた画素値を短蓄(T1)に置き換える際に、長蓄と短蓄×露光比(S0とS1×S1露光比)の信号に大きな差分がある場合には、高速点滅体の点滅が発生していると判断して、どちらか大きい値を出力することになる。そのため、LED信号機の点灯状態が記録されている長蓄画像(画像信号T0)が選択され、図12Bの本技術の手法の場合には、LED信号機の消灯が発生しないことになる。
図13には、LED速度規制標識が映っている撮影画像に対する信号処理の処理結果を示している。なお、ここでは、図13Aに、従来の手法を用いた場合の処理結果を示して、図13Bの本技術の手法を用いた場合の処理結果と比較している。
図13Aの従来の手法の場合、長蓄画像(画像信号T0)にのみLED速度規制標識の点灯状態が記録されており、かつ長蓄(T0)の画素値が飽和している状況で、信号のダイナミックレンジを拡大するために、長蓄(T0)の飽和レベルを超えた画素値を短蓄(T1)に置き換えると、短蓄画像(画像信号T1)では、LED速度規制標識が消灯しているため、置き換え後の信号も消灯が発生することになる。
一方で、図13Bの本技術の手法の場合、信号のダイナミックレンジを拡大するために、長蓄(T0)の飽和レベルを超えた画素値を短蓄(T1)に置き換える際に、長蓄と短蓄×露光比(S0とS1×S1露光比)の信号に大きな差分がある場合には、高速点滅体の点滅が発生していると判断して、どちらか大きい値を出力することになる。そのため、LED速度規制標識の点灯状態が記録されている長蓄(S0とS1×S1露光比)が選択され、図13Bの本技術の手法の場合には、LED速度規制標識の消灯が発生しないことになる。
<3.本技術の実施の形態の変形例>
(3枚合成を行う場合の信号処理部の構成例)
図14は、3枚合成を行う場合の信号処理部104の構成例を示す図である。
すなわち、上述した説明では、最も単純な例として、2枚の撮影画像を、1枚の出力画像に合成する際の信号処理について説明したが、図14においては、3枚の撮影画像を、1枚の出力画像に合成する際の信号処理について説明する。
なお、図14においては、T0,T1,T2は、1フレーム以内で3回撮影を行った際のそれぞれの露光時間に対応する撮影画像を示している。また、図14において、それぞれの露光における露光時間の比率は、信号のダイナミックレンジを確保するために、例えば、T0:T1:T2 = 4:2:1の比率であると仮定する。T1の明るさをT0に合わせるための露光比ゲインをSGAIN1、T2の明るさをT0に合わせるための露光比ゲインをSGAIN2と定義する。上記の例では、SGAIN1 = 2,SGAIN2 = 4となる。以下、このT0,T1,T2に対応する撮影画像をそれぞれ、画像信号T0,画像信号T1,画像信号T2とも記述する。
図14において、信号処理部104は、合成基準信号生成部141、第1動き検出・合成係数算出部142、第1合成部143、第2動き検出・合成係数算出部144、及び第2合成部145から構成される。
合成基準信号生成部141は、画像信号T0,画像信号T1,画像信号T2を合成するための基準となる信号(基準信号S0,基準信号S1,基準信号S2)を生成する。その際、合成基準信号生成部141は、画像信号T0から基準信号S0を、画像信号T1から基準信号S1を、画像信号T2から基準信号S2をそれぞれ生成する。なお、基準となる基準信号S0,S1,S2の生成方法としては、例えば、あらかじめ定められたタップ数でフィルタをかけて簡易的な輝度値を算出することで生成することができる。
合成基準信号生成部141は、画像信号T0と画像信号T1を、第1合成部143に供給し、画像信号T2を、第2合成部145に供給する。また、合成基準信号生成部141は、基準信号S0と基準信号S1を、第1動き検出・合成係数算出部142に供給し、基準信号S1と基準信号S2を、第2動き検出・合成係数算出部144に供給する。
第1動き検出・合成係数算出部142は、合成基準信号生成部141からの基準信号S0を参照して、画像信号T0と画像信号T1を合成するための第1合成係数を算出する。また、第1動き検出・合成係数算出部142は、合成基準信号生成部141からの基準信号S0と、S1に露光比SGAIN1を乗じた信号の間の差分を第1動き量と定義して動き判定を行う。
その際、第1動き検出・合成係数算出部142は、信号のノイズとLED等の高速点滅体の点滅を区別するために、第1動き量をセンサ特性から想定されるノイズ量と比較して第1動き係数を算出する。ただし、動き判定を行う際には、例えば、S0 < S1となる場合と、S1 < S0となる場合で、動き判定の判定基準を分けるものとする。なお、第1動き検出・合成係数算出部142での動き判定の詳細については、図18及び図19を参照して後述する。
第1動き検出・合成係数算出部142は、第1合成係数に対して第1動き係数を加味した変調を行い、第1動き補償後合成係数を算出する。その際、第1動き検出・合成係数算出部142は、動き量が大きい場合には、画像信号T0と、画像信号T1に露光比SGAIN1を乗じた信号のうち、どちらか大きい方が多く合成されるようにする。第1動き検出・合成係数算出部142は、第1動き補償後合成係数を、第1合成部143に供給する。
また、第1動き検出・合成係数算出部142は、第1動き補償後合成係数を参照して、基準信号S0と基準信号S1とを合成(アルファブレンド)して、その結果得られるS0-S1合成信号を、第2動き検出・合成係数算出部144に供給する。
第1合成部143は、合成基準信号生成部141からの画像信号T0と画像信号T1を、第1動き検出・合成係数算出部142からの第1動き補償後合成係数で合成(アルファブレンド)して、その結果得られるT0-T1合成信号を、第2合成部145に供給する。
第2動き検出・合成係数算出部144は、合成基準信号生成部141からの基準信号S1を参照して、T0-T1合成信号と画像信号T2を合成するための第2合成係数を算出する。また、第2動き検出・合成係数算出部144は、S0-S1合成信号と、S2に露光比SGAIN2を乗じた信号の間の差分を第2動き量と定義して動き判定を行う。
その際、第2動き検出・合成係数算出部144は、信号のノイズとLED等の高速点滅体の点滅を区別するために、第2動き量をセンサ特性から想定されるノイズ量と比較して第2動き係数を算出する。ただし、動き判定を行う際には、例えば、S0-S1合成信号 < S2となる場合と、S2 < S0-S1合成信号となる場合で、動き判定の判定基準を分けるものとする。なお、第2動き検出・合成係数算出部144での動き判定の詳細については、図18及び図19を参照して後述する。
第2動き検出・合成係数算出部144は、第2合成係数に対して第2動き係数を加味した変調を行い、第2動き補償後合成係数を算出する。その際、第2動き検出・合成係数算出部144は、動き量が大きい場合には、T0-T1合成信号と、画像信号T2に露光比SGAIN2を乗じた信号のうち、どちらか大きい方が多く合成されるようにする。第2動き検出・合成係数算出部144は、第2動き補償後合成係数を、第2合成部145に供給する。
第2合成部145は、第1合成部143からのT0-T1合成信号と、合成基準信号生成部141からの画像信号T2とを、第2動き検出・合成係数算出部144からの第2動き補償後合成係数で合成(アルファブレンド)して、その結果得られるHDR合成後信号としての合成後画像信号を出力する。
図14の信号処理部104は、以上のように構成される。図14の信号処理部104においては、2段階の合成に分離する事で、T0-T1信号間のブレンドを行う第一段階の合成に対して、露光時間が短く光源の点灯状態が記録されていない可能性が高いT2信号をブレンドする第二段階の合成を行う際に、本補正を適用する強度を下げるといった調整が可能となり、弊害を抑える効果が期待される。
(3枚合成を行う場合の信号処理)
次に、図15及び図16のフローチャートを参照して、図14の信号処理部104により実行される、3枚合成を行う場合の信号処理の流れを説明する。
ステップS51において、合成基準信号生成部141は、そこに入力される画像信号T0から、基準信号S0を生成する。
ステップS52において、合成基準信号生成部141は、そこに入力される画像信号T1から、基準信号S1を生成する。
ステップS53において、合成基準信号生成部141は、そこに入力される画像信号T2から、基準信号S2を生成する。
なお、T0とT1とT2の露光時間の比率は、例えば、T0:T1:T2 = 4:2:1の比率とすることができる。したがって、画像信号T0は、長時間露光画像(長蓄画像)であり、画像信号T1は、中時間露光画像(中蓄画像)であり、画像信号T2は、短時間露光画像(短蓄画像)であるとも言える。
ステップS54において、第1動き検出・合成係数算出部142は、ステップS51の処理で得られる基準信号S0から、第1合成係数を算出する。
ステップS55において、第1動き検出・合成係数算出部142は、S0 < S1×S1露光比の関係を満たすかどうかを判定する。
ステップS55において、S0 < S1×S1露光比の関係を満たしていると判定された場合、処理は、ステップS56に進められる。ステップS56において、第1動き検出・合成係数算出部142は、ノイズ正規化ゲイン1を用いて動き判定を行う。
一方で、ステップS55において、S0 < S1×S1露光比の関係を満たしていない、すなわち、S0 ≧ S1×S1露光比の関係になると判定された場合、処理は、ステップS57に進められる。ステップS57において、第1動き検出・合成係数算出部142は、ノイズ正規化ゲイン0を用いて動き判定を行う。
ステップS56又はS57の処理で、動き判定が行われると、処理は、ステップS58に進められる。ステップS58において、第1動き検出・合成係数算出部142は、ステップS56又はS57の処理で得られる動き判定の結果に基づいて、動きがあるかどうかを判定する。
ステップS58において、動きがあると判定された場合、処理は、ステップS59に進められる。ステップS59において、第1動き検出・合成係数算出部142は、ステップS56又はS57の処理等で得られる動き量に応じて、第1動き係数を算出する。
なお、第1動き検出・合成係数算出部142により実行されるステップS55乃至S59の処理の詳細は、図19を参照して後述するが、動き評価値の符号と露光比に応じたノイズ正規化ゲイン(0,1)を乗算した後に、動き判定処理を行うことで、動き検出の精度を向上させることができる。
ステップS60において、第1動き検出・合成係数算出部142は、ステップS54の処理で得られる第1合成係数に対し、ステップS59の処理で得られる第1動き係数を用いて変調を行い、第1動き補償後合成係数を生成する。
一方で、ステップS58において、動きがないと判定された場合、処理は、ステップS61に進められる。ステップS61において、第1動き検出・合成係数算出部142は、ステップS54の処理で得られる第1合成係数をそのまま、第1動き補償後合成係数として使用するようにする。
ステップS60又はS61の処理で、第1動き補償後合成係数が得られると、処理は、ステップS62に進められる。
ステップS62において、第1動き検出・合成係数算出部142は、ステップS60又はS61の処理で得られる第1動き補償後合成係数を参照して、基準信号S0と基準信号S1とを合成し、S0-S1合成信号を生成する。
ステップS63において、第1合成部143は、ステップS60又はS61の処理で得られる第1動き補償後合成係数を参照して、画像信号T0と画像信号T1とを合成し、T0-T1合成信号を生成する。
ステップS64において、第2動き検出・合成係数算出部144は、ステップS52の処理で得られる基準信号S1から、第2合成係数を算出する。
ステップS65において、第2動き検出・合成係数算出部144は、S0-S1合成信号 < S2×S2露光比の関係を満たすかどうかを判定する。
ステップS65において、S0-S1合成信号 < S2×S2露光比の関係を満たしていると判定された場合、処理は、ステップS66に進められる。ステップS66において、第2動き検出・合成係数算出部144は、ノイズ正規化ゲイン2を用いて動き判定を行う。
一方で、ステップS65において、S0-S1合成信号 < S2×S2露光比の関係を満たしていない、すなわち、S0-S1合成信号 ≧ S2×S2露光比の関係になると判定された場合、処理は、ステップS67に進められる。ステップS67において、第2動き検出・合成係数算出部144は、ノイズ正規化ゲイン1を用いて動き判定を行う。
ステップS66又はS67の処理で、動き判定が行われると、処理は、ステップS68に進められる。ステップS68において、第2動き検出・合成係数算出部144は、ステップS66又はS67の処理で得られる動き判定の結果に基づいて、動きがあるかどうかを判定する。
ステップS68において、動きがあると判定された場合、処理は、ステップS69に進められる。ステップS69において、第2動き検出・合成係数算出部144は、ステップS66又はS67の処理等で得られる動き量に応じて、第2動き係数を算出する。
なお、第2動き検出・合成係数算出部144により実行されるステップS65乃至S69の処理の詳細は、図19を参照して後述するが、動き評価値の符号と露光比に応じたノイズ正規化ゲイン(1,2)を乗算した後に、動き判定処理を行うことで、動き検出の精度を向上させることができる。
ステップS70において、第2動き検出・合成係数算出部144は、ステップS64の処理で得られる第2合成係数に対し、ステップS69の処理で得られる第2動き係数を用いて変調を行い、第2動き補償後合成係数を生成する。
一方で、ステップS68において、動きがないと判定された場合、処理は、ステップS71に進められる。ステップS71において、第2動き検出・合成係数算出部144は、ステップS64の処理で得られる第2合成係数をそのまま、第2動き補償後合成係数として使用するようにする。
ステップS70又はS71の処理で、第2動き補償後合成係数が得られると、処理は、ステップS72に進められる。
ステップS72において、第2合成部145は、ステップS70又はS71の処理で得られる第2動き補償後合成係数を参照して、T0-T1合成信号と画像信号T2とを合成する。
ステップS73において、第2合成部145は、ステップS72の処理で得られる合成後画像信号を出力する。
以上、3枚合成を行う場合の信号処理の流れを説明した。
(3枚合成を行う場合の信号処理部の他の構成例)
図17は、3枚合成を行う場合の信号処理部104の他の構成例を示す図である。
図17においては、3枚の撮影画像を、1枚の出力画像に合成する際の信号処理について説明する。
ここで、上述した図14の信号処理部104では、3枚の撮影画像を1枚に合成する際に、2回に分けて合成を行い、その都度動き検出を行う構成となっていた。
一方で、図17の信号処理部104では、2回に分けて合成を行う点は、図14と同じであるが、合成する際に動き検出を行わず、T0-T1-T2合成信号を先に生成するようにする。そして、図17の信号処理部104では、その処理と平行して、3枚の撮影画像の最大値を選択する処理と、3枚の撮影画像で動き検出を行う処理を追加し、動き情報を加味していないT0-T1-T2合成信号に対して、T0-T1-T2の最大値を最終段で合成する事を特徴としている。
図17において、信号処理部104は、合成基準信号生成部161、第1合成係数算出部162、第2合成係数算出部163、動き検出・合成係数算出部164、最大値選択部165、第1合成部166、第2合成部167、及び第3合成部168から構成される。
合成基準信号生成部161は、画像信号T0,画像信号T1,画像信号T2を合成するための基準となる信号(基準信号S0,基準信号S1,基準信号S2)を生成する。その際、合成基準信号生成部161は、画像信号T0から基準信号S0を、画像信号T1から基準信号S1を、画像信号T2から基準信号S2をそれぞれ生成する。
合成基準信号生成部161は、画像信号T0と画像信号T1を、第1合成部166に供給し、画像信号T2を、第2合成部167に供給する。また、合成基準信号生成部161は、画像信号T0乃至画像信号T2を、最大値選択部165に供給する。
また、合成基準信号生成部161は、基準信号S0を、第1合成係数算出部162に供給し、基準信号S1を、第2合成係数算出部163に供給する。また、合成基準信号生成部161は、基準信号S0乃至基準信号S2を、動き検出・合成係数算出部164に供給する。
第1合成係数算出部162は、合成基準信号生成部161からの基準信号S0を参照して、画像信号T0と画像信号T1を合成するための第1合成係数を算出し、第1合成部166に供給する。
第2合成係数算出部163は、合成基準信号生成部161からの基準信号S1を参照して、T0-T1合成信号と画像信号T2を合成するための第2合成係数を算出し、第2合成部167に供給する。
動き検出・合成係数算出部164は、合成基準信号生成部161からの基準信号S0乃至基準信号S2に基づいて、動き判定を行い、その動き判定の結果に応じた動き補償後合成係数を算出し、第3合成部168に供給する。
第1合成部166は、合成基準信号生成部161からの画像信号T0と画像信号T1を、第1合成係数算出部162からの第1合成係数で合成(アルファブレンド)して、その結果得られるT0-T1合成信号を、第2合成部167に供給する。
第2合成部167は、第1合成部166からのT0-T1合成信号と、合成基準信号生成部161からの画像信号T2とを、第2合成係数算出部163からの第2合成係数で合成(アルファブレンド)して、その結果得られるT0-T1-T2合成信号を、第3合成部168に供給する。
最大値選択部165は、合成基準信号生成部161からの画像信号T0乃至画像信号T2に基づいて、3枚の撮影画像の最大値を選択し、その結果得られるT0-T1-T2最大値を、第3合成部168に供給する。
第3合成部168は、第2合成部167からのT0-T1-T2合成信号に対し、最大値選択部165からのT0-T1-T2最大値を、動き検出・合成係数算出部164からの動き補償後合成係数で合成(アルファブレンド)して、その結果得られるHDR合成後信号としての合成後画像信号を出力する。
図17の信号処理部104は、以上のように構成される。
(動き検出処理の変形例)
図18は、図10の動き検出部123や、図14の第1動き検出・合成係数算出部142などによる動き検出処理の変形例を示す図である。
本技術を適用して高速点滅体の点灯状態を捉えるためには、動き検出を精度良く行う事が必須である。ここでは、そのための手法の例を提示する。
例えば、図18の動き検出処理では、長蓄(S0)と、中蓄(S1)×露光比ゲイン(長蓄露光時間(T0)÷中蓄露光時間(T1))の差分信号が、ノイズレベル以上の時に、動き判定閾値に応じて動き若しくは高速点滅被写体の消灯ありと判断して、補正を行うための動き係数を算出する。
その際に、この差分信号に対して正規化ゲインを乗じる事で、差分信号がノイズの何倍かを表す評価値を生成する。ここで、このノイズ正規化ゲインは、入力信号に対してかかるゲイン(例えば、AGC(Automatic Gain Control)、キャリブレーションゲイン、レベルバランスゲイン、露光比ゲインなど)を色別に考慮して算出を行う。
例えば、ノイズ正規化ゲインを適切に設定せず、動き量が正しい値に対して過大となる場合には、画像のノイズを動きであると誤判定することにより、ノイズが出力されて画質の劣化が発生する。また、例えば、ノイズ正規化ゲインを適切に設定せず、動き量が正しい値に対して過小となる場合には、LEDの明滅をノイズであると誤判定することにより、点灯状態を正しく出力する事ができない。そのため、図18の動き検出処理では、適切なノイズ正規化ゲインが設定されるようにしている。
(動き検出処理の他の変形例)
図19は、図10の動き検出部123や、図14の第1動き検出・合成係数算出部142などによる動き検出処理の他の変形例を示す図である。
動き検出処理においては、動き検出の精度を向上させるため、動き評価値の符号と露光比に応じた動き判定ゲイン(ノイズ正規化ゲイン)を乗算した後に動き判定を行う方法が考えられる。
ここで、例えば、図19の動き検出処理においては、ノイズ正規化ゲイン1として、例えば1.0を設定し、ノイズ正規化ゲイン2として、例えば露光比の逆数を設定することができる。図19の動き検出処理では、動き量の符号判定に応じてこのようなノイズ正規化ゲインの設定を行う事で、動き判定閾値を動き量の符号によらず共通化することが出来、ノイズが抜けてしまう等の最大値出しの弊害を抑える事ができる。
なお、図18及び図19においては、図10の動き検出部123や、図14の第1動き検出・合成係数算出部142による動き検出処理として説明したが、ここで説明した動き検出処理は、図14の第2動き検出・合成係数算出部144や、図17の動き検出・合成係数算出部164で行われる動き検出処理に適用するようにしてもよい。
例えば、上述した図15と図16のフローチャートを参照して説明した3枚合成を行う場合の信号処理では、図15のステップS58の処理と、図16のステップS68の処理で、2段階の動き判定を行っているが、この3枚合成を行う場合には、ノイズ正規化ゲイン0,1,2の3つの正規化ゲインが用いられることになる。
すなわち、第1動き検出・合成係数算出部142においては、ステップS55の判定処理で、S0 ≧ S1×S1露光比の関係になると判定された場合、ノイズ正規化ゲイン0が選択されて動き判定が行われる(図15のS57)一方で、S0 < S1×S1露光比の関係になると判定された場合には、ノイズ正規化ゲイン1が選択されて動き判定が行われる(図15のS56)。
また、第2動き検出・合成係数算出部144においては、ステップS65の判定処理で、S0-S1合成信号 ≧ S2×S2露光比の関係になると判定された場合、ノイズ正規化ゲイン1が選択されて動き判定が行われる(図16のS67)一方で、S0-S1合成信号 < S2×S2露光比の関係になると判定された場合には、ノイズ正規化ゲイン2が選択されて動き判定が行われる(図16のS66)。
ただし、第1動き検出・合成係数算出部142で選択されるノイズ正規化ゲイン1(図15のS56)と、第2動き検出・合成係数算出部144で選択されるノイズ正規化ゲイン1(図16のS67)は、同一の値とされ、この2段階の動き判定では、3つのノイズ正規化ゲインが用いられることになる。そして、このような動き評価値の符号と露光比に応じたノイズ正規化ゲインを乗算した後に、動き判定処理を行うことで、動き検出の精度を向上させることができる。
<4.本技術の信号処理の詳細な内容>
次に、図20乃至図23を参照して、信号処理部104により行われる信号処理の詳細な内容について説明する。
図20には、3枚の撮影画像(L,M,S)を、1枚の出力画像に合成する際の信号処理が示されている。図20の信号処理では、動き検出処理と合成処理(アルファブレンド)が、2段階で行われている。また、図21には、縦軸を、Linearized signal[LSB]とし、横軸を、Illuminance[lux]としたときの3種類の露光(L:Long Exposure,M:Medium Exposure,S:Short Exposure)とゲイン(Gain_M,Gain_S)との関係を表している。
なお、図20においては、3枚合成を行う場合の信号処理として、3枚の撮影画像(L,M,S)が入力されるが、L,M,Sのうち、長蓄(L:Long Exposure)が、T0に相当し、中蓄(M:Medium Exposure)が、T1に相当し、短蓄(S:Short Exposure)が、T2に相当している。すなわち、長蓄画像(L)は、長時間露光画像であって、上述の画像信号T0の画像に相当するものである。また、中蓄画像(M)は、中時間露光画像である画像信号T1の画像に相当し、短蓄画像(S)は、短時間露光画像である画像信号T2の画像に相当している。
また、図20において、「Motion Detection1」、「Alpha Blend1」、「Motion Detection2」、及び「Alpha Blend2」は、例えば、図14に示した第1動き検出・合成係数算出部142、第1合成部143、第2動き検出・合成係数算出部144、及び第2合成部145にそれぞれ相当している。つまり、図20において、「alpha_L」は、第1動き補償後合成係数に相当し、「alpha_M」は、第2動き補償後合成係数に相当している。また、「HDR1」は、T0-T1合成信号(S0-S1合成信号)に相当し、「HDR_OUT」は、合成後画像信号に相当している。
ここで、例えば、図22に示すように、長蓄画像(L)にのみ、光源の点灯状態が記録され、中蓄画像(M)と短蓄画像(S)には、光源の点灯状態が記録されていない場合、本技術の信号処理では、次のような処理が行われる。すなわち、本技術の信号処理では、例えば、長蓄画像の信号(Level of L)と、中蓄画像の信号(Level of M)との差分の信号を取ることで、長蓄画像と中蓄画像のどちらに光源の点灯状態が含まれているかを特定し、その特定結果に応じて、合成係数(ブレンド率:Blend rate)を変化させる。
例えば、図23に示すように、本技術の信号処理では、長蓄画像の信号と中蓄画像の信号のうち、長蓄画像の信号のほうが大きい場合(長蓄画像に光源が含まれる場合)には、長蓄画像の信号の合成割合(ブレンド率)を増加させる。一方で、本技術の信号処理では、長蓄画像の信号と中蓄画像の信号のうち、中蓄画像の信号のほうが大きい場合(中蓄画像に光源が含まれる場合)には、中蓄画像の信号の合成割合(ブレンド率)を増加させる。
すなわち、図23に示した合成割合(ブレンド率)の制御は、例えば、第1動き検出・合成係数算出部142(図20の「Motion Detection1」)により実行される、図15のステップS60の処理に対応するものとなる。そして、図22の例では、長蓄画像の信号と中蓄画像の信号のうち、長蓄画像の信号のほうが大きい(長蓄画像に光源が含まれる)ので、第1合成係数に対し、長蓄画像の信号の合成割合が増加されて、第1動き補償後合成係数が得られることになる。
以上のように、本技術によれば、従来技術では被写体が白飛びしてしまうような高照度条件下においても、明部から暗部まで視認性を確保したまま、LED等の高速点滅被写体の点灯状態をも撮り逃がすことなく、記録可能な撮影装置を実現することができる。
なお、本技術は、車載カメラや監視カメラなどの撮影装置全般に適用することができる。また、撮影対象としては、LED信号機やLED速度規制標識に限らず、輝度差が非常に大きいものや、点滅するもの(例えば高速に点滅する発光体)などを撮影対象とすることができる。
<5.固体撮像装置の構成例>
図7に示したカメラユニット10は、例えば、裏面照射型のCMOSイメージセンサなど、積層型の固体撮像装置として構成することができる。
具体的には、図24に示すように、画素領域201が形成された半導体基板200Aと、信号処理回路領域202が形成された半導体基板200Bとが積層された構成とすることができる。なお、図24において、半導体基板200Aと半導体基板200Bとは、例えば貫通ビアや金属結合等により電気的に接続される。
図25には、図24の画素領域201と信号処理回路領域202の詳細な構成を示している。図25において、信号処理回路領域202は、カメラ信号処理部211や、各種の信号処理を行う信号処理部212乃至214などから構成される。
ここで、カメラ信号処理部211は、上述の信号処理部104(図7)を含んで構成することができる。すなわち、カメラ信号処理部211は、図11や、図15と図16のフローチャートに示した信号処理を行うことができる。なお、カメラ信号処理部211には、ディレイライン103やタイミング制御部106などを含めるようにしてもよい。また、画素領域201には、撮像素子102の画素アレイ部などが含まれる。
また、図26に示すように、画素領域201が形成された半導体基板200Aと、信号処理回路領域202が形成された半導体基板200Bとの間に、メモリ領域203が形成された半導体基板200Cが積層されるようにしてもよい。
図27には、図26の画素領域201と、信号処理回路領域202と、メモリ領域203の詳細な構成を示している。図27において、信号処理回路領域202は、カメラ信号処理部311や、各種の信号処理を行う信号処理部312乃至314などから構成される。また、メモリ領域203は、メモリ部321乃至322などから構成される。
ここで、カメラ信号処理部311は、図25のカメラ信号処理部211と同様に、信号処理部104(図7)等を含んで構成される。なお、メモリ領域203に、ディレイライン103を含めるようにして、当該ディレイライン103が、画素領域201(撮像素子102)からの画像データを順次記憶し、適宜、カメラ信号処理部311(信号処理部104)に供給するようにしてもよい。
<6.コンピュータの構成例>
上述した一連の処理(図11の信号処理や、図15と図16の信号処理)は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図28は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ1000において、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体1011を駆動する。
以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記録部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ1000では、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
なお、コンピュータ1000が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
ここで、本明細書において、コンピュータ1000に各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
<7.応用例>
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図29は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図29に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図29では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図30は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図30には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920〜7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図29に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE−A(LTE−Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi−Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図29の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図29に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
なお、図7を用いて説明した本実施形態に係るカメラユニット10の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
以上説明した車両制御システム7000において、図7を用いて説明した本実施形態に係るカメラユニット10は、図29に示した応用例の統合制御ユニット7600に適用することができる。例えば、カメラユニット10の信号処理部104及びタイミング制御部106は、統合制御ユニット7600のマイクロコンピュータ7610に相当する。例えば、統合制御ユニット7600が、異なる露光量で撮影した複数の画像を合成する際に、露光比を加味したそれぞれの画像の最大値を同一座標の画素値の差分量に応じてブレンドし、さらに、複数の異なる露光量で撮影を行う際に、それらの露光期間を可能な限り近接させる露光制御を行う事で、輝度差が非常に大きいシーンにおいて、点滅(高速に点滅)する撮影対象を確実に撮影することができる。
また、図7を用いて説明したカメラユニット10の少なくとも一部の構成要素は、図29に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図7を用いて説明したカメラユニット10が、図29に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
なお、本技術は、以下のような構成をとることができる。
(1)
異なる露光時間で撮影された複数の画像間における差分を検出する検出部と、
前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出する合成係数算出部と、
前記合成係数に基づいて前記複数の画像を合成する合成部と、
を備える信号処理装置。
(2)
前記複数の画像の露光時間を制御する制御部をさらに備え、
前記複数の画像は、第1露光時間を有する第1画像と、前記第1露光時間とは異なる第2露光時間を有する第2画像と、を含み、
前記制御部は、前記第1画像に続いて前記第2画像を撮影するよう制御するとともに、前記第1画像の露光終了と前記第2画像の露光開始との間隔を極小化する
前記(1)記載の信号処理装置。
(3)
前記制御部は、前記第1露光時間を前記第2露光時間よりも長くする
前記(2)記載の信号処理装置。
(4)
前記複数の画像それぞれの合成基準信号を生成する合成基準信号生成部をさらに備え、
前記検出部は、前記合成基準信号に基づいて前記差分を検出する
前記(1)乃至(3)のいずれかに記載の信号処理装置。
(5)
前記合成係数算出部は、前記合成基準信号に基づいて中間合成係数を算出し、前記中間合成係数と前記差分とに基づいて前記合成係数を算出する
前記(4)記載の信号処理装置。
(6)
前記合成基準信号生成部は、前記第1画像に対応する第1合成基準信号と前記第2画像に対応する第2合成基準信号とを生成し、
前記検出部は、前記差分として前記第1合成基準信号と前記第2合成基準信号との大小関係を検出し、
前記合成係数算出部は、前記第1合成基準信号と前記第2合成基準信号とのうち、大きな合成基準信号に対応する画像の合成割合を多くするよう合成係数を算出する
前記(4)又は(5)記載の信号処理装置。
(7)
前記合成基準信号は輝度値である
前記(4)乃至(6)のいずれかに記載の信号処理装置。
(8)
前記複数の画像は、前記第1露光時間及び前記第2露光時間のいずれとも異なる第3露光時間を有する第3画像をさらに含み、
前記制御部は、前記第2画像に続いて前記第3画像を撮影するよう制御するとともに、前記第2画像の露光終了と前記第3画像の露光開始との間隔を極小化する
前記(2)記載の信号処理装置。
(9)
前記制御部は、前記第1露光時間を前記第2露光時間よりも長くするとともに、前記第2露光時間を前記第3露光時間よりも長くするよう制御し、
前記合成部は、前記第1画像と前記第2画像とを合成した中間合成画像に対して前記第3画像を合成する
前記(8)記載の信号処理装置。
(10)
前記合成係数算出部は、前記第1画像と前記第2画像との合成割合を示す第1合成係数と、前記中間合成画像と前記第3画像との合成割合を示す第2合成係数と、を算出し、
前記合成部は、前記第1合成係数に基づいて前記第1画像と前記第2画像とを合成するとともに、前記第2合成係数に基づいて前記中間合成画像と前記第3画像とを合成する
前記(9)記載の信号処理装置。
(11)
前記制御部は、前記複数の画像それぞれの露光時間の合計時間を、明滅する被写体の消灯時間よりも長くなるよう制御する
前記(2)記載の信号処理装置。
(12)
異なる露光時間で撮影された複数の画像を生成する画像生成部と、
前記複数の画像間における差分を検出する検出部と、
前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出する合成係数算出部と、
前記合成係数に基づいて前記複数の画像を合成する合成部と、
を備える撮影装置。
(13)
異なる露光時間で撮影された複数の画像間における差分を検出することと、
前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出することと、
前記合成係数に基づいて前記複数の画像を合成することと、
を含む信号処理方法。
10 カメラユニット, 101 レンズ, 102 撮像素子, 103 ディレイライン, 104 信号処理部, 105 出力部, 106 タイミング制御部, 121 合成基準信号生成部, 122 合成係数算出部, 123 動き検出部, 124 合成係数変調部, 125 合成部, 141 合成基準信号生成部, 142 第1動き検出・合成係数算出部, 143 第1合成部, 144 第2動き検出・合成係数算出部, 145 第2合成部, 161 合成基準信号生成部, 162 第1合成係数算出部, 163 第2合成係数算出部, 164 動き検出・合成係数算出部, 165 最大値選択部, 166 第1合成部, 167 第2合成部, 168 第3合成部, 201 画素領域, 202 信号処理回路領域, 203 メモリ領域, 211 カメラ信号処理部, 311 カメラ信号処理部, 1000 コンピュータ, 1001 CPU, 7000 車両制御システム, 7600 統合制御ユニット, 7610 マイクロコンピュータ

Claims (13)

  1. 異なる露光時間で撮影された複数の画像間における差分を検出する検出部と、
    前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出する合成係数算出部と、
    前記合成係数に基づいて前記複数の画像を合成する合成部と、
    を備える信号処理装置。
  2. 前記複数の画像の露光時間を制御する制御部をさらに備え、
    前記複数の画像は、第1露光時間を有する第1画像と、前記第1露光時間とは異なる第2露光時間を有する第2画像と、を含み、
    前記制御部は、前記第1画像に続いて前記第2画像を撮影するよう制御するとともに、前記第1画像の露光終了と前記第2画像の露光開始との間隔を極小化する
    請求項1記載の信号処理装置。
  3. 前記制御部は、前記第1露光時間を前記第2露光時間よりも長くする
    請求項2記載の信号処理装置。
  4. 前記複数の画像それぞれの合成基準信号を生成する合成基準信号生成部をさらに備え、
    前記検出部は、前記合成基準信号に基づいて前記差分を検出する
    請求項1記載の信号処理装置。
  5. 前記合成係数算出部は、前記合成基準信号に基づいて中間合成係数を算出し、前記中間合成係数と前記差分とに基づいて前記合成係数を算出する
    請求項4記載の信号処理装置。
  6. 前記合成基準信号生成部は、前記第1画像に対応する第1合成基準信号と前記第2画像に対応する第2合成基準信号とを生成し、
    前記検出部は、前記差分として前記第1合成基準信号と前記第2合成基準信号との大小関係を検出し、
    前記合成係数算出部は、前記第1合成基準信号と前記第2合成基準信号とのうち、大きな合成基準信号に対応する画像の合成割合を多くするよう合成係数を算出する
    請求項4記載の信号処理装置。
  7. 前記合成基準信号は輝度値である
    請求項4記載の信号処理装置。
  8. 前記複数の画像は、前記第1露光時間及び前記第2露光時間のいずれとも異なる第3露光時間を有する第3画像をさらに含み、
    前記制御部は、前記第2画像に続いて前記第3画像を撮影するよう制御するとともに、前記第2画像の露光終了と前記第3画像の露光開始との間隔を極小化する
    請求項2記載の信号処理装置。
  9. 前記制御部は、前記第1露光時間を前記第2露光時間よりも長くするとともに、前記第2露光時間を前記第3露光時間よりも長くするよう制御し、
    前記合成部は、前記第1画像と前記第2画像とを合成した中間合成画像に対して前記第3画像を合成する
    請求項8記載の信号処理装置。
  10. 前記合成係数算出部は、前記第1画像と前記第2画像との合成割合を示す第1合成係数と、前記中間合成画像と前記第3画像との合成割合を示す第2合成係数と、を算出し、
    前記合成部は、前記第1合成係数に基づいて前記第1画像と前記第2画像とを合成するとともに、前記第2合成係数に基づいて前記中間合成画像と前記第3画像とを合成する
    請求項9記載の信号処理装置。
  11. 前記制御部は、前記複数の画像それぞれの露光時間の合計時間を、明滅する被写体の消灯時間よりも長くなるよう制御する
    請求項2記載の信号処理装置。
  12. 異なる露光時間で撮影された複数の画像を生成する画像生成部と、
    前記複数の画像間における差分を検出する検出部と、
    前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出する合成係数算出部と、
    前記合成係数に基づいて前記複数の画像を合成する合成部と、
    を備える撮影装置。
  13. 異なる露光時間で撮影された複数の画像間における差分を検出することと、
    前記差分に基づいて、前記複数の画像の合成割合を示す合成係数を算出することと、
    前記合成係数に基づいて前記複数の画像を合成することと、
    を含む信号処理方法。
JP2016181496A 2016-07-15 2016-09-16 信号処理装置、撮影装置、及び、信号処理方法 Pending JP2018019387A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/024105 WO2018012317A1 (ja) 2016-07-15 2017-06-30 信号処理装置、撮影装置、及び、信号処理方法
US16/316,075 US10805548B2 (en) 2016-07-15 2017-06-30 Signal processing apparatus, imaging apparatus, and signal processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016140919 2016-07-15
JP2016140919 2016-07-15

Publications (1)

Publication Number Publication Date
JP2018019387A true JP2018019387A (ja) 2018-02-01

Family

ID=61076493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016181496A Pending JP2018019387A (ja) 2016-07-15 2016-09-16 信号処理装置、撮影装置、及び、信号処理方法

Country Status (2)

Country Link
US (1) US10805548B2 (ja)
JP (1) JP2018019387A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020052317A1 (en) 2018-09-13 2020-03-19 Huawei Technologies Co., Ltd. Image processing system with led flicker mitigation
JP2021047353A (ja) * 2019-09-20 2021-03-25 株式会社Jvcケンウッド 撮像装置および撮像情報生成方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004203A (ja) * 2017-06-12 2019-01-10 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法、および、プログラム。
JP6933059B2 (ja) * 2017-08-30 2021-09-08 株式会社リコー 撮影装置、情報処理システム、プログラム、画像処理方法
JP7057079B2 (ja) * 2017-09-01 2022-04-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6891087B2 (ja) * 2017-09-29 2021-06-18 株式会社小松製作所 作業車両、表示装置、および障害判定方法
JP7157529B2 (ja) * 2017-12-25 2022-10-20 キヤノン株式会社 撮像装置、撮像システム、および撮像装置の駆動方法
JP2019161499A (ja) * 2018-03-14 2019-09-19 オリンパス株式会社 撮像装置
CN108683862B (zh) * 2018-08-13 2020-01-10 Oppo广东移动通信有限公司 成像控制方法、装置、电子设备及计算机可读存储介质
US10819915B1 (en) * 2019-10-17 2020-10-27 Horiba Instruments Incorporated Apparatus and method generating high dynamic range video
US10863106B1 (en) * 2019-10-21 2020-12-08 GM Global Technology Operations LLC Systems and methods for LED flickering and banding detection
CN114531552B (zh) * 2022-02-16 2023-06-27 四川创安微电子有限公司 一种高动态范围图像合成方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3082971B2 (ja) 1991-08-30 2000-09-04 富士写真フイルム株式会社 ビデオ・カメラ,それを用いた撮影方法およびその動作方法,ならびに画像処理装置および方法
JP4742453B2 (ja) 2001-06-20 2011-08-10 ソニー株式会社 撮像方法および装置
JP4979933B2 (ja) 2005-12-16 2012-07-18 株式会社オートネットワーク技術研究所 車載カメラ及びドライブレコーダ
JP5343588B2 (ja) 2009-01-30 2013-11-13 株式会社リコー 撮像装置
JP2011234318A (ja) 2010-04-30 2011-11-17 Yamaha Corp 撮像装置
JP5682434B2 (ja) 2011-04-26 2015-03-11 株式会社ニコン 撮像装置
JP2013219708A (ja) * 2012-04-12 2013-10-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9743025B2 (en) * 2015-12-30 2017-08-22 Omnivision Technologies, Inc. Method and system of implementing an uneven timing gap between each image capture in an image sensor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020052317A1 (en) 2018-09-13 2020-03-19 Huawei Technologies Co., Ltd. Image processing system with led flicker mitigation
EP3844944A4 (en) * 2018-09-13 2021-10-27 Huawei Technologies Co., Ltd. IMAGE PROCESSING SYSTEM WITH LED FLICKER REDUCTION
JP2021047353A (ja) * 2019-09-20 2021-03-25 株式会社Jvcケンウッド 撮像装置および撮像情報生成方法

Also Published As

Publication number Publication date
US20190335079A1 (en) 2019-10-31
US10805548B2 (en) 2020-10-13

Similar Documents

Publication Publication Date Title
US10805548B2 (en) Signal processing apparatus, imaging apparatus, and signal processing method
WO2018092379A1 (ja) 画像処理装置と画像処理方法
US10704957B2 (en) Imaging device and imaging method
JP6977722B2 (ja) 撮像装置、および画像処理システム
US11815799B2 (en) Information processing apparatus and information processing method, imaging apparatus, mobile device, and computer program
JP7226440B2 (ja) 情報処理装置、情報処理方法、撮影装置、照明装置、及び、移動体
WO2018016151A1 (ja) 画像処理装置と画像処理方法
WO2018016150A1 (ja) 画像処理装置と画像処理方法
JP7030703B2 (ja) 信号処理装置、撮影装置、及び、信号処理方法
WO2018131514A1 (ja) 信号処理装置、信号処理方法、およびプログラム
WO2018012317A1 (ja) 信号処理装置、撮影装置、及び、信号処理方法
WO2022038981A1 (ja) 情報処理装置及び情報処理方法、撮像装置、移動体装置、並びにコンピュータプログラム
WO2019035390A1 (en) CAMERA, METHOD, NON-TRANSIENT COMPUTER-READABLE MEDIUM, AND SYSTEM
WO2021229983A1 (ja) 撮像装置及びプログラム
US11438517B2 (en) Recognition device, a recognition method, and a program that easily and accurately recognize a subject included in a captured image
WO2018034157A1 (ja) 画像処理装置、画像処理方法、および撮像装置
WO2017212955A1 (ja) 撮像制御装置および方法、並びに車両
WO2018135208A1 (ja) 撮像装置と撮像システム