JP5427935B2 - 場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するためのカメラおよび方法 - Google Patents

場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するためのカメラおよび方法 Download PDF

Info

Publication number
JP5427935B2
JP5427935B2 JP2012207676A JP2012207676A JP5427935B2 JP 5427935 B2 JP5427935 B2 JP 5427935B2 JP 2012207676 A JP2012207676 A JP 2012207676A JP 2012207676 A JP2012207676 A JP 2012207676A JP 5427935 B2 JP5427935 B2 JP 5427935B2
Authority
JP
Japan
Prior art keywords
image
scene
motion
region
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012207676A
Other languages
English (en)
Other versions
JP2013135468A (ja
Inventor
ペル カナルマルク,
アンドレアス ニルソン,
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2013135468A publication Critical patent/JP2013135468A/ja
Application granted granted Critical
Publication of JP5427935B2 publication Critical patent/JP5427935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するための方法に関する。本発明は、処理能力を有する装置に対して実行されるときに上記の方法を実施するためのプログラムを記録しているコンピュータ可読記録媒体にも関する。さらに、本発明は、上記のコンピュータ可読記録媒体を実行する処理能力を有する装置にも関する。さらに、本発明は、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するように構成されたカメラにも関する。
カメラは、建物、道路、店などを監視するために一般的に使用されている。特に、カメラは、事象を動きが存在する形で検出しかつ/または追跡するために、場面を監視するように使用される。
カメラによって監視された事象の動きのレベルに応じて、カメラによって監視された場面を取り込むビデオ画像ストリーム内の一連の画像フレーム内の画像フレームの露光時間を調整することができる。例えば、米国特許出願公開第2008/0043112号明細書によれば、取り込まれた場面内に動きが無いまたは低レベルである限り、長い露光時間が使用される。これに対して、監視された場面が高レベルの動きを有する場面を含んでいる場合、露光のより短い露光時間への切り替えが行われる。しかしながら、この方法での問題は、より短い露光時間に切り替わると、露光時間が低レベルの動きを有する事象を監視するには短くなりすぎることである。特に薄暗い状態の間に露光時間が短すぎる場合、低レベルの動きを有する事象の細部を識別するのは困難である。さらに、高レベルの動きを有する事象の検出に失敗した場合、したがって長い露光時間が使用された場合、事象は取り入れられた画像においてぼやける。
上記の一解決法は、2つ以上のカメラ、すなわち異なる露光時間を有する異なるカメラを使用することである。しかしながら、このような既知の解決法は費用がかかり、使用するのが厄介である。
本発明の一目的は、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するのを改善できるようにすることである。
本発明の別の目的は、動きの多い事象をぼやけさせずに動きの少ないまたは無い事象の信号対雑音比の向上を可能にすることである。
これらの目的、それにまた以下の説明から明らかになる追加の目的も達成するために、本発明は、請求項1によれば、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するための方法を提供し、請求項9によれば、処理能力を有する装置に対して実行されるときに請求項1に記載の方法を実施するためのプログラムを記録しているコンピュータ可読記録媒体を提供し、請求項10によれば、請求項9に記載のコンピュータ可読記録媒体を実行する処理能力を有する装置を提供し、請求項11によれば、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するように構成されたカメラを提供する。本発明の他の実施形態は従属請求項に開示されている。
特に本発明の第1の態様によれば、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するための方法が提供される。この方法は、複数の画像センサフレームからの画像データに基づいて、異なるレベルの動きを含む場面の領域を決定するステップと、前記画像フレームの画像フレーム領域を決定するステップであって、画像フレーム領域が場面の少なくとも1つの領域に対応する、ステップと、いくつかの画像センサフレームからの画像データを使用して各画像フレーム領域を生成することにより各画像フレーム領域に対する領域特有の露光時間をエミュレートすることによって画像フレームの露光を最適化するステップであって、特定の画像フレーム領域を生成するために使用される画像センサフレームの数が場面の少なくとも1つの対応する領域内の動きのレベルに基づいている、ステップと、を含む。
これによれば、場面の対応する領域内の動きのレベルに基づいて、異なる画像フレーム領域に対する異なる露光時間がエミュレートされ、それによって画像フレームの露光は最適化される。これにより、低レベルの動きを有する場面の領域は長いエミュレート済み露光時間を使用して取り入れることができ、高レベルの動きを有する場面の領域は短い露光時間を使用して取り入れることができる。したがって、速く動く物体は、静止物体またはゆっくり動く物体の細部の画質が高めることができるので、ぼやけることなく同時に取り入れることができる。場面の静的領域またはごく低レベルの動きを有する場面の領域を描写する画像フレームの領域は高い信号対雑音比を有する。これは、画像フレームのこれらの領域が複数の画像センサフレームからの画像データを使用することによって生成されるからである。
各画像フレーム領域を生成するために使用される画像データは、場面の対応する少なくとも1つの領域に由来する画像データとすることができる。
少なくとも1つの画像フレーム領域が、2つ以上の画像センサフレームからの画像データを混合することによって生成されうる。画像フレーム領域は、2つ以上の画像センサフレームからの画像データが画像フレーム領域を生成するために使用されており、高い信号対雑音比を呈する。2つ以上の画像センサフレームからの画像データを混合するのは、2つ以上の画像センサフレームからの画像データを追加および/または平均化することによって行われる。
場面の領域内の動きのレベルは、場面の領域内の動きの事象の速度および/または場面の領域内の動きの事象の数に対応することができる。速度は、場面の領域内の動きの事象の実速度でも場面の領域内の動きの事象の平均速度でもよい。すなわち、速度(実速度または平均速度)は動きの存在を定義するために使用することができ、動く物体の数は動きのレベルを定義するために使用することができる。あるいは、動く物体の数は動きの存在を定義することができ、速度(平均速度または実速度)は動きのレベルを定義することができる。当業者は、動きのレベルを定義する他の多くの選択肢もまた想定されうるが、これらの選択肢はすべてどれだけの動きがあるのかを示すある種の基準を与えることに気付く。
各画像センサフレームは単位露光時間を使用して取り込むことができる。
各画像フレーム領域に対する領域特有の露光時間は、各画像センサフレームに対する単位露光時間と同等であるかまたはそれより長いものとすることができる。
前記複数の画像センサフレームは、場面の異なる領域の動きのレベルの統計マップを構成するために使用することができ、異なるレベルの動きを含む場面の領域を決定する前記ステップは、前記統計マップを分析することによって行うことができる。統計マップを使用することにより、単一事象を逃す機会は減少することになる。
本発明の第2の態様によれば、処理能力を有する装置に対して実行されるときに上記の方法を実施するためのプログラムを記録しているコンピュータ可読記録媒体が提供される。
本発明の第3の態様によれば、上記のコンピュータ可読記録媒体を実行する処理能力を有する装置が提供される。
本発明の第4の態様によれば、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するように構成されたカメラが提供される。このカメラは、画像データを画像センサフレームとして取り込み出力するように構成された画像センサと、複数の画像センサフレームからの画像データに基づいて、異なるレベルの動きを含む場面の領域を決定するように構成された動き検出モジュールと、前記画像フレームを生成するように構成された画像フレーム生成モジュールと、を備え、前記画像フレーム生成モジュールは前記画像フレームを複数の画像フレーム領域に分割するように構成され、画像フレーム領域は場面の少なくとも1つの領域に対応し、前記画像フレーム生成モジュールは、いくつかの画像センサフレームからの画像データを使用することにより各画像フレーム領域を生成するように構成され、特定の画像フレーム領域を生成するために使用される画像センサフレームの数は、場面の対応する領域内の動きのレベルに基づいており、それにより、前記画像フレーム生成モジュールは、場面の対応する領域内の動きのレベルに基づいて、異なる画像フレーム領域に対する異なる露光時間をエミュレートするように構成され、それによって画像フレームの露光が最適化される。
前記画像フレーム生成モジュールは、場面の対応する少なくとも1つの領域に由来する画像データを使用することにより各画像フレーム領域を生成するように構成することができる。
前記画像フレーム生成モジュールは、2つ以上の画像センサフレームからの画像データを混合することによって少なくとも1つの画像フレーム領域を生成するように構成することができ、前記画像フレーム生成モジュールは、2つ以上の画像センサフレームからの画像データを追加および/または平均化することによって2つ以上の画像センサフレームからの画像データを混合するように構成することができる。
前記動き検出モジュールは、前記複数の画像センサフレームを使用することにより場面の異なる領域の動きのレベルの統計マップを構成するように構成することができ、前記動き検出モジュールは、前記統計マップを分析することにより異なるレベルの動きを含む場面の領域を決定するように構成することができる。
次に、本発明のこの態様およびその他の態様について、本発明の実施形態を示す添付図面を参照しながらより詳細に説明する。これらの図面は、本発明を特定の実施形態に限定すると見なされるべきでない。代わりに、これらの図面は本発明を説明しかつ理解するために使用される。
本発明の一実施形態によるデジタル・ネットワーク・カメラの概略図である。 本発明の一実施形態による方法を示す概略フローチャートである。
図1に、本発明の一実施形態によるカメラ1の概略図を示す。カメラ1は、例えばデジタル・ネットワーク・ビデオ・カメラとすることができる。カメラは、例えば監視目的に使用することができる。さらに、カメラ1は、固定カメラまたはパン/チルト機能を有するカメラとすることができる。本発明の理解を容易にするために、本発明に関連しないカメラの標準機能については説明しない。カメラ1は、ハウジング2、レンズ3、画像センサ4、動き検出モジュール6、画像フレーム生成モジュール8、メモリ10、およびプロセッサ12を備える。
画像センサ4は、カメラ1によって見られている場面を表す画像データを取り込みかつ前記画像データを画像センサフレームとして出力するように構成される。画像センサ4は、例えば、入射光を記録するための電荷結合素子(CCD)センサ、CMOSセンサ、または類似のものとすることができる。あるいは、画像センサ4は、ボロメータやIR検出器などの、非可視光を記録するセンサとすることができる。
通常、各画像センサフレームは単位露光時間を有している。単位露光時間は、場面内の光のレベルに応じてかつ/または場面内の動きの全体的なレベルに応じて変化することができる。
動き検出モジュール6は、画像センサ4から出力されている画像センサフレームの画像データを分析するように構成される。通常、複数の画像センサフレームに対応する画像データがビデオシーケンスを構成していて、動きの存在を決定するために分析される。動き検出方法の例は、ビデオシーケンスの画像ボリュームの時空間的変化を分析することを含む。この種の方法は当業者によく知られている。この種の方法の非限定的な例が米国特許出願公開第2010/0080477号明細書に記述されている。
上記の動き検出方法から、動きの事象、ならびにこれらの事象が生じている場面内の場所、これらの事象の数および/または動きのこれらの事象の速度を見出すことができる。「動きの事象(event of motion)」という用語は、本願の状況では、動きの存在と理解されるべきである。したがって、カメラによって見られている場面の異なる領域内の動きのレベルを決定することができる。場面の領域内の「動きのレベル(level of motion)」という用語は、本願の状況では、場面の領域内の動きの事象、すなわち動く物体の速度、および/または場面の領域内の動きの事象の数と理解されるべきである。速度は、場面の領域内の動きの事象の実速度でも場面の領域内の動きの事象の平均速度でもよい。すなわち、速度(実速度または平均速度)は動きの存在を定義するために使用することができ、動く物体の数は動きのレベルを定義するために使用することができる。あるいは、動く物体の数は動きの存在を定義することができ、速度(実速度または平均速度)は動きのレベルを定義することができる。当業者は、動きのレベルを定義する他の多くの選択肢もまた想定されうるが、これらの選択肢はすべてどれだけの動きがあるのかを示すある種の基準を与えることに気付く。「場面の領域(region of the scene)」という用語は、本願の状況では、複数の画像を取り込むように構成されているカメラの場面の領域と理解されるべきである。領域は、例えば画素座標系を使用して、カメラの画像ビュー内の座標として表すことができるが、他の表示を使用することもできる。場面の各領域のサイズおよび場面内の動きの事象の程度に応じて、動きの事象は場面の複数の領域を網羅することができる。したがって、一実施形態では、動きの事象の決定された存在が場面の複数の領域の存在となりうる。別の実施形態によれば、カメラによって見られた場面内の各領域は、カメラのパン/チルト設定とともに、位置、例えばカメラの現在の画像ビュー内の1つまたは複数の画素によって表される(すなわち、前記複数の画像センサフレームのうちの1つの中の画素座標によって表される)。これは、パン/チルト機能を有するカメラに適用可能である。したがって、パン/チルトカメラによって見られている場面内の領域を決定することができる。
動き検出モジュール6は、複数の画像センサフレームからの画像データに基づいて、異なるレベルの動きを含む、カメラによって見られた場面の領域を決定するように構成される。動き検出モジュール6の最も簡単な形では、前記複数の画像センサは2つである。これらの2つの画像センサフレーム内に描かれた場面の異なる領域に対して、次いで、動きのレベルは、上記の方法のうちのいずれか1つ、あるいは画像データを2つの画像センサフレームの間で比較することにより場面の異なる領域内の動きのレベルを決定するための他の適切な方法に従って決定される。上記方法のうちのいくつかは、そしてまた場面の異なる領域内の動きのレベルを決定するために使用される他の方法も、異なる領域の動きの前記レベルを決定するときに、3つ以上の画像センサフレームを利用することができる。したがって、動き検出モジュール6は、複数の画像センサフレームからの画像データに基づいて、異なるレベルの動きを含む場面の領域を決定するように構成される。したがって、カメラ1によって見られている場面は、動きのレベルに応じて複数の領域に分割される。
一実施形態によれば、動き検出モジュール6は、複数の画像センサフレームを使用することにより場面の異なる領域の動きのレベルの統計マップを構成するように構成される。このマップは経時的に構築することができ、あるいは歴史的データから構成することもできる。動き検出モジュール6はさらに、前記統計マップを分析することにより異なるレベルの動きを含む場面の領域を決定するように構成される。この実施形態の場合、前記複数の画像センサフレームは多数の画像センサフレームであり、例えば、数分間、数時間または数日間収集された画像センサフレームである。使用する通常のフレームレートは1秒当たり60フレームである。しかし、当業者によって良く知られているように、用途に応じて他のフレームレートを使用することもできる。この多数の画像センサフレームは、カメラによって見られた場面の異なる領域内の動きのレベルのマップを構成するために使用される。
動きのレベルの統計マップは、複数の画像センサフレームを動きの事象に対して分析することによって構築される。一般に、動きの事象を表すために使用されるデータは、動き検出モジュール6内の動き検出アルゴリズムからの出力データである。動き検出アルゴリズムからの出力データは、事象の、その事象が起きた場面の領域内での速度を含むことができる。複数の画像センサフレームを分析しているときに見出された動きの各事象は統計マップに記録される。したがって、統計マップは、場面の異なる領域の動きのレベルを表す情報を含むように構築される。この種の統計マップは、3次元ヒストグラムまたは頻度マップで表すことができる。したがって、3次元ヒストグラムまたは頻度マップ内の場面の領域に対応する各ビンは、動きの事象がその特定の位置で何回起きているのかを示しかつ/またはこれらの動きの事象の速度がどれほどであるかを示す値である動きのレベルを含んでいる。速度は、場面の領域内の動きの事象の実速度でも場面の領域内の動きの事象の平均速度でもよい。別法として、統計マップは数式で表すことができ、例えば、面は多項式で表すことができ、ここで場面の各領域内の動きのレベルは特定の位置でこの多項式の値である。したがって、場面の前記決定された領域内の動きのレベルは、動きの事象が全体的に出現する領域を示し、そしてまた動きの事象が全体的には出現しない領域も示す。これについて以下の例でさらに説明する。カメラが道路沿いの店の入口を監視する一方で、依然として舗道の一部および店の前の道路を「見ている」のを想像されたい。この場面では、通常、道路上での自動車の動きは多く、舗道上での人々の動きはいくぶん少なく、建物の壁を覆う画像部分上での動きはさらに少ない。したがって、上述した場面の異なる領域の動きのレベルの統計マップを使用することにより、道路に対応する領域内では動きのレベルが高く、舗道に対応する領域内では動きのレベルがより低く、建物の壁に対応する領域内では動きのレベルがさらに低いことを統計的に見出すことができる。
統計マップはダイナミックに更新することができる。すなわち、新たに取り込まれた画像センサフレームからの新たに見出された動きの事象に関するデータは、取り込まれる画像データが増大するにつれて統計マップを経時的に更新するために使用することができる。更新は様々な方法でトリガすることができる。一例によれば、更新は、一定量の画像データが取り込まれたときにトリガされる。別の例によれば、更新は、最終更新から一定時間が経過したことによってトリガされる。更新は、例えば、新たに取り込まれ分析された画像センサフレームに由来する動きの事象に関するデータが統計マップを更新するために単純に使用されるものとすることができる。別の例によれば、更新は、古い動きの事象を削除することによって行うことができる。さらなる実施形態によれば、新たに取り入れられ分析された画像センサフレームに由来する事象に関するデータが統計マップを更新するために使用され、古い動きの事象に対応するデータはマップから除去される。
画像フレーム生成モジュール8は、カメラ1によって見られている場面を取り込むビデオ画像ストリーム内に一連の画像フレームを生成するように構成される。画像フレーム生成モジュール8によって生成されている各画像フレームは複数の領域に分割され、1つの画像フレーム領域が場面の1つの領域に対応している。画像フレーム生成モジュール8は、1つまたは複数の画像センサフレームからの画像データを使用することにより、場面を取り込むビデオ画像ストリーム内に前記一連の画像フレーム内の画像フレームの領域を生成するように構成される。前記画像フレームの特定領域を生成するために使用される画像センサフレームの数は、場面の対応する領域内の動きのレベルに基づいている。したがって、場面の対応する領域内の動きのレベルに基づいて、画像フレームの異なる領域に対する異なる露光時間がエミュレートされる。それによって前記画像フレームの露光が最適化される。高レベルの動きを有する前記画像フレームの領域は、1つだけまたは第1の少数の画像センサフレームからの画像データを使用して生成される。したがって、これらの領域に対しては短い露光時間がエミュレートされる。これに対して、低レベルの動きを有する前記画像フレームの領域は、第2のいくつかの画像センサフレームからの画像データを使用して生成される。したがって、これらの領域に対しては長い露光時間がエミュレートされる。前記第2のいくつかの画像センサフレームは、前記第1の少数の画像センサフレームより多い。すなわち、特定の画像フレーム領域を生成するために使用される画像センサフレームの数は、場面の対応する領域内の動きのレベルに依存する。したがって、低レベルの動きを有する前記画像フレームの第1の領域に対する露光時間は、高レベルの動きを有する画像フレームの第2の領域に対する第2の露光時間より長い。
画像フレームの領域内の露光時間をエミュレートするために使用される画像センサフレームの数は、異なるレベルの動きを含む場面の領域を決定するために使用される画像センサからの複数の画像センサフレームより多くすることができる。その逆もまた可能である。すなわち、画像フレームの領域内の露光時間をエミュレートするために使用された画像センサからの画像センサフレームの数は、異なるレベルの動きを含む場面の領域を決定するために使用される複数の画像センサフレームより少なくする(または同量とする)ことができる。
画像フレームの領域を生成するために使用される画像センサの数が2つ以上である場合、画像フレーム生成モジュール8は、複数の画像センサフレームからの画像データを追加することにより前記数の画像センサフレームからの画像データを混合することによって前記画像フレームの領域を生成するように構成される。別法として、画像フレーム生成モジュール8は、前記数の画像センサフレームからの画像データを平均化することにより前記数の画像センサフレームからの画像データを混合することによって前記画像フレームの領域を生成するように構成される。いくつかの画像センサフレームからの画像データを追加または平均化することによってより長い露光時間をエミュレートすることにより、いわゆる画像スタッキング(今日、天体写真術の分野で広く使用されている)により、信号対雑音比が増大する。
動き検出モジュール6および/または画像フレーム生成モジュール8は、ハードウェアまたはソフトウェアを使用して実装されうることが分かる。ソフトウェアで実装される場合、ソフトウェアは、カメラ1のプロセッサ12によって実行されるようにするために、コンピュータ可読媒体、例えばカメラ1のメモリ10に記録することができる。
図2は、場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するための方法の一実施形態による概略フローチャートを示す。この方法は、以下のステップを含む。すなわち、複数の前記画像センサフレームからの画像データに基づいて、異なるレベルの動きを含む場面の領域を決定するステップ100と、前記画像フレームの画像フレーム領域を決定するステップ102であって、画像フレーム領域が場面の少なくとも1つの領域に対応する、ステップ102と、いくつかの画像センサフレームからの画像データを使用して各画像フレーム領域を生成することにより各画像フレーム領域に対する領域特有の露光時間をエミュレートすることによって画像フレームの露光を最適化するステップ104であって、特定の画像フレーム領域を生成するために使用される画像センサフレームの数が場面の少なくとも1つの対応する領域内の動きのレベルに基づいている、ステップ104と、を含む。
ステップ100の間、複数の画像センサフレームが分析され、動きの事象が検出される。動きの事象は通常、動き検出アルゴリズムによって識別される。場面の各領域に対する動きの事象の数および/または場面の各領域に対する動きの事象の速度は、場面の各特定領域に対する動きのレベルを見出すために決定される。
各画像フレーム領域を生成するために使用される画像データは、場面の対応する少なくとも1つの領域に由来する画像データである。2つ以上の画像センサフレームからの画像データが使用される場合、画像データは、画像データを追加および/または平均化することによって混合される。
一実施形態によれば、場面内の動きのレベルに基づいて、場面を取り込む一連の画像フレーム内の画像フレームの露光を最適化するステップは、複数の画像センサフレームからの画像データに基づいて、第1のレベルの動きを含む場面の第1の領域および第2のレベルの動きを含む場面の第2の領域を決定するステップと、前記画像フレームの第1の領域に対する第1の露光時間および前記画像フレームの第2の領域に対する第2の露光時間をエミュレートすることにより画像フレームの露光を最適化するステップであって、前記画像フレームの第1の領域が場面の第1の領域に対応し、前記画像フレームの第2の領域が場面の第2の領域に対応する、ステップと、を含む。露光時間のエミュレーションは、第1のいくつかの画像センサフレームからの画像データを使用することにより前記画像フレームの第1の領域を生成し、前記画像フレームの第1の領域を生成するために使用される画像センサフレームの第1の数が場面の第1の領域内の動きのレベルに基づいていること、および、第2のいくつかの画像センサフレームからの画像データを使用することにより前記画像フレームの第2の領域を生成し、前記画像フレームの第2の領域を生成するために使用される画像センサフレームの第2の数が場面の第2の領域内の動きのレベルに基づいていることによって行われる。画像フレームの第1の領域を生成するために使用される画像データは場面の第1の領域に由来する画像データであり、画像フレームの第2の領域を生成するために使用される画像データは場面の第2の領域に由来する画像データである。第1のレベルの動きは第2のレベルの動きより少なく、前記露光時間は前記第2の露光時間より長い。前記画像フレームの第1の領域を生成するために使用される画像センサフレームの第1の数は2つ以上であり、前記画像フレームの第2の領域を生成するために使用される画像センサフレームの前記第2の数は1つまたは複数である。第2のエミュレートされる露光時間は、前記複数の画像センサフレームのうちのそれぞれの個々の画像センサフレームに対する露光時間と同じかまたはそれより長い。すべての画像センサフレームは単位露光時間を有している。前記第1の領域内の動きのレベルおよび前記第2の領域内の動きのレベルは、対応する領域内の動きの事象の実速度または平均速度に対応しかつ/または対応する領域内の動きの事象の数に対応する。前記画像フレームの領域を生成するために使用される画像センサフレームの数が2つ以上である場合、前記画像フレームの領域を生成するのは、いくつかの画像センサフレームからの画像データを追加すること、および/またはいくつかの画像センサフレームからの画像データを平均化することによっていくつかの画像センサフレームからの画像データを混合することにより行われる。
要約すると、本発明によれば、カメラによって見られているまたは監視されている場面の異なる領域内の動きのレベルを決定するために、少なくとも2つの画像センサフレームが比較される。場面を取り込むビデオ画像ストリーム内の一連の画像フレーム内の画像フレームの露光は、場面の対応する異なる領域内の動きのレベルに基づいて局所的に(画像フレームの領域内で)最適化される。画像フレームの露光の最適化は、画像フレームの異なる領域に対する異なる露光を局所的にエミュレートすることによって行われる。ビデオ画像ストリーム内の前記一連の画像フレームの画像フレームの露光は、異なる数の画像センサフレームからの画像データを使用することにより前記画像フレームの異なる領域を生成することにより前記画像フレームの異なる領域に対する異なる露光時間を局所的にエミュレートすることによって最適化される。特定領域に使用されるべき画像センサフレームの数は、場面の対応する領域の動きのレベルに基づいている。2つ以上の画像センサフレームからの画像データが画像フレームの特定領域を生成するために使用される場合、前記2つ以上の画像センサフレームからの画像データは追加および/または平均化によって混合される。したがって、異なる画像フレーム領域に対する異なる露光時間は場面の対応する領域内の動きのレベルに基づいてエミュレートすることができ、それによって画像フレームの露光は最適化される。
当業者は、本発明が上述した実施形態に決して限定されないことに気付く。
例えば、本発明はデジタルカメラとアナログカメラのどちらにも適用可能である。今日のインテリジェント・アナログ・カメラでは、デジタル画像処理がカメラ内で行われ、次いでデジタル信号がカメラを出る前にアナログ信号に変換される。また、アナログカメラに接続された画像A/Dコンバータを使用して、より単純なアナログカメラを使用することができる。
さらに、カメラ1は、ネットワークに接続すること、独立型のカメラとすること、またはシステム内に他の方法で接続することができる。
さらに、複数の画像は、静止画像でも動画像でもよく、あるいはそれらを組み合わせたものでもよい。
さらに、本発明はカメラ内に実装される必要はなく、代わりに、カメラおよび処理ユニットを備えるカメラシステム内に実装することができる。したがって、カメラは、例えばネットワークを通じて処理ユニットに接続される。この実施形態によれば、カメラは前記画像センサフレームを取り込みかつ生成するように構成され、処理ユニットは画像データを処理するように構成される。したがって、処理ユニットは、前記動き検出モジュール6、前記画像フレーム生成モジュール8、前記メモリ10、および前記プロセッサ12を備える。複数のカメラを処理ユニットに接続することもでき、処理ユニットは複数のカメラのそれぞれ1つによって取り込まれた画像を処理するように構成される。
したがって、多くの変更形態および変形形態が添付の特許請求の範囲内で可能である。
1 カメラ
2 ハウジング
3 レンズ
4 画像センサ
6 動き検出モジュール
8 画像フレーム生成モジュール
10 メモリ
12 プロセッサ

Claims (15)

  1. 場面を取り込む一連の画像フレーム内の画像フレームを前記場面内の動きのレベルに基づいて生成する方法であって、一連の画像フレーム内の前記画像フレームが最適化された露光を有し、
    前記場面を表す画像センサフレームにアクセスするステップと、
    複数の前記画像センサフレームからの画像データに基づいて、異なるレベルの動きを含む前記場面の領域を決定するステップ(100)と、
    前記画像フレームの画像フレーム領域を決定するステップ(102)であって、画像フレーム領域が前記場面の前記領域のうちの少なくとも1つに対応する、ステップ(102)と、
    いくつかの前記画像センサフレームからの画像データを使用して各画像フレーム領域を生成することにより各画像フレームの領域に対する領域特有の露光時間をエミュレートすることによって前記画像フレームの露光を最適化するステップ(104)であって、特定の画像フレーム領域を生成するために使用される前記画像センサフレームの数が前記場面の前記少なくとも1つの対応する領域内の前記動きのレベルに基づいており、前記場面の領域内の前記動きのレベルが、前記場面の前記領域内の動きの事象の速度および前記場面の前記領域内の動きの事象の数に対応する、ステップ(104)と、
    を含む方法。
  2. 各画像フレーム領域を生成するために使用される前記画像データが、前記場面の前記対応する少なくとも1つの領域に由来する画像データである、請求項1に記載の方法。
  3. 少なくとも1つの画像フレーム領域が、2つ以上の画像センサフレームからの画像データを混合することによって生成される、請求項1または2に記載の方法。
  4. 2つ以上の画像センサフレームからの画像データの混合が、2つ以上の画像センサフレームからの画像データを追加および/または平均化することによって行われる、請求項3に記載の方法。
  5. 各画像センサフレームが単位露光時間を使用して取り込まれる、請求項1乃至のいずれか一項に記載の方法。
  6. 各画像フレーム領域に対する領域特有の露光時間が、各画像センサフレームに対する前記単位露光時間と同等であるかまたはそれより長い、請求項に記載の方法。
  7. 前記複数の画像センサフレームが、前記場面の異なる領域の動きのレベルの統計マップを構成するために使用され、異なるレベルの動きを含む前記場面の領域を決定する前記ステップが、前記統計マップを分析することによって行われ、前記統計マップは、特定の位置で起きる動きの事象の頻度を示す、請求項1乃至のいずれか一項に記載の方法。
  8. 前記画像センサフレームから得られた動きの事象に関するデータをもとに、前記統計マップが経時的に更新される、請求項7に記載の方法。
  9. 処理能力を有する装置(1)に対して実行されるときに請求項1乃至のいずれか一項に記載の方法を実施するためのプログラムを記録しているコンピュータ可読記録媒体(10)。
  10. 請求項9に記載のコンピュータ可読記録媒体(10)を実行する処理能力を有する装置(10)。
  11. 場面を取り込む一連の画像フレーム内の画像フレームを前記場面内の動きのレベルに基づいて生成するように構成されたカメラ(1)であって、一連の画像フレーム内の前記画像フレームが最適化された露光を有し、
    画像データを画像センサフレームとして取り込み出力するように構成された画像センサ(3)と、
    前記画像フレームを生成するように構成された画像フレーム生成モジュール(8)と
    を備え、
    前記画像フレーム生成モジュール(8)が、前記画像フレームを複数の画像フレーム領域に分割するように構成され、
    前記画像フレーム生成モジュール(8)が、いくつかの前記画像センサフレームからの画像データを使用することにより各画像フレーム領域を生成するように構成され、
    複数の前記画像センサフレームからの画像データに基づいて、異なるレベルの動きを含む前記場面の領域を決定するように構成された動き検出モジュール(6)であって、画像フレーム領域が前記場面の前記領域のうちの少なくとも1つに対応する、動き検出モジュール(6)を特徴とし、
    特定の画像フレーム領域を生成するために使用される前記画像センサフレームの数が、前記場面の前記少なくとも1つ対応する領域内の前記動きのレベルに基づいており、前記場面の領域内の前記動きのレベルが、前記場面の前記領域内の動きの事象の速度および前記場面の前記領域内の動きの事象の数に対応し、
    それにより、前記画像フレーム生成モジュール(8)が、前記場面の少なくとも1つの対応する領域内の動きのレベルに基づいて、異なる画像フレーム領域に対する異なる露光時間をエミュレートするように構成され、それによって前記画像フレームの前記露光が最適化される、カメラ(1)。
  12. 前記画像フレーム生成モジュール(8)が、前記場面の前記対応する少なくとも1つの領域に由来する画像データを使用することにより各画像フレーム領域を生成するように構成される、請求項11に記載のカメラ(1)。
  13. 前記画像フレーム生成モジュール(8)が、2つ以上の画像センサフレームからの画像データを混合することによって少なくとも1つの画像フレーム領域を生成するように構成され、前記画像フレーム生成モジュール(8)が、2つ以上の画像センサフレームからの画像データを追加および/または平均化することによって2つ以上の画像センサフレームからの画像データを混合するように構成される、請求項11または12に記載のカメラ(1)。
  14. 前記動き検出モジュール(6)が、前記複数の画像センサフレームを使用することにより前記場面の異なる領域の動きのレベルの統計マップを構成するように構成され、前記動き検出モジュール(6)が、前記統計マップを分析することにより異なるレベルの動きを含む前記場面の前記領域を決定するように構成され、前記統計マップは、特定の位置で起きる動きの事象の頻度を示す、請求項11乃至13のいずれか一項に記載のカメラ(1)。
  15. 前記画像センサフレームから得られた動きの事象に関するデータをもとに、前記統計マップが経時的に更新される、請求項14に記載のカメラ(1)。
JP2012207676A 2011-12-22 2012-09-21 場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するためのカメラおよび方法 Active JP5427935B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP11195213.1A EP2608529B1 (en) 2011-12-22 2011-12-22 Camera and method for optimizing the exposure of an image frame in a sequence of image frames capturing a scene based on level of motion in the scene
EP11195213.1 2011-12-22

Publications (2)

Publication Number Publication Date
JP2013135468A JP2013135468A (ja) 2013-07-08
JP5427935B2 true JP5427935B2 (ja) 2014-02-26

Family

ID=45440285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012207676A Active JP5427935B2 (ja) 2011-12-22 2012-09-21 場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するためのカメラおよび方法

Country Status (6)

Country Link
US (1) US9235880B2 (ja)
EP (1) EP2608529B1 (ja)
JP (1) JP5427935B2 (ja)
KR (1) KR101781154B1 (ja)
CN (1) CN103179350B (ja)
TW (1) TWI538510B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9986179B2 (en) * 2014-09-30 2018-05-29 Qualcomm Incorporated Sensor architecture using frame-based and event-based hybrid scheme
KR101592790B1 (ko) 2014-11-26 2016-02-18 현대자동차주식회사 카메라 노출 제어 시스템 및 그 방법
CN107395997A (zh) * 2017-08-18 2017-11-24 维沃移动通信有限公司 一种拍摄方法及移动终端
US10552707B2 (en) * 2017-12-07 2020-02-04 Qualcomm Incorporated Methods and devices for image change detection
EP3503028B1 (en) * 2017-12-21 2020-02-12 Axis AB Setting of a motion trigger level
CN108525304B (zh) * 2018-04-16 2021-06-22 网易(杭州)网络有限公司 一种图像分析方法、装置、存储介质及电子装置
EP3827582A4 (en) * 2018-08-14 2021-07-21 Huawei Technologies Co., Ltd. IMAGE PROCESSING APPARATUS AND FEATURE EXTRACTION METHOD
JP7281897B2 (ja) * 2018-12-12 2023-05-26 キヤノン株式会社 撮像装置及びその制御方法並びにプログラム
US11107205B2 (en) * 2019-02-18 2021-08-31 Samsung Electronics Co., Ltd. Techniques for convolutional neural network-based multi-exposure fusion of multiple image frames and for deblurring multiple image frames
US11200653B2 (en) * 2019-08-06 2021-12-14 Samsung Electronics Co., Ltd. Local histogram matching with global regularization and motion exclusion for multi-exposure image fusion
CN116647685A (zh) * 2020-10-26 2023-08-25 杭州海康威视数字技术股份有限公司 视频编码方法、装置、电子设备及可读存储介质
US20220138964A1 (en) * 2020-10-30 2022-05-05 Qualcomm Incorporated Frame processing and/or capture instruction systems and techniques
JP2022093914A (ja) * 2020-12-14 2022-06-24 キヤノン株式会社 撮像装置、その制御方法およびプログラム
US11800233B2 (en) * 2021-05-21 2023-10-24 Lumileds Llc System with adaptive light source and neuromorphic vision sensor
WO2024035223A1 (en) * 2022-08-11 2024-02-15 Samsung Electronics Co., Ltd. System and method for enhancing the quality of a video

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5475425B1 (en) * 1994-01-25 2000-07-25 Przyborski Production Apparatus and method for creating video ouputs that emulate the look of motion picture film
US6864915B1 (en) * 2000-10-27 2005-03-08 Eastman Kodak Company Method and apparatus for production of an image captured by an electronic motion camera/sensor that emulates the attributes/exposure content produced by a motion camera film system
JP3686333B2 (ja) 2000-12-22 2005-08-24 三菱重工業株式会社 動画像処理カメラ及びこれを用いた画像処理システム
CN101095078B (zh) 2004-12-29 2010-04-28 诺基亚公司 数字成像的曝光
US7557832B2 (en) * 2005-08-12 2009-07-07 Volker Lindenstruth Method and apparatus for electronically stabilizing digital images
US7546026B2 (en) * 2005-10-25 2009-06-09 Zoran Corporation Camera exposure optimization techniques that take camera and scene motion into account
JP4509917B2 (ja) * 2005-11-21 2010-07-21 株式会社メガチップス 画像処理装置及びカメラシステム
CN100566381C (zh) * 2006-01-23 2009-12-02 精工爱普生株式会社 摄像元件及其装置、摄像方法、摄像系统及图像处理装置
JPWO2008099685A1 (ja) 2007-02-01 2010-05-27 ソニー株式会社 画像再生装置と画像再生方法および撮像装置とその制御方法
US7548689B2 (en) 2007-04-13 2009-06-16 Hewlett-Packard Development Company, L.P. Image processing method
TW200922290A (en) * 2007-11-02 2009-05-16 Altek Corp Image capturing apparatus and method for providing image blur information
US20090244301A1 (en) 2008-04-01 2009-10-01 Border John N Controlling multiple-image capture
JP2009284394A (ja) * 2008-05-26 2009-12-03 Olympus Imaging Corp 撮像装置および撮像方法
JP5102374B2 (ja) * 2008-06-19 2012-12-19 パナソニック株式会社 撮像システムにおける移動ぶれ及びゴースト防止のための方法及び装置
US8121424B2 (en) 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
JP5206466B2 (ja) 2009-02-13 2013-06-12 富士通株式会社 画像補正装置、画像補正プログラムおよび画像撮影装置
US8228400B2 (en) * 2009-04-17 2012-07-24 Sony Corporation Generation of simulated long exposure images in response to multiple short exposures
JP2011049642A (ja) * 2009-08-25 2011-03-10 Canon Inc 撮像装置、及びその制御方法
US20110149111A1 (en) * 2009-12-22 2011-06-23 Prentice Wayne E Creating an image using still and preview
KR101710624B1 (ko) * 2010-07-27 2017-02-27 삼성전자주식회사 객체의 모션 벡터를 이용하여 자동 촬영 기능을 수행하는 디지털 영상 촬영 방법, 디지털 영상 촬영 장치 및 상기 방법을 기록한 기록 매체
US8493482B2 (en) 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method

Also Published As

Publication number Publication date
CN103179350B (zh) 2017-08-01
EP2608529B1 (en) 2015-06-03
US9235880B2 (en) 2016-01-12
TW201328347A (zh) 2013-07-01
US20130162855A1 (en) 2013-06-27
TWI538510B (zh) 2016-06-11
JP2013135468A (ja) 2013-07-08
KR20130079114A (ko) 2013-07-10
EP2608529A1 (en) 2013-06-26
KR101781154B1 (ko) 2017-09-22
CN103179350A (zh) 2013-06-26

Similar Documents

Publication Publication Date Title
JP5427935B2 (ja) 場面を取り込む一連の画像フレーム内の画像フレームの露光をその場面内の動きのレベルに基づいて最適化するためのカメラおよび方法
US10070053B2 (en) Method and camera for determining an image adjustment parameter
US8179466B2 (en) Capture of video with motion-speed determination and variable capture rate
US20150092052A1 (en) Image monitoring system and surveillance camera
WO2016011872A1 (zh) 图像拍摄方法、装置和计算机存储介质
KR20160050671A (ko) 움직임 영역 검출 장치 및 방법
KR20220015964A (ko) 시각적 주행 거리 측정 애플리케이션들을 위한 손실된 이미지 특징 복원을 위한 방법 및 시스템
JP2016054423A (ja) 撮像装置、その制御方法およびプログラム
CN112884805A (zh) 一种跨尺度自适应映射的光场成像方法
JP2010109461A (ja) 動きベクトル検出装置及び動きベクトル検出方法及び撮像装置及びプログラム
JP5929774B2 (ja) 画像取得方法、装置、およびプログラム
KR101886246B1 (ko) 이미지 데이터에 포함된 모션 블러 영역을 찾고 그 모션 블러 영역을 처리하는 이미지 프로세싱 장치 및 그 장치를 이용한 이미지 프로세싱 방법
US8125527B2 (en) Motion detection apparatus
KR101637637B1 (ko) 비디오 센서 시스템의 영역 별 자동 노출 방법 및 그 장치
JP5761991B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
CN111835968B (zh) 图像清晰度还原方法及装置、图像拍摄方法及装置
JP2012129814A (ja) 画像処理装置
JPH099050A (ja) 画像処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5427935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250