JP5802146B2 - 静止カメラの色補正のための方法、装置、プログラム(静止カメラのための色補正) - Google Patents

静止カメラの色補正のための方法、装置、プログラム(静止カメラのための色補正) Download PDF

Info

Publication number
JP5802146B2
JP5802146B2 JP2012036572A JP2012036572A JP5802146B2 JP 5802146 B2 JP5802146 B2 JP 5802146B2 JP 2012036572 A JP2012036572 A JP 2012036572A JP 2012036572 A JP2012036572 A JP 2012036572A JP 5802146 B2 JP5802146 B2 JP 5802146B2
Authority
JP
Japan
Prior art keywords
color
live
foreground
model
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012036572A
Other languages
English (en)
Other versions
JP2012235446A (ja
Inventor
リサ・マリー・ブラウン
クリスティーナ・シェルバウム
ロゲリオ・シュミット・フェリス
シャラスチャンドラ・ウマパシラオ・パンカンティ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2012235446A publication Critical patent/JP2012235446A/ja
Application granted granted Critical
Publication of JP5802146B2 publication Critical patent/JP5802146B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は一般に、デジタル・ビデオ監視、ビデオ・イベント検索、およびビデオ処理に関し、更に具体的には色補正技法に関する。
監視システムは通常、起こり得る脅威についてセキュリティ職員に事前に警告し、または重要な事件の調査を容易にし、あるいはその両方を行うことができる。後者の機能では、セキュリティ担当者は、ビデオ画像から関係する人々またはイベントを事前におよび科学捜査で検索しなければならない。実際には、人または車両の出現に関する情報は、多くの場合、目標物を一意にかつ信頼性高く識別する永続性が無い特性に限定される。しかしながら実際の世界では、かかる情報は、特に他の情報と共に用いた場合には、検索を簡潔にして目標物の検出を支援するのに極めて有効である。
人々を識別する場合、かかる特性は「ソフト・バイオメトリクス(soft biometrics)」と呼ばれることが多い。最も重要なソフト・バイオメトリクスの1つは衣服の色である。目に留めて覚えるのが容易であり、ビデオ画像からの抽出を実行できるからである。同様に、車両を識別するためには、多くの場合、色が唯一の可能な手がかりである。このため、多くの監視アプリケーションでは、色情報によってユーザは重要なイベントを見つけることができる。例えば、不審な行為の報告を追跡する(例えばある事件に関与する特定のメーカー、型、および色の車両の位置を特定する)場合、または小売の監視を実行する(例えば店から品物を取った顧客が店から出るのを見つける)場合、色情報は識別を支援することができる。
「TheRetinex Theory of Color Vision」、(Sci. Am.237:108〜28、McCannで再販、第3巻、125〜42(1977年)) J.van de Weijer等の「Edge-Based Color Constancy」(IEEE Trans. on Image Processing、第16巻、No.9、2007年9月) J.P. Renno等の「Application and Evaluation ofColour Constancy in Visual Surveillance」(Proc. 2ndIEEE Int’l Workshop on VS-PETS、北京、2005年10月15〜16日、301〜308) C.StaufferおよびW. E. L. Grimson「Adaptive Background Mixture Models forReal-Time Tracking」(IEEE Computer Society Conferenceon Computer Vision and Pattern Recognition、第2巻、1999年) A.Elgammal等「Non-Parametric Model forBackground Subtraction」(6th European Conf. on ComputerVision、アイルランド、ダブリン、2000年6月/7月) B.Han等「Incremental Density Approximationand Kernel-Based Bayesian Filtering for Object Tracking」(IEEE Conf. on Computer Vision and PatternRecognition、ワシントン、2004年)
色の不変性という課題があるため、目標物の色の識別は難しい問題である。例えば、あるコンテキストにおいて目標物の全体画像を見る場合、知覚される(かつ真の)目標物の色が緑に見える場合がある。しかしながら、目標物の画像の一部を分離する(例えば全体画像の不変部分を抽出する)と、これは実際には別の色の画素で構成されている場合がある。例えば、全体画像から抽出された緑の画素は、分離された抽出部分では灰色の画素または青色の画素に見える場合がある。これらの画素が全体画像において緑に「見える」ことがあるのは、人が無意識のうちに、そのシーンが赤い「色合い」を有すると観察し、目標物の真の反射率である緑を知覚するように正確に補償するからである。同様に、異なる時刻における、または異なる採光条件のもとでの同一のカメラによる画像は、人によって別の色と知覚され、全く異なる色画素から構成される場合がある。
従って、画像の色補正のための改良された方法および装置に対する要望がある。
一般的に言うと、画像の色補正のための方法および装置を提供する。本発明の一態様において、静止ビデオ・カメラから取得した画像において1つ以上の色を補正するために、静止ビデオ・カメラから取得した1つ以上の以前の画像から1つ以上の履歴背景モデルを取得し、静止ビデオ・カメラから取得した1つ以上の現在の画像からライブ背景モデルおよびライブ前景モデルを取得し、1つ以上の履歴背景モデルから基準画像を発生し、基準画像、ライブ背景モデル、およびライブ前景モデルを処理して、画像における1組の色補正した前景目標物を発生する。
任意に、例えば色量子化分類方法またはヒストグラム色分類方法を用いて、1組の色補正した前景目標物を処理して、前景目標物の少なくとも1つの色を分類する。
基準画像は、拡散白色採光下のシーンを実質的に最適に近似する履歴背景モデルの線形組み合わせとすることができる。基準画像は、局部的な採光および影を補償するように局部的に実質的に最適化することができる。
一実施形態においては、基準画像からライブ背景モデルへのマッピングを実質的に最適化するように1つ以上の色補正アルゴリズムを局部的に適用することによって、基準画像、ライブ背景モデル、およびライブ前景モデルを処理する。例えば、画像において1組の色補正した前景目標物を取得するために、マッピングをライブ前景モデルに適用することができる。
本発明のいっそう完全な理解、ならびに本発明の更に別の特徴および利点は、以下の詳細な説明および図面を参照することによって得られるであろう。
本発明の特徴を組み込んだ色補正プロセスの例示的な実施を示すフローチャートである。 図1の基準画像計算を更に詳細に示す。 図1の色補正および色分類を更に詳細に示す。 本発明音1つ以上の態様または要素あるいはその両方を実施する際に有用であり得るコンピュータ・システムを示す。
本発明は、画像の色補正のための改良された方法および装置を提供する。本発明の1つの態様によれば、カメラが静止しており背景モデルが利用可能であるという認識に基づいて色補正を実行する色適応アルゴリズムが提供される。開示する色適応アルゴリズムは、照明の効果を補償し、目標物の真の反射率を回復する。
色適応技法
1.白色パッチ(whitepatch)
レチネックス(Retinex)アルゴリズムに基づいて、3つの異なる周波帯(実際には赤、緑、青)を用いて色補正を独立して達成することができる。例えば「The Retinex Theory of Color Vision」(Sci. Am.237:108〜28、McCannで再販、第3巻、125〜42(1977年))を参照のこと。単一のグローバル均一光源を想定し、各色の最大値を反射する目標物がシーンに存在すると想定する。従って、レチネックス理論によって、光源が(rmax、gmax、bmax)であり、この光源で各画素を正規化することによって色の不変性を達成可能であることが示される。この方法は白色パッチ・アルゴリズムと呼ばれることが多い。画像における最も明るいパッチは白であると想定されるからである。
2.グレー・ワールド
グレー・ワールド・アルゴリズムのもとでは、シーンの空間反射率の平均が無色である(achromatic)と想定される。この場合、正規化は平均の比(μ r/ μ , μ g / μ , μ b / μ )に基づいている(ここで、上付き文字CおよびUはそれぞれ標準的な光源および未知の光源を表す)。例えば、グレー・ワールド法は、正規化を行って光源とは無関係に反射率を回復し、次いで所定数の色へと量子化を行って、特定の色の目標物を回復する。
3.グレー・エッジ
グレー・エッジ法は、複雑な自然のシーンについて極めて有望であり、また極めて効率的であることが示されている。例えばJ. van de Weijer等の「Edge-Based Color Constancy」(IEEE Trans. on Image Processing、第16巻、No.9、2007年9月)を参照のこと。グレー・エッジ法は、シーンにおける平均エッジ差が無色であると想定するグレー・エッジ仮説に基づいている。グレー・エッジ色補正では、チャネルごとにゾーベル・フィルタを適用する。以下のような勾配の大きさを用いて、重み付け係数を求め、強いエッジを大きく強調した。
Figure 0005802146

エッジ画素(r、g、b)の重み付け平均を計算する。次いで、入力チャネルの各画素(ri,j、gi,j、bi,j)を以下によってスケーリングする。
Figure 0005802146
例示的な実施においては、ε=0.128であり、極めて小さい数で除算した場合に正規化したr、g、bの値が色ドメインを超えるのを防ぐ。
グレー・ワールドおよびグレー・エッジ技法は双方とも、均一な白色採光のもとでシーンを表す標準的な画像を必要とする。実際には、この画像が利用可能でない場合がある。J. P. Renno等の「Application and Evaluation of ColourConstancy in Visual Surveillance」(Proc. 2nd IEEE Int’l Workshop onVS-PETS、北京、2005年10月15〜16日、301〜308)は、いくつかの方法を提案し試験して、最大の色範囲を有する画像を見つけるために用いた様々な測定値に基づいて標準的な画像を選択した。
同様に、グレー・ワールドおよびグレー・エッジ法の双方では、正確な色補正は、標準的な画像に対する画像の内容に依存する。ライブ・ビデオでは、目標物(人々および車両)が前景に移動するにつれて経時的にシーンの内容が変化する。従って、背景モデルの採光に基づいて現在の画像に色適応を実行することが重要である。実際、我々にできる最良のことは最新の背景モデルを用いることである。これらの方法は「背景モデル利用」として識別される。
最後に、強度正規化によって、量子化(特に黒および白への)を、シーンの明るさおよび時刻に適合させることができる。強度正規化は色補正の前に実行することができる。各チャネルのサンプル画像平均および分散に基づいて、各画素値を正規化する。
Figure 0005802146
色補正の後、正規化を再び実行して、平均強度が同じ範囲内にあるようにすることができる。
図1は、本発明の特徴を組み込んだ色補正プロセス100の例示的な実施を記載するフローチャートである。図1に示すように、例示的な色補正プロセス100は、最初にステップ110において、多数の以前の(履歴)ビデオ画像を用いて背景減算を行う。更に、例示的な色補正プロセス100は、ステップ140において、多数のライブ(またはリアルタイム)ビデオ画像を用いて背景減算を行う。
一般に、ステップ110および140において実行される背景減算は、(例えばデジタル・ビデオ・カメラ入力からの)ビデオ入力を処理し、背景モデルを発生する。背景モデルは、シーン内に動かない目標物を含む画像である。例えば背景モデルは、道路、建物、空、および他の不動の目標物で構成することができる。いったん車両が駐車されて、これが動かない場合には、更新された背景モデルの一部になる。
シーン内で人々および車両等の動いている目標物を検出するためには、多数の周知の方法がある。例えば、画像差分、多重ガウス混合モデル(例えばC. StaufferおよびW. E. L. Grimson「Adaptive Background Mixture Models forReal-Time Tracking」(IEEE Computer Society Conferenceon Computer Vision and Pattern Recognition、第2巻、1999年)を参照)、カーネル密度方法(例えばA. Elgammal等「Non-Parametric Model forBackground Subtraction」(6th European Conf. on ComputerVision、アイルランド、ダブリン、2000年6月/7月))、および平均シフト技法(B. Han等「Incremental Density Approximation andKernel-Based Bayesian Filtering for Object Tracking」(IEEE Conf. on Computer Vision and PatternRecognition、ワシントン、2004年))を用いて、移動する目標物の検出を実行することができる。
図1に示すように、ステップ110において実行された背景減算の出力は多数の履歴出力(Bt)を含む。Bt出力は、システムによって発生された経時的な履歴背景モデルである。理想的には、現フレームと同じ静止した目標物を含む背景モデルが望ましい。すなわち、車が駐車されて背景を変化させると、現在の背景(車)は、履歴的に対象となり、車の後方のシーンではない。一般に、同一の静止シーンで見られるような、経時的な採光の変化を用いる。
図1に示すように、ステップ140において実行された背景減算の出力は、ライブ背景モデルB、およびライブ前景モデルFGを含む。前景モデルFGは、シーン内に動く目標物を含む画像である。
図1に示すように、ステップ120では、基準計算プロセス(これについては図2に関連付けて以下で更に論じる)によってステップ110からのBt出力を処理して基準画像Irefを発生する。次いでステップ130において、基準画像Irefを、ステップ140において実行した背景減算によって発生したライブ背景モデルBおよびライブ前景モデルFGと共に処理して、前景色補正FGCCを発生する。ステップ150において、前景色補正FGCCを処理して色を分類する。これについては図3に関連付けて以下で更に論じる。
図2は、図1の基準画像計算120を更に詳細に示す。例示的な基準画像計算120は、採光条件が付加的であるという想定を用いる。基準画像計算120は、「白色」採光に最も近い背景モデルの線形組み合わせとして基準画像を見出し、局部的に最適化して局部的な採光および影を補償する。図1に示すように、基準画像計算120は、ステップ110(図1)において取得した履歴背景モデルのシーケンス(B、Bt+1、Bt+2)を処理する。基準画像計算120は、局部的採光パッチが識別された基準画像(IRef)を発生する。
本発明に従った色補正の計算は基準画像(IRef)に依存する。理想的な場合、この基準画像(IRef)は、拡散白色採光のもとで目標物の反射率(色)がどのように見えるかを表す。基準画像は現在の背景モデルについて望ましいものである。このため、入力は履歴背景モデルである。採光条件は付加的であると想定される。「白色」採光に最も近い背景モデルの線形組み合わせとして基準画像が見出される。採光の「白さ(whiteness)」の尺度を最適化する背景モデルの重み付け組み合わせを求める。色分布の統計データに基づいた「カラフルネス」の尺度(白色採光のもとでは最大の色範囲がある可能性があるため)、または最も純粋な色、平面輝度上またはその近傍での色全域の極値の色等、異なる尺度を用いることができる。
更に、充分な情報(解像度および履歴)が利用可能である範囲で、この最適化を局部的に行って、局部的な採光および影を補償することができる。
図3は、図1の色補正130および色分類150を更に詳細に示す。図3に示すように、色補正130は、ステップ120で計算した基準画像(IRef)ならびにステップ140で実行した背景減算によって発生したライブ背景モデルBおよびライブ前景モデルFGを処理する。色補正130は、1組の色補正前景目標物FGCCを発生する。
例示的な色補正130は、基準画像(IRef)に対するマッピングを最適化するために、周知の色補正アルゴリズムを局部的に適用する。例えば、例示的な色補正130は、上述したグレー・ワールド、白色パッチ、または全域マッピング技法等の既知の色補正アルゴリズムを適用することができる。色補正130は、基準画像(IRef)からライブ(または現在の)背景モデルBへのマッピングを計算する。このマッピングをライブ(または現在の)前景目標物FG(対象の目標物)に適用して、それらの補正された配色を取得する。
例示的な色分類150は、色補正130が発生した1組の色補正前景目標物FGCCを処理する。例示的な色分類150は、1組の色補正前景目標物FGCCにおいて各目標物の色を発生する。一般に、例示的な色分類150は、色補正した画素を用いて目標物の色分類を実行する。この色分類は色量子化およびヒストグラム生成を必要とする場合があり、またはもっと複雑であり何らかの種類の目標物色モデルを必要とする場合がある。これは当業者には明らかであろう。
例示的なシステムおよび製造品(Article of Manufacture)の詳細
当業者によって認められるように、本発明の態様は、システム、方法、またはコンピュータ・プログラムとして具現化することができる。従って、本発明の態様は、全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)、または、ソフトウェアおよびハードウェアの態様を組み合わせた実施形態という形態を取ることができ、それらは全て本明細書において、「回路」、「モジュール」、または「システム」と一般的に称することができる。更に、本発明の態様は、具現化されたコンピュータ読み取り可能プログラム・コードを有する(1つ以上のコンピュータ読み取り可能媒体において具現化された)コンピュータ・プログラムの形態を取ることも可能である。
本発明の1つ以上の実施形態、またはその要素は、メモリおよびこのメモリに結合されて例示的な方法ステップを実行するように動作可能な少なくとも1つのプロセッサを含む装置の形態で実施することができる。
1つ以上の実施形態は、汎用コンピュータまたはワークステーション上で動作するソフトウェアを利用することができる。図4は、本発明の1つ以上の態様または要素あるいはその両方を実施するのに有用であり得る例示的なコンピュータ・システム400を示す。図4を参照すると、かかる実施は、例えばプロセッサ402と、メモリ404と、例えばディスプレイ406およびキーボード408で形成される入出力インタフェースと、を用いることができる。
本明細書で用いる場合、「プロセッサ」という言葉は、例えばCPU(中央演算処理装置)または他の形態の処理回路あるいはその両方を含むもの等のいずれかの処理デバイスを含むことが意図される。更に、「プロセッサ」という言葉は、2つ以上の個別のプロセッサを指す場合がある。「メモリ」という言葉は、例えばRAM(ランダム・アクセス・メモリ)、ROM(読み出し専用メモリ)、固定メモリ・デバイス(例えばハード・ディスク)、着脱可能メモリ・デバイス(例えばディスケット)、フラッシュ・メモリ等の、プロセッサまたはCPUに関連付けたメモリを含むことが意図される。
更に、本明細書で用いる場合、「入出力インタフェース」という言葉は、例えば処理ユニットにデータを入力するための1つ以上の機構(例えばマウス)、および、処理ユニットに関連付けられた結果を供給するための1つ以上の機構(例えばプリンタ)を含むことが意図される。プロセッサ402、メモリ404、ならびにディスプレイ406およびキーボード408等の入出力インタフェース406は、データ処理ユニット412の一部としてバス410を介して相互接続することができる。また、例えばバス410を介した適切な相互接続を、ネットワーク・カード等のネットワーク・インタフェース414(これはコンピュータ・ネットワークとのインタフェースのために提供することができる)に、およびディスケットまたはCD−ROMドライブ等の媒体インタフェース416(これは媒体418とのインタフェースのために提供することができる)に提供することができる。
アナログ・ビデオ供給等のアナログ入力を受信し、これをデジタル化するために、アナログ−デジタル・コンバータ(複数のコンバータ)420を設けることができる。かかるコンバータ(複数のコンバータ)はシステム・バス410に相互接続することも可能である。
従って、本明細書に記載したような本発明の方法を実行するための命令またはコードを含むコンピュータ・ソフトウェアは、1つ以上の関連するメモリ・デバイス(例えばROM、固定または着脱可能メモリ)に記憶することができ、利用する準備が整うと、部分的にまたは全体的に(例えばRAMに)ロードされてCPUによって実施することができる。かかるソフトウェアは、限定ではないが、ファームウェア、常駐ソフトウェア、マイクロコード等を含むことができる。
プログラム・コードの記憶または実行あるいはその両方を行うのに適したデータ処理システムは、直接にまたはシステム・バス410を介して間接にメモリ要素404に結合された少なくとも1つのプロセッサ402を含む。メモリ要素は、プログラム・コードの実際の実施中に用いられるローカル・メモリ、バルク記憶装置、および実施中にバルク記憶装置からコードを検索しなければならない回数を減らすために少なくとも何らかのプログラム・コードを一時的に記憶するキャッシュ・メモリを含むことができる。
入出力またはI/Oデバイス(限定ではないがキーボード408、ディスプレイ406、ポインティング・デバイス等を含む)は、直接に(バス410を介して等)、またはI/Oコントローラを介在させて(明確さのために省略している)、システムに結合することができる。
また、ネットワーク・インタフェース414等のネットワーク・アダプタをシステムに結合することで、データ処理システムを、私設または公共のネットワークを介在させて他のデータ処理システムまたは遠隔プリンタもしくは記憶デバイスに結合することができる。ネットワーク・アダプタの現在利用可能なタイプの少数の例として、モデム、ケーブル・モデム、およびイーサネット・カードが挙げられる。
特許請求の範囲を含めて、本明細書で用いる場合、「サーバ」は、サーバ・プログラムを実行する物理的なデータ処理システム(例えば図4に示すようなシステム412)を含む。かかる物理サーバは、ディスプレイおよびキーボードを含む場合も含まない場合もあることは理解されよう。
注記したように、本発明の態様は、具現化されたコンピュータ読み取り可能プログラム・コードを有する(1つ以上のコンピュータ読み取り可能媒体において具現化された)コンピュータ・プログラムの形態を取ることができる。1つ以上のコンピュータ読み取り可能媒体のあらゆる組み合わせを利用することができる。コンピュータ読み取り可能媒体は、コンピュータ読み取り可能信号媒体またはコンピュータ読み取り可能記憶媒体とすることができる。コンピュータ読み取り可能記憶媒体は例えば、限定ではないが、電子、磁気、光、電磁、赤外線、または半導体のシステム、装置、またはデバイス、または前述のもののいずれかの適切な組み合わせとすることができる。媒体ブロック418は限定でない例である。コンピュータ読み取り可能記憶媒体の更に具体的な例(非網羅的な列挙)は、以下を含む。すなわち、1本以上のワイヤを含む電気的接続、携帯型コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュ・メモリ)、光ファイバ、携帯型コンパクト・ディスク読み取り専用メモリ(CD−ROM)、光記憶デバイス、磁気記憶デバイス、または前述のもののいずれかの適切な組み合わせである。この文書の文脈において、コンピュータ読み取り可能記憶媒体は、命令実行システム、装置、またはデバイスによってまたはそれと接続して用いるためにプログラムを含有または記憶することができるいずれかのタンジブルな媒体とすることができる。
コンピュータ読み取り可能信号媒体は、例えばベースバンドにおいてまたは搬送波の一部として、具現化されたコンピュータ読み取り可能プログラム・コードを有する伝播データ信号を含むことができる。かかる伝播信号は様々な形態のいずれかを取ることができ、それらは限定ではないが、電磁、光、またはそれらのいずれかの適切な組み合わせを含む。コンピュータ読み取り可能信号媒体は、コンピュータ読み取り可能記憶媒体でないが、命令実行システム、装置、またはデバイスによってまたはそれと接続して用いるためにプログラムを伝達、伝播、または転送することができるいずれかのコンピュータ読み取り可能媒体とすることができる。
コンピュータ読み取り可能媒体上で具現化されるプログラム・コードは、限定ではないが、無線、有線、光ファイバ・ケーブル、RF等、または前述のもののいずれかの適切な組み合わせを含むいずれかの適切な媒体を用いて伝送することができる。
本発明の態様の動作を実行するためのコンピュータ・プログラム・コードは、Java、Smalltalk、C++等のオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語等の従来の手順プログラミング言語を含む1つ以上のプログラミング言語のいずれかの組み合わせにおいて記述することができる。プログラム・コードは、全体的にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、スタンドアロンのソフトウェア・パッケージとして、部分的にユーザのコンピュータ上でおよび部分的に遠隔コンピュータ上で、または全体的に遠隔コンピュータもしくはサーバ上で、実行することができる。後者の場合、遠隔コンピュータは、ローカル・エリア・ネットワーク(LAN)またはワイド・エリア・ネットワーク(WAN)を含むいずれかのタイプのネットワークを介してユーザのコンピュータに接続することができ、または、接続は、(例えばインターネット・サービス・プロバイダを用いてインターネットを介して)外部コンピュータに対して行うことができる。
本発明の実施形態に従った方法、装置(システム)、およびコンピュータ・プログラムのフローチャート図またはブロック図あるいはその両方を参照して、本開示について以下に記載する。フローチャート図またはブロック図あるいはその両方の各ブロックおよびフローチャート図またはブロック図あるいはその両方におけるブロックの組み合わせは、コンピュータ・プログラム命令によって実施可能であることは理解されよう。これらのコンピュータ・プログラム命令は、汎用コンピュータ、特殊目的コンピュータ、または他のプログラマブル・データ処理装置のプロセッサに提供されて機械を生成することができ、これによって、コンピュータまたは他のプログラマブル・データ処理装置のプロセッサによって実行される命令が、フローチャートまたはブロック図あるいはその両方のブロックまたは複数のブロックに規定された機能/行為を実施するための手段を生成するようになっている。
また、これらのコンピュータ・プログラム命令はコンピュータ読み取り可能媒体に記憶することができ、これによって、コンピュータ、他のプログラマブル・データ処理装置、または他のデバイスに特定の方法で機能するように指示することができ、これにより、コンピュータ読み取り可能媒体に記憶された命令が、フローチャートまたはブロック図あるいはその両方のブロックまたは複数のブロックに規定された機能/行為を実施する命令を含む製造品を生成するようになっている。
また、コンピュータ・プログラム命令を、コンピュータ、他のプログラマブル・データ処理装置、または他のデバイスにロードして、そのコンピュータ、他のプログラマブル装置、または他のデバイス上で一連の動作ステップを実行させてコンピュータ実施プロセスを生成することができ、これによって、コンピュータまたは他のプログラマブル装置上で実行する命令が、フローチャートまたはブロック図あるいはその両方のブロックまたは複数のブロックに規定された機能/行為を実施するためのプロセスを提供するようになっている。
図面におけるフローチャートおよびブロック図は、本発明の様々な実施形態に従ったシステム、方法、およびコンピュータ・プログラムの可能な実施のアーキテクチャ、機能性、および動作を例示する。この点で、フローチャートまたはブロック図における各ブロックは、規定された論理機能(複数の機能)を実施するための1つ以上の実行可能命令を含むコードのモジュール、セグメント、または一部を表すことができる。また、いくつかの代替的な実施において、ブロックに明記した機能は図面に明記した順序どおりでなく発生する場合があることに留意すべきである。例えば、関与する機能性に応じて、連続して示した2つのブロックは実際には実質的に同時に実行されることがあり、またはブロックは時に逆の順序で実行される場合がある。また、ブロック図またはフローチャート図あるいはその両方の各ブロック、およびブロック図またはフローチャート図あるいはその両方におけるブロックの組み合わせは、規定された機能もしくは行為を実行する特殊目的ハードウェア・ベースのシステム、または特殊目的ハードウェアおよびコンピュータ命令の組み合わせによって実施可能であることに留意すべきである。
本明細書に記載したように、本明細書に記載した方法ステップを、例えば、かかるステップを実行するようにプログラムした汎用コンピュータに、またはかかるステップを実行するためのハードウェアに接続することができる。更に、例えばデータ・ストリームの取得およびこれらのストリームの符号化を含む本明細書に記載した方法ステップを、カメラまたはマイクロフォン等の物理センサに接続し、ここからデータ・ストリームを取得することができる。
本明細書に記載した方法のいずれも、(コンピュータ読み取り可能記憶媒体上に具現化した)別個のソフトウェア・モジュールを含むシステムを提供する追加ステップを含むことができることに留意すべきである。次いで、上述のように、1つ以上のハードウェア・プロセッサ402上で実行するシステムの別個のソフトウェア・モジュールまたはサブ・モジュールあるいはその両方を用いて、方法ステップを実行することができる。場合によっては、本明細書で述べた機能の1つ以上を実施するために専用のハードウェアを用いることができる。更に、コンピュータ・プログラムは、別個のソフトウェア・モジュールをシステムに提供することを含む、本明細書に記載した1つ以上の方法ステップを実行するために実施するように適合されたコードを有する(コンピュータ読み取り可能記憶媒体を含む)ことができる。
いずれにせよ、本明細書に例示した構成要素は、ハードウェア、ソフトウェア、またはそれらの組み合わせの様々な形態で実施可能であることは理解されよう。例えば、特定用途向け集積回路(複数の回路)(ASIC)、機能回路、メモリが関連付けられた1つ以上の適切にプログラムした汎用デジタル・コンピュータ等である。本明細書に提示した本発明の教示が与えられれば、当業者は本発明の構成要素の他の実施を想定することができるであろう。
本明細書において用いた用語は、特定の実施形態を記載する目的のためだけのものであり、本発明を限定することは意図していない。本明細書において用いたように、単数形「1つの(a)、(an)、(the)」は、文脈によって明らかに他の場合が示されない限り、複数形を含むことが意図されている。また、「含む」または「含んでいる」という言葉あるいはその両方は、本明細書において用いられた場合、述べた特徴、整数、ステップ、動作、要素、または構成要素あるいはそれら全ての存在を規定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、またはそれらのグループあるいはそれら全ての存在または追加を除外するものではないことは、理解されよう。
以下の特許請求の範囲における全てのミーンズまたはステップ・プラス・ファンクション要素の対応する構造、材料、行為、および均等物は、具体的に特許請求したような他の特許請求した要素と組み合わせて機能を実行するためのいずれかの構造、材料、または行為を含むことが意図されている。本発明の記載は、例示および記述の目的のために提示したが、網羅的であることや、開示した形態に本発明を限定することは、意図していない。本発明の範囲および精神から逸脱することなく、当業者には多くの変更および変形が明らかであろう。実施形態は、本発明の原理および実際的な用途を最良に説明するため、更に、想定される特定の用途に適した様々な変更と共に様々な実施形態に関して当業者が本発明を理解することを可能とするために、選択し記載したものである。
400 コンピュータ・システム
402 プロセッサ
404 メモリ
406 ディスプレイ
408 キーボード
410 バス
412 データ処理ユニット
414 ネットワークI/F
416 媒体I/F
418 媒体
420 A/D

Claims (20)

  1. 静止ビデオ・カメラから取得した画像において1つ以上の色を補正するための方法であって、
    前記静止ビデオ・カメラから取得した1つ以上の以前の画像から1つ以上の履歴背景モデルを取得するステップと、
    前記静止ビデオ・カメラから取得した1つ以上の現在の画像からライブ背景モデルおよびライブ前景モデルを取得するステップと、
    前記1つ以上の履歴背景モデルから基準画像を発生するステップと、
    前記基準画像、前記ライブ背景モデル、および前記ライブ前景モデルを処理するステップであって、前記画像における1組の色補正した前景目標物を発生する、前記処理するステップと、
    を含む、方法。
  2. 前記基準画像が、静止ビデオ・カメラから取得した1つ以上の以前の画像から複数の履歴背景モデルを取得する場合において、拡散白色採光下のシーンを実質的に最適に近似する前記履歴背景モデルの線形組み合わせである、請求項1に記載の方法。
  3. 前記基準画像が、局部的な採光および影を補償するように局部的に実質的に最適化されている、請求項1に記載の方法。
  4. 前記処理するステップが、前記基準画像から前記ライブ背景モデルへのマッピングを実質的に最適化するように1つ以上の色補正アルゴリズムを局部的に適用するステップを更に含む、請求項1に記載の方法。
  5. 前記画像において前記1組の色補正した前景目標物を取得するために、前記マッピングが前記ライブ前景モデルに適用される、請求項4に記載の方法。
  6. 前記1組の色補正した前景目標物を処理して前記前景目標物の少なくとも1つの色を分類するステップを更に含む、請求項1に記載の方法。
  7. 色量子化色分類方法およびヒストグラム色分類方法の1つ以上を用いて前記前景目標物の少なくとも1つの前記色が分類される、請求項6に記載の方法。
  8. 静止ビデオ・カメラから取得した画像において1つ以上の色を補正するための装置であって、
    メモリと、
    前記メモリに結合された少なくとも1つのプロセッサであって、
    前記静止ビデオ・カメラから取得した1つ以上の以前の画像から1つ以上の履歴背景モデルを取得し、
    前記静止ビデオ・カメラから取得した1つ以上の現在の画像からライブ背景モデルおよびライブ前景モデルを取得し、
    前記1つ以上の履歴背景モデルから基準画像を発生し、
    前記基準画像、前記ライブ背景モデル、および前記ライブ前景モデルを処理して、前記画像における1組の色補正した前景目標物を発生するように動作する、プロセッサと、
    を含む、装置。
  9. 前記基準画像が、静止ビデオ・カメラから取得した1つ以上の以前の画像から複数の履歴背景モデルを取得する場合において、拡散白色採光下のシーンを実質的に最適に近似する前記履歴背景モデルの線形組み合わせである、請求項8に記載の装置。
  10. 前記基準画像が、局部的な採光および影を補償するように局部的に実質的に最適化されている、請求項8に記載の装置。
  11. 前記基準画像から前記ライブ背景モデルへのマッピングを実質的に最適化するように1つ以上の色補正アルゴリズムを局部的に適用することによって、前記基準画像、前記ライブ背景モデル、および前記ライブ前景モデルが処理される、請求項8に記載の装置。
  12. 前記画像において前記1組の色補正した前景目標物を取得するために、前記マッピングが前記ライブ前景モデルに適用される、請求項11に記載の装置。
  13. 前記プロセッサが、前記1組の色補正した前景目標物を処理して前記前景目標物の少なくとも1つの色を分類するように更に構成されている、請求項8に記載の装置。
  14. 色量子化色分類方法およびヒストグラム色分類方法の1つ以上を用いて前記前景目標物の少なくとも1つの前記色が分類される、請求項13に記載の装置。
  15. 静止ビデオ・カメラから取得した画像において1つ以上の色を補正するためのプログラムであって、コンピュータまたはハードウェアによって前記プログラムが実行された場合に、
    前記静止ビデオ・カメラから取得した1つ以上の以前の画像から1つ以上の履歴背景モデルを取得するステップと、
    前記静止ビデオ・カメラから取得した1つ以上の現在の画像からライブ背景モデルおよびライブ前景モデルを取得するステップと、
    前記1つ以上の履歴背景モデルから基準画像を発生するステップと、
    前記基準画像、前記ライブ背景モデル、および前記ライブ前景モデルを処理するステップであって、前記画像における1組の色補正した前景目標物を発生する、前記処理するステップと、
    を実施する、プログラム。
  16. 前記基準画像が、静止ビデオ・カメラから取得した1つ以上の以前の画像から複数の履歴背景モデルを取得する場合において、拡散白色採光下のシーンを実質的に最適に近似する前記履歴背景モデルの線形組み合わせである、請求項15に記載のプログラム。
  17. 前記基準画像が、局部的な採光および影を補償するように局部的に実質的に最適化されている、請求項15に記載のプログラム。
  18. 前記処理するステップが、前記基準画像から前記ライブ背景モデルへのマッピングを実質的に最適化するように1つ以上の色補正アルゴリズムを局部的に適用するステップを更に含む、請求項15に記載のプログラム。
  19. 前記画像において前記1組の色補正した前景目標物を取得するために、前記マッピングが前記ライブ前景モデルに適用される、請求項18に記載のプログラム。
  20. 前記1組の色補正した前景目標物を処理して前記前景目標物の少なくとも1つの色を分類するステップを更に含む、請求項15に記載のプログラム。
JP2012036572A 2011-04-29 2012-02-22 静止カメラの色補正のための方法、装置、プログラム(静止カメラのための色補正) Expired - Fee Related JP5802146B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/097,435 US8824791B2 (en) 2011-04-29 2011-04-29 Color correction for static cameras
US13/097435 2011-04-29

Publications (2)

Publication Number Publication Date
JP2012235446A JP2012235446A (ja) 2012-11-29
JP5802146B2 true JP5802146B2 (ja) 2015-10-28

Family

ID=47054740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012036572A Expired - Fee Related JP5802146B2 (ja) 2011-04-29 2012-02-22 静止カメラの色補正のための方法、装置、プログラム(静止カメラのための色補正)

Country Status (3)

Country Link
US (1) US8824791B2 (ja)
JP (1) JP5802146B2 (ja)
CN (1) CN102760287B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9036047B2 (en) * 2013-03-12 2015-05-19 Intel Corporation Apparatus and techniques for image processing
CN103366383A (zh) * 2013-07-12 2013-10-23 山东易创电子有限公司 一种序列图像颜色配准方法及系统
CN105282530B (zh) * 2014-05-28 2019-03-08 深圳力维智联技术有限公司 基于背景建模的自动白平衡实现方法及装置
CN105163087A (zh) * 2015-09-18 2015-12-16 电子科技大学 基于嵌入式技术的图像增强监控系统
CN107169930A (zh) * 2016-03-07 2017-09-15 华为技术有限公司 图像处理方法和装置
CN105827998A (zh) * 2016-04-14 2016-08-03 广州市英途信息技术有限公司 一种抠像系统及抠像方法
US11064173B2 (en) 2017-12-14 2021-07-13 International Business Machines Corporation Photographic directional light reference for articulating devices
CN112396668B (zh) * 2020-12-03 2024-05-07 阿波罗智联(北京)科技有限公司 识别信号灯中异常灯色的方法、装置、路侧设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177445B2 (en) * 2002-04-16 2007-02-13 Koninklijke Philips Electronics N.V. Discriminating between changes in lighting and movement of objects in a series of images using different methods depending on optically detectable surface characteristics
JP3879732B2 (ja) * 2003-11-27 2007-02-14 コニカミノルタホールディングス株式会社 物体検出装置、物体検知方法、およびコンピュータプログラム
JP4495606B2 (ja) * 2005-01-19 2010-07-07 日本放送協会 色識別装置及び色識別プログラム
EP2013817A2 (en) 2006-04-17 2009-01-14 Objectvideo, Inc. Video segmentation using statistical pixel modeling
TWI348659B (en) * 2007-10-29 2011-09-11 Ind Tech Res Inst Method and system for object detection and tracking
CN100581265C (zh) * 2008-01-16 2010-01-13 宁波大学 一种多视点视频的处理方法
US9031279B2 (en) * 2008-07-09 2015-05-12 Disney Enterprises, Inc. Multiple-object tracking and team identification for game strategy analysis
JP5199471B2 (ja) * 2008-08-30 2013-05-15 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 色恒常性方法及びシステム
JP2010074342A (ja) 2008-09-17 2010-04-02 Fuji Xerox Co Ltd 画像処理装置、画像形成装置、及びプログラム
CN101686338B (zh) * 2008-09-26 2013-12-25 索尼株式会社 分割视频中的前景和背景的系统和方法
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
JP5716944B2 (ja) * 2009-06-25 2015-05-13 アイシン精機株式会社 車載カメラ装置

Also Published As

Publication number Publication date
US8824791B2 (en) 2014-09-02
CN102760287A (zh) 2012-10-31
US20120274805A1 (en) 2012-11-01
JP2012235446A (ja) 2012-11-29
CN102760287B (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
JP5802146B2 (ja) 静止カメラの色補正のための方法、装置、プログラム(静止カメラのための色補正)
US9996741B2 (en) Systems and methods for classifying objects in digital images captured using mobile devices
US11600008B2 (en) Human-tracking methods, systems, and storage media
US9158985B2 (en) Method and apparatus for processing image of scene of interest
US8897575B2 (en) Multi-scale, perspective context, and cascade features for object detection
US9679366B2 (en) Guided color grading for extended dynamic range
WO2019020103A1 (zh) 目标识别方法、装置、存储介质和电子设备
US20140133744A1 (en) Image Adjustment
US20160196637A1 (en) Raw sensor image and video de-hazing and atmospheric light analysis methods and systems
AU2014262134A1 (en) Image clustering for estimation of illumination spectra
US20210350129A1 (en) Using neural networks for object detection in a scene having a wide range of light intensities
WO2015186347A1 (ja) 検出システム、検出方法及びプログラム記憶媒体
US20140079280A1 (en) Automatic detection of persistent changes in naturally varying scenes
CN112149707B (zh) 图像采集控制方法、装置、介质及设备
JP5338762B2 (ja) ホワイトバランス係数算出装置及びプログラム
CN115439509B (zh) 一种多目标跟踪方法、装置、计算机设备及存储介质
EP4383183A1 (en) Data processing method and apparatus
JP4988872B2 (ja) 映像における移動物体の一般的な色への分類方法、装置およびプログラム(映像における移動物体の一般的な色への分類)
CN111062272A (zh) 基于色彩恢复的图像处理、行人识别方法、装置与可读存储介质
KR20220128192A (ko) 합성 영상을 활용한 객체 검출장치 및 그 방법
US20160358012A1 (en) System and Method for Facial Recognition using Images Captured from a Target Illuminated with Infrared Light
CN118052967B (zh) 林火智能识别方法以及相关装置
US20240257498A1 (en) Electronic apparatus for classifying object region and background region and operating method of the electronic apparatus
Karthikeyan et al. Detecting and recognizing the license plate number for fast moving vehicle using smearing algorithm
Hardas et al. Moving Object Detection for Video Surveillance using Different Color Spaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150828

R150 Certificate of patent or registration of utility model

Ref document number: 5802146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees