JP7058471B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP7058471B2
JP7058471B2 JP2017081439A JP2017081439A JP7058471B2 JP 7058471 B2 JP7058471 B2 JP 7058471B2 JP 2017081439 A JP2017081439 A JP 2017081439A JP 2017081439 A JP2017081439 A JP 2017081439A JP 7058471 B2 JP7058471 B2 JP 7058471B2
Authority
JP
Japan
Prior art keywords
light source
image pickup
image
subject
source information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017081439A
Other languages
English (en)
Other versions
JP2018182593A (ja
Inventor
洋 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017081439A priority Critical patent/JP7058471B2/ja
Priority to US15/954,044 priority patent/US11037014B2/en
Publication of JP2018182593A publication Critical patent/JP2018182593A/ja
Application granted granted Critical
Publication of JP7058471B2 publication Critical patent/JP7058471B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Description

本発明は、被写体の画像を処理する画像処理技術に関するものである。
従来から、コンビニエンスストア、ショッピングモール、空港などに複数のカメラを設置し、ネットワークでつなぐことによって複数の地点の監視を可能とするシステムがある。例えば、あるカメラで少し前に撮像された録画映像に含まれている万引き犯など特定の人物を、現在のカメラ映像の中から探すといった使い方がある。このとき、録画済みの映像と現在のカメラ映像を並べて表示し、目視によって確認することにより、特定の人物が現在どのカメラの撮影範囲にいるかを知ることができる。
複数のカメラ映像から特定の人物を目視によって同定する際に、映像、特に人物領域の色がずれていると、正しく同定することが困難になる。カメラの色再現は設置された場所の環境光色温度により影響を受けることが知られている。例えば蛍光灯と白熱灯とで比べると、蛍光灯下では物体は青色が強く再現され、白熱灯下では物体は赤色が強く再現される。そこでカメラは、画面全体の映像を用いたホワイトバランス処理により色補正を行っている。実際には、撮影範囲内に複数の光源が存在するケースが多い。例えば、窓のある屋内で撮影すると、屋内は蛍光灯、窓の外は日照である。このような条件では、人物がどの位置に立つかによって光源の影響が異なるため、前述のホワイトバランス処理のように画面全体で判断すると、人物の色を常に正しく補正することができない。そこで、複数の光源があっても正しく色補正を行う技術が提案されている。
特許文献1に記載の発明では、画面を複数のブロックに分割し、ブロック単位で補正量を算出している。また、特許文献2に記載の発明では、ブロック単位で被写体までの距離(奥行情報)を検出し、奥行情報に基づいて補正量を決定している。
特開平8-37667号公報 特開2008-288706号公報
特許文献1および特許文献2の手法では、撮像画像の2次元的な位置と補正量が関連付けられている。そのため、撮影対象である人物が移動してカメラとの位置関係が変化すると、撮影対象に影響を与える光源を改めて測定(または推定)して補正量を算出する必要があった。また、カメラの画角変更、設置位置の変更、カメラの新規追加などの状況変化が生じた場合も、改めて光源を測定(または推定)して補正量を算出する必要があった。
本発明はこのような問題に鑑みてなされたものであり、撮像画像中の被写体領域の色情報を補正する際に用いる光源情報をより迅速に収集可能な技術を提供する。
本発明の一様態は、撮像画像に基づいて、光源に係る光源情報を推定する推定手段と、
前記推定手段が推定した光源情報を登録する登録手段と、
前記登録手段が登録した光源情報のうち、被写体を含む撮像画像に基づいて取得した該被写体の実空間における位置に対応する光源情報を取得する取得手段と、
前記取得手段が取得した光源情報に基づいて、前記被写体を含む撮像画像における被写体の領域の色情報を補正する補正手段と
を備え
前記推定手段は、着目撮像装置の撮像範囲が変更された場合には、該変更の前と後とで撮像範囲が重複していない実空間における位置についてのみ光源情報を推定することを特徴とする。
本発明の構成によれば、撮像画像中の被写体領域の色情報を補正する際に用いる光源情報をより迅速に収集することができる。
システムの構成例を示すブロック図である。 コンピュータ装置のハードウェア構成例を示すブロック図である。 画像補正装置105の機能構成例を示すブロック図である。 光源地図情報の生成処理のフローチャートである。 光源地図情報を説明する図である。 撮像画像中の被写体領域の色情報を補正する補正処理のフローチャートである。 第1の実施形態の利点を説明する図である。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、複数の撮像装置を有するシステムであって、着目撮像装置からの撮像画像中の被写体の色情報を、該被写体の実空間における位置に対応する光源情報に基づいて補正してからユーザに提示するためのシステムの一例について説明する。なお、以下では、被写体が人物であるものとして説明するが、これに限らず、被写体が人物以外であっても以下の説明は同様に適用することができる。
先ず、本実施形態に係るシステムの構成例について、図1にブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、撮像装置101~103と、画像処理装置としての画像補正装置105と、モニタリング装置106と、を有する。そして撮像装置101~103、画像補正装置105、モニタリング装置106のそれぞれは、LANやインターネットなどのネットワーク104に接続されており、互いにデータ通信が可能なように構成されている。
先ず、撮像装置101~103について説明する。撮像装置101~103は実空間の様々な箇所を撮像するべく設けられたもので、それぞれ実空間中の異なる位置に配置され、実空間の動画像を撮像する若しくは連続して静止画像を撮像する。撮像装置101~103のそれぞれによって撮像された各フレームの画像(撮像画像)は何れも、ネットワーク104を介して画像補正装置105に対して送信される。撮像装置101~103は、CCD、CMOSなどの撮像センサや撮像レンズなどを有する。図1では、撮像装置の数を3としているが、撮像装置の数は3に限らない。
次に、画像補正装置105について説明する。画像補正装置105は、撮像装置101~103のそれぞれから受信した撮像画像における被写体の色情報を、該被写体の実空間における位置に対応する光源情報に応じて補正するための処理を行う。画像補正装置105による補正後の撮像画像はモニタリング装置106に対して送信される。画像補正装置105の機能構成例を図3のブロック図に示す。図3に示した各機能部の動作については後述する。
次に、モニタリング装置106について説明する。モニタリング装置106は、画像補正装置105によって色情報が補正された被写体の撮像画像を表示することで該撮像画像をユーザに提示するための装置である。
次に、本実施形態に係るシステムを運用する前の撮像装置設置時などのタイミングで行われる、光源地図情報の生成処理について、図4のフローチャートに従って説明する。図4は、画像補正装置105が撮像画像中の被写体の色情報を補正するために使用する情報である光源地図情報を生成するために画像補正装置105が行う処理のフローチャートである。光源地図情報は、撮像装置101~103のそれぞれについて生成する。図4のフローチャートに従った処理は、1つの撮像装置に対する光源地図情報を生成するための処理であるから、本実施形態の場合、撮像装置101~103のそれぞれについて図4のフローチャートに従った処理を行うことになる。そして、撮像装置101による撮像画像における被写体の色情報を補正する場合には、撮像装置101について生成した光源地図情報を適用する。また、撮像装置102による撮像画像における被写体の色情報を補正する場合には、撮像装置102について生成した光源地図情報を適用する。また、撮像装置103による撮像画像における被写体の色情報を補正する場合には、撮像装置103について生成した光源地図情報を適用する。
以下では、撮像装置101に対する光源地図情報の生成処理について説明するが、撮像装置102に対する光源地図情報の生成処理、撮像装置103に対する光源地図情報の生成処理についても同様にして行う。
ステップS401では、取得部301は、撮像装置101からネットワーク104を介して送信された撮像画像と、撮像装置101の識別情報と、を受信する。
ステップS402では、検出部302は、ステップS401で受信した撮像画像から被写体の領域(被写体領域)を検出する。被写体領域は、例えば、撮像画像の左上隅を原点とし、被写体を囲む矩形の左上と右下の2点のx座標及びy座標で表す。更に、これに加えて、被写体を構成する画素に対して「1」、それ以外の画素に対して「0」を割り当てたマスク画像を付与してもよい。マスク画像を利用することで、矩形で表現することによって含まれてしまう被写体以外の画素と被写体の画素を区別することができる。
撮像画像から被写体の領域を検出するための具体的な方法としては、例えば、以下の文献1に記されている方法がある。すなわち、予め背景のみが撮像された撮像画像から背景モデルを生成しておき、これと入力画像(ここではステップS401で受信した撮像画像)との差分により被写体の領域を検出する背景差分による方法がある。
(文献1) Stauffer C, Grimson W. E. L. Adaptive background mixture models for real―time tracking. In Proceedings. 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (Cat. No PR00149). IEEE Comput. Soc. Part Vol. 2, 1999
また、撮像画像から被写体の領域を検出するための他の手法としては、例えば、以下の文献2に記されている方法がある。すなわち、所定の大きさの検出ウィンドウを入力画像(ここではステップS401で受信した撮像画像)上で走査させ、検出ウィンドウ内の画像を切り出したパターン画像に対して人物であるか否かの2クラス判別を行う。この判別には、アダブーストを使って多くの弱判別器を有効に組み合わせて判別器を構成し、判別精度を向上させる。また、この判別器を直列に繋ぎ、カスケード型の検出器を構成するようにしている。弱判別器はHOG特徴量で構成されている。そして、カスケード型の検出器は、まず前段の単純な判別器を使って明らかに被写体でないパターンの候補をその場で除去する。そして、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器を使って人物かどうかの判別を行う。
(文献2) US2007/0237387
上記の通り、本実施形態では、被写体が人物であるものとしているが、例えば、被写体として車両を扱いたい場合は、文献2にある判別器を車両について作成して適用すればよい。このような上記に述べた方法によって、撮像画像から被写体の領域を検出することができる。なお、撮像画像から被写体の領域を検出するための手法については特定の手法に限らず、如何なる手法を採用しても良い。
ステップS403では、推定部305は、ステップS401で受信した撮像画像からステップS402で検出された被写体領域のうち未選択のうちの1つを選択被写体領域として選択する。そして推定部305は、選択被写体領域内の画素値を用いて光源推定を行うことで、該選択被写体領域内の被写体の実空間における位置に対応する光源情報を推定する。
光源情報として「選択被写体領域内の被写体の実空間における位置に対応する光源の光色」を推定する方法としては、例えば選択被写体領域から輝度値が規定値以上の領域を白色と仮定し、色空間(色差空間)上で白色の位置に近い色を光源の光色と推定できる。また、光源情報として「選択被写体領域内の被写体の実空間における位置に対応する光源の光色を示す色温度」を推定する方法としては、例えば、特許文献1に記載の方法がある。すなわち、色温度ごとにモデル化した被写体色が選択被写体領域中にどの程度存在するかの信頼度を画素数で判断し、信頼度の高くなる色温度を選択する。
ステップS404では、特定部303は、ステップS401で受信した撮像画像における選択被写体領域の位置を、撮像装置101について予め作成して記憶部304に登録されている変換行列を用いて変換することで、実空間における対応位置を求める。本実施形態では、「撮像装置101について予め作成して記憶部304に登録されている変換行列」とは、撮像装置101による撮像画像中の位置を、監視エリアの地図上の対応位置に変換する変換行列である。監視エリアの地図とは、撮像装置101~103が配置されているエリアの俯瞰図であり、撮像装置101~103により監視されるエリアを含む全体エリアの俯瞰図である。
「撮像装置101について予め作成して記憶部304に登録されている変換行列」とは、例えば、以下のようにして求める。すなわち、予め撮像装置101の設置時に、撮像装置101による撮像画像内の床面上の平面を指定すると共に、地図上で対応する平面を指定し、指定した平面間のホモグラフィ行列を上記の変換行列として求める。このような変換行列は、撮像装置101~103のそれぞれについて予め求めておき、該撮像装置の識別情報と対応付けて記憶部304に登録しておく。
然るにステップS404では、特定部303は、撮像装置101の識別情報と対応付けて記憶部304に登録されている変換行列を読み出す。そして特定部303は、ステップS401で受信した撮像画像における選択被写体領域の位置を、該読み出した変換行列を用いて、地図上の対応する位置に変換する。撮像画像における選択被写体領域の位置を、例えば、選択被写体領域の下辺の中心座標位置とすることで、撮像画像上における被写体の足下の位置を地図上の位置に変換することができる。
ステップS405で生成部306はステップS403で推定部305が推定した光源情報とステップS404で特定部303が特定した地図上の位置とステップS401で取得部301が取得した撮像装置101の識別情報を対応付けて記憶部307に登録する。
ステップS406では、推定部305は、ステップS401で受信した撮像画像からステップS402で検出された被写体領域のうち未選択の被写体領域が残っているか否かを判断する。この判断の結果、ステップS401で受信した撮像画像からステップS402で検出された被写体領域のうち未選択の被写体領域が残っている場合には、処理はステップS403に戻る。一方、ステップS401で受信した撮像画像からステップS402で検出された被写体領域の全てを選択被写体領域として選択した場合には、処理はステップS407に進む。
ステップS407では、制御部300は、図4のフローチャートに従った処理の終了条件が満たされたか否かを判断する。例えば、撮像装置101~103による撮像を一定時間行ってステップS401~S406の処理を行う場合には、撮像装置101~103による撮像開始から一定時間が経過した場合には、上記の終了条件が満たされたと判断する。この判断の結果、上記の終了条件が満たされた場合には、図4のフローチャートに従った処理は完了する。一方、上記の終了条件が満たされていない場合には、処理はステップS401に戻る。
撮像装置101について図4のフローチャートに従った処理を行うことで記憶部307には、撮像装置101の識別情報、撮像装置101による撮像画像中の被写体領域の地図上の位置、該位置に対応する光源情報、のセットが登録される。このセットが、撮像装置101に対応する光源地図情報である。
同様に、撮像装置102について図4のフローチャートに従った処理を行うことで記憶部307には、撮像装置102の識別情報、撮像装置102による撮像画像中の被写体領域の地図上の位置、該位置に対応する光源情報、のセットが登録される。このセットが、撮像装置102に対応する光源地図情報である。また、撮像装置103について図4のフローチャートに従った処理を行うことで記憶部307には、撮像装置103の識別情報、撮像装置103による撮像画像中の被写体領域の地図上の位置、該位置に対応する光源情報、のセットが登録される。このセットが、撮像装置103に対応する光源地図情報である。
このような処理によれば、被写体が監視エリア内を移動するたびに、その時々の被写体の位置に対応する光源情報を取得することができる。そして撮像装置101~103のそれぞれについて図4のフローチャートの処理を充分な時間繰り返して行えば、その間に被写体が監視エリア内を移動すると期待できるので、地図上の撮像装置101~103の撮影範囲全体について光源地図情報を生成できる。
ここで、光源地図情報について、図5を用いて説明する。図5には、撮像装置505~507が配置された監視エリアの地図501を示しており、撮像装置505~507は、壁で覆われた部屋502~504の間の通路に設置されている。また、この地図501には、左上隅の位置509を原点とし、水平方向にはx軸510、垂直方向にはy軸511、が規定されているものとする。
ここで、ある時点では地図501上の位置512に被写体508が位置しているとする。このような状態において例えば、撮像装置507による撮像画像から被写体508についての光源情報が得られたとすると、該光源情報、位置512、撮像装置507の識別情報のセットが、「撮像装置507の光源地図情報」として記憶部307に登録される。
なお、位置512は、地図501を図5に示す如く複数のブロックに分割した場合において、変換行列によって変換された位置を含むブロックの位置にしても良いし、該ブロックの識別情報(ラスタスキャン順に付与された識別情報)としても良い。ブロックの分割数によって、光源地図情報のメモリ使用量の制御が可能となり、後述する補正処理において光源地図情報を参照する際も、高速化が可能になる。
このように、被写体の地図上の位置と光源情報とを対応付けておくことにより、被写体の移動により影響を受ける光源が変化しても、適切な光源情報を必要に応じて読みだすことができる。
また、地図上の被写体の位置に光源情報に加えて撮像装置の識別情報を対応付けておくことにより、撮像方向の違いで被写体が影響を受ける光源が異なる場合にも対応が可能になる。図5の例では、被写体508は撮像装置507と撮像装置506の両方で撮像することができる。このとき例えば、撮像装置507側に3000Kの光源が設置され、撮像装置506側に2500Kの光源が設置されているとする。このような状況であっても、同じ位置512に対して、撮像装置506、507のそれぞれについて異なる光源情報を記憶しておくことが可能である。撮像装置の識別情報をもとにそれぞれに対応した光源情報を必要に応じて読み出すことが可能になる。
次に、記憶部307に登録した光源地図情報を用いて撮像画像中の被写体領域の色情報を補正する補正処理について、図6のフローチャートに従って説明する。図6のフローチャートに従った処理は、1つの撮像装置からの撮像画像中の被写体領域を補正するための処理であるから、本実施形態の場合、撮像装置101~103のそれぞれについて図6のフローチャートに従った処理を行うことになる。ステップS601,S602の各ステップにおける処理は、上記のステップS401,S402と同様であるため、これらのステップに係る説明は省略する。
ステップS603では、補正部308は、ステップS601で受信した撮像画像からステップS602で検出された被写体領域のうち未選択のうちの1つを選択被写体領域として選択する。そして補正部308は特定部303と同様にして、ステップS601で受信した撮像画像における選択被写体領域の位置を、撮像装置101について予め作成して記憶部304に登録されている変換行列を用いて変換することで、地図上の対応位置を求める。そして補正部308は、撮像装置101の識別情報を含む光源地図情報のうち、該求めた対応位置を含む光源地図情報を特定し、該特定した光源地図情報中の光源情報を記憶部307から読み出す。地図上の対応位置がブロックの位置/識別情報であれば、撮像装置101の識別情報を含む光源地図情報のうち、該ブロックの位置/識別情報を含む光源地図情報を特定し、該特定した光源地図情報中の光源情報を要求し、記憶部307から読み出す(出力する)。
そしてステップS604では補正部308は、記憶部307から読み出した光源情報に基づいて、選択被写体領域の色情報を補正する。選択被写体領域の色情報の補正では、例えば、予め色温度(または、色差空間上の白色点の位置座標)ごとにRGB各チャンネルの値を変換するルックアップテーブルを作成しておく。そして、選択被写体領域の色温度(または、色差空間上の白色点の位置座標)に対応するルックアップテーブルを用いて、選択被写体領域内の各画素のRGB値を変更することで、選択被写体領域に対する色情報の補正を行う。なお、色情報は色だけでなく、輝度等他の要素であっても良い。
ステップS605では、補正部308は、ステップS601で受信した撮像画像からステップS602で検出された被写体領域のうち未選択の被写体領域が残っているか否かを判断する。この判断の結果、ステップS601で受信した撮像画像からステップS602で検出された被写体領域のうち未選択の被写体領域が残っている場合には、処理はステップS603に戻る。一方、ステップS601で受信した撮像画像からステップS602で検出された被写体領域の全てを選択被写体領域として選択した場合には、処理はステップS606に進む。
ステップS606では、補正部308は、ステップS601で受信した撮像画像において全ての被写体領域についてステップS604で色情報が補正された補正済みの撮像画像を、ネットワーク104を介してモニタリング装置106に対して送信する。これによりモニタリング装置106が有する表示画面には、全ての被写体領域について色情報が補正された撮像画像が表示されることになる。このようにしてユーザが確認する各撮像装置の撮像画像中の被写体領域は、被写体の監視エリア内の位置に応じた光源情報を反映した補正が行われているため、服の色などを正しく判別することができるようになる。
ステップS607では、制御部300は、図6のフローチャートに従った処理の終了条件が満たされたか否かを判断する。例えば、画像補正装置105のユーザから終了指示が入力された場合には、上記の終了条件が満たされたと判断する。この判断の結果、上記の終了条件が満たされた場合には、図6のフローチャートに従った処理は完了する。一方、上記の終了条件が満たされていない場合には、処理はステップS601に戻る。
次に、撮像装置101~103の何れかの撮像範囲が変化した場合や新たに撮像装置を追加した場合においても、本実施形態に係るシステムが従来と比べて比較的容易に、被写体領域の補正用の情報を収集可能であることについて、図7を用いて説明する。図7において図5と同じものについては同じ参照番号を付している。
図7(a)では、撮像装置507の撮像範囲702に属するブロックに「a」を付している。ここで、「a」が付されたブロック(ブロックaと称する)については光源情報が記憶部307に登録済みであるとする。
ここで図7(b)に示す如く、撮像装置507が水平方向にパンし、撮像装置507の撮像範囲が撮像範囲702から撮像範囲704に変化したとする。撮像装置507の撮像範囲が撮像範囲702から撮像範囲704に変化した場合、変化後の撮像範囲である撮像範囲704に属するブロックについて光源情報を収集する必要がある。ここで、撮像範囲704において撮像範囲702と重なるブロック(ブロックa)については既に光源情報は登録済みであるため、改めて光源情報を推定する必要はない。そこで、撮像範囲704において撮像範囲702と重ならないブロック(「b」が付されたブロック(ブロックbと称する))について光源情報を求めて登録すればよい。
また、図7(c)に示す如く、撮像装置505~507に加えて、撮像装置706が追加されたとする。追加した撮像装置と既に設置済みの撮像装置との位置関係や撮像方向の関係によっては、追加した撮像装置の撮像範囲が、他の撮像装置の撮像範囲と一部若しくは全部が重なっている可能性がある。図7(c)の場合、追加した撮像装置706の撮像範囲707の一部が、撮像装置706の近傍に設置されている撮像装置507の撮像範囲702と重なっている(撮像範囲707内にブロックaが含まれている)。そこでこのような場合は、撮像範囲707に対応するブロックaの光源情報として、撮像装置507について求めたブロックaの光源情報を利用する。そして、撮像範囲707において撮像範囲702と重ならないブロック(「c」が付されたブロック)について光源情報を求めて登録する。
一般に、撮像装置を追加した場合には、追加した撮像装置の近傍に設置されている近傍撮像装置を特定する。この場合、撮像装置ごとに、該撮像装置の設置位置と識別情報とを対応付けた対応テーブルを作成して画像補正装置105に登録しておく必要があり、追加した撮像装置の設置位置に最も近い設置位置に設置されている近傍撮像装置の識別情報を特定する。そして、追加した撮像装置の撮像範囲において近傍撮像装置の撮像範囲と重複する重複部分のブロックの光源情報として、近傍撮像装置の撮像範囲において該重複部分に対応するブロックについて登録済みの光源情報を採用する。そして、追加した撮像装置の撮像範囲において上記重複部分以外のブロックについては、上記の通り、光源情報を求める。
このように、光源情報を地図上の位置に対応付けているため、撮像装置の撮像範囲を変更したり撮像装置を新たに追加したりしても、既に求めた光源情報を活用し、光源推定処理を最小限にすることが可能となる。
また、光源地図情報の位置座標を3次元に拡張して時間軸を追加すれば、照明条件の時間変化に対応することも可能になる。例えば時間軸を24時間分とし、1時間ごとに図4のフローチャートを行って、撮像装置毎に、1時間毎の光源地図情報を生成しておく。そして図6のフローチャートに従った処理では、被写体領域の地図上の位置と指定時刻とに対応する光源情報を取得する。
このように、本実施形態によれば、光源地図情報を参照することにより、被写体の移動にともなう照明条件の変化に合わせて待ち時間が発生することなく被写体領域の色情報を正しく補正することができる。また、撮像装置の撮像範囲の変更や撮像装置の追加に対しても改めて補正に必要な光源情報の推定処理をする必要がなくなる。
<変形例>
第1の実施形態では、撮像装置と画像補正装置105とは別個の装置であるものとして説明したが、撮像装置101~103のそれぞれに画像補正装置105を搭載しても良い。このような場合、例えば、撮像装置101においては、撮像装置101に対応する光源地図情報を生成して保持しておき、その後、撮像装置101において撮像を開始すると、撮像した撮像画像中の被写体領域を、該保持しておいた光源地図情報を用いて補正する。そして撮像装置101は、被写体領域を補正した撮像画像を、ネットワーク104を介してモニタリング装置106に対して送信する。
なお、画像補正装置105の全ての構成を撮像装置に組み込むことに限らず、画像補正装置105の一部の構成を撮像装置に組み込むようにしても良い。例えば、画像補正装置105が有する機能のうち撮像画像から被写体領域を検出する機能を撮像装置に組み込むようにしてもよい。このような場合、撮像装置は検出した被写体領域を画像補正装置105に送信し、画像補正装置105は、受信した被写体領域に対する補正処理を行う。
[第2の実施形態]
図3に示した各機能部は何れもハードウェアで実装しても良いが、記憶部304,307をメモリで実装し、残りの機能部をソフトウェア(コンピュータプログラム)で実装しても良い。後者の場合、記憶部304,307として機能するメモリを有し、且つ残りの機能部に対応するコンピュータプログラムを実行可能なコンピュータ装置は、画像補正装置105に適用することができる。
画像補正装置105に適用可能なコンピュータ装置のハードウェア構成例について、図2のブロック図を用いて説明する。なお、図2に示したハードウェア構成例を有するコンピュータ装置は、モニタリング装置106に適用しても良い。
CPU201は、ROM202やRAM203に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU201は、コンピュータ装置全体の動作制御を行うと共に、画像補正装置105が行うものとして上述した各処理を実行若しくは制御する。
ROM202には、BIOS等の書換不要のコンピュータプログラムやデータが格納されている。RAM203は、ROM202や2次記憶装置204からロードされたコンピュータプログラムやデータ、ネットワークI/F207を介して外部(例えば上記の撮像装置101~103)から受信したデータを格納するためのエリアを有する。更にRAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM203は、各種のエリアを適宜提供することができる。
2次記憶装置204は、ハードディスクドライブ装置やフラッシュメモリに代表される大容量情報記憶装置である。2次記憶装置204には、OS(オペレーティングシステム)や、画像補正装置105が行うものとして上述した各処理をCPU201に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。2次記憶装置204に保存されているコンピュータプログラムには、図3において記憶部304,307を除く各機能部の機能をCPU201に実行若しくは制御させるためのコンピュータプログラムが含まれている。また、2次記憶装置204に保存されているデータには、上記の説明において既知の情報として説明したものが含まれている。なお、記憶部304,307は、RAM203、ROM202、2次記憶装置204の何れか若しくはその組み合わせでもって実装されうる。2次記憶装置204に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。
入力装置205は、キーボードやマウスなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU201に対して入力することができる。
表示装置206は、CRTや液晶画面などにより構成されており、CPU201による処理結果を画像や文字などでもって表示することができる。例えば、本コンピュータ装置をモニタリング装置106に適用した場合、この表示装置206には、画像補正装置105によって被写体領域が補正された撮像画像が表示されることになる。また、入力装置205と表示装置206とを組み合わせてタッチパネル画面を構成しても良い。また、表示装置206は、表示対象画像を投影するプロジェクタであっても良い。
ネットワークI/F207は、本コンピュータ装置を上記のネットワーク104に接続するためのもので、本コンピュータ装置は、このネットワークI/F207を介して撮像装置101~103等の外部の機器との間のデータ通信を行う。
CPU201、ROM202、RAM203、2次記憶装置204、入力装置205、表示装置206、ネットワークI/F207は何れも、バス208に接続されている。なお、図2に示したハードウェア構成例は、画像補正装置105やモニタリング装置106に適用可能なコンピュータ装置のハードウェア構成の一例であって、このような構成に限定するものではない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
300:制御部 301:取得部 302:検出部 303:特定部 304:記憶部 305:推定部 306:生成部 307:記憶部 308:補正部

Claims (10)

  1. 撮像画像に基づいて、光源に係る光源情報を推定する推定手段と、
    前記推定手段が推定した光源情報を登録する登録手段と、
    前記登録手段が登録した光源情報のうち、被写体を含む撮像画像に基づいて取得した該被写体の実空間における位置に対応する光源情報を取得する取得手段と、
    前記取得手段が取得した光源情報に基づいて、前記被写体を含む撮像画像における該被写体の領域の色情報を補正する補正手段と
    を備え、
    前記推定手段は、着目撮像装置の撮像範囲が変更された場合には、該変更の前と後とで撮像範囲が重複していない実空間における位置についてのみ光源情報を推定することを特徴とする画像処理装置。
  2. 前記推定手段は、撮像装置ごとに、該撮像装置による被写体の撮像画像に基づいて該被写体の実空間における位置に対応する光源情報を推定し、
    前記登録手段は、撮像装置ごとに、該撮像装置について前記推定手段が推定した光源情報を登録する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記推定手段は、新たに撮像装置が追加された場合には、該追加された撮像装置の撮像範囲において該追加された撮像装置の近傍の撮像装置の撮像範囲と重複していない実空間における位置についてのみ光源情報を推定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記登録手段は更に、時刻に対応する光源情報を登録し、
    前記取得手段は、前記撮像画像が撮像された時刻に更に基づいて光源情報を取得する
    ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記被写体の実空間における位置は、前記撮像画像を撮像する撮像装置による監視エリアの俯瞰図である地図上の該被写体の位置であることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記光源情報は、光色を示す色温度を示すことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記光源情報は、色差空間上の白色点の位置を示すことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  8. 前記画像処理装置は撮像装置に搭載されていることを特徴とする請求項1に記載の画像処理装置。
  9. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の推定手段が、撮像画像に基づいて、光源に係る光源情報を推定する推定工程と、
    前記画像処理装置の登録手段が、前記推定工程で推定した光源情報を登録する登録工程と、
    前記画像処理装置の取得手段が、前記登録工程で登録した光源情報のうち、被写体を含む撮像画像に基づいて取得した該被写体の実空間における位置に対応する光源情報を取得する取得工程と、
    前記画像処理装置の補正手段が、前記取得工程で取得した光源情報に基づいて、前記被写体を含む撮像画像における該被写体の領域の色情報を補正する補正工程と
    を備え
    前記推定工程では、着目撮像装置の撮像範囲が変更された場合には、該変更の前と後とで撮像範囲が重複していない実空間における位置についてのみ光源情報を推定することを特徴とする画像処理方法。
  10. コンピュータを、請求項1乃至8の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2017081439A 2017-04-17 2017-04-17 画像処理装置、画像処理方法 Active JP7058471B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017081439A JP7058471B2 (ja) 2017-04-17 2017-04-17 画像処理装置、画像処理方法
US15/954,044 US11037014B2 (en) 2017-04-17 2018-04-16 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017081439A JP7058471B2 (ja) 2017-04-17 2017-04-17 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2018182593A JP2018182593A (ja) 2018-11-15
JP7058471B2 true JP7058471B2 (ja) 2022-04-22

Family

ID=63790721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017081439A Active JP7058471B2 (ja) 2017-04-17 2017-04-17 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US11037014B2 (ja)
JP (1) JP7058471B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110044334B (zh) * 2018-01-16 2020-04-21 京东方科技集团股份有限公司 基于维诺图的室内空间定位
CN110082781B (zh) * 2019-05-20 2021-12-17 东北大学秦皇岛分校 基于slam技术与图像识别的火源定位方法及系统
CN113012242A (zh) 2019-12-19 2021-06-22 北京普源精电科技有限公司 一种待显示对象颜色控制方法、装置、显示设备及介质
JP2024034024A (ja) * 2022-08-31 2024-03-13 オムロン株式会社 検出システム、方法およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014080613A1 (ja) 2012-11-22 2014-05-30 日本電気株式会社 色補正装置、色補正方法および色補正用プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837667A (ja) * 1994-07-21 1996-02-06 Matsushita Electric Ind Co Ltd 色補正装置
US8427538B2 (en) * 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
US20070237387A1 (en) 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
JP4916378B2 (ja) 2007-05-15 2012-04-11 三洋電機株式会社 撮像装置、画像処理装置、画像ファイル及び階調補正方法
US8320634B2 (en) * 2009-07-11 2012-11-27 Richard Deutsch System and method for monitoring protective garments
JP5511615B2 (ja) * 2010-09-30 2014-06-04 インターナショナル・ビジネス・マシーンズ・コーポレーション 作業指示に関連付けられた資産又は当該資産に関連付けられた要素を管理する方法、並びにそのシステム及びコンピュータ・プログラム
JP5325267B2 (ja) * 2011-07-14 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP5895398B2 (ja) * 2011-08-19 2016-03-30 株式会社リコー 光書込み装置、画像形成装置及び光書込み装置の制御方法
US9113119B2 (en) * 2011-12-20 2015-08-18 Pelco, Inc. Method and system for color adjustment
EP3042249B1 (en) * 2013-09-04 2020-03-18 Essilor International Methods and systems for augmented reality
JP6510213B2 (ja) * 2014-02-18 2019-05-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システム、半導体集積回路、および画像補正方法
JP2016134803A (ja) 2015-01-20 2016-07-25 キヤノン株式会社 画像処理装置及び画像処理方法
US20160350967A1 (en) * 2015-06-01 2016-12-01 Cable Television Laboratories, Inc. Dynamic adjustments for augmented, mixed and virtual reality presentations
JP2019054461A (ja) * 2017-09-15 2019-04-04 オリンパス株式会社 撮像装置および撮像方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014080613A1 (ja) 2012-11-22 2014-05-30 日本電気株式会社 色補正装置、色補正方法および色補正用プログラム

Also Published As

Publication number Publication date
US11037014B2 (en) 2021-06-15
JP2018182593A (ja) 2018-11-15
US20180300579A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP7058471B2 (ja) 画像処理装置、画像処理方法
US9191633B2 (en) Tracking assistance device, tracking assistance system and tracking assistance method
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
JP3951984B2 (ja) 画像投影方法、及び画像投影装置
US9535538B2 (en) System, information processing apparatus, and information processing method
CN105979134B (zh) 图像处理装置、图像处理方法和图像处理系统
US10134118B2 (en) Information processing apparatus and method of obtaining information about a projection surface on which a target is projected
CN105898213B (zh) 显示控制装置和显示控制方法
CN106604005B (zh) 一种投影电视自动对焦方法及系统
US9295141B2 (en) Identification device, method and computer program product
JP2004318823A (ja) 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
JP2007293722A (ja) 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
JP2016134803A (ja) 画像処理装置及び画像処理方法
JP7085812B2 (ja) 画像処理装置およびその制御方法
JP2008009849A (ja) 人物追跡装置
JP2018124441A (ja) システム、情報処理装置、情報処理方法及びプログラム
JP2019176378A (ja) 制御装置、監視システム、及び監視カメラ制御方法
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2002259984A (ja) 動作解析装置及び動作解析方法
JP6452658B2 (ja) 情報処理装置、およびその制御方法ならびにプログラム
JP2002032759A (ja) 監視装置
JP2018055685A (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP2007219899A (ja) 個人識別装置、個人識別方法および個人識別プログラム
JP6301202B2 (ja) 撮影条件設定装置および撮影条件設定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220412

R151 Written notification of patent or utility model registration

Ref document number: 7058471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151