JP2018117181A - 監視画像処理装置及び監視画像処理方法 - Google Patents

監視画像処理装置及び監視画像処理方法 Download PDF

Info

Publication number
JP2018117181A
JP2018117181A JP2017005215A JP2017005215A JP2018117181A JP 2018117181 A JP2018117181 A JP 2018117181A JP 2017005215 A JP2017005215 A JP 2017005215A JP 2017005215 A JP2017005215 A JP 2017005215A JP 2018117181 A JP2018117181 A JP 2018117181A
Authority
JP
Japan
Prior art keywords
image
face
processing unit
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017005215A
Other languages
English (en)
Other versions
JP6440749B2 (ja
Inventor
亮 和田
Akira Wada
亮 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Teli Corp
Original Assignee
Toshiba Teli Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Teli Corp filed Critical Toshiba Teli Corp
Priority to JP2017005215A priority Critical patent/JP6440749B2/ja
Publication of JP2018117181A publication Critical patent/JP2018117181A/ja
Application granted granted Critical
Publication of JP6440749B2 publication Critical patent/JP6440749B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】本実施形態は、追跡する対象物の追跡能力を向上した装置及び処理方法を提供する。
【解決手段】実施形態は、撮像部、データ処理装置、及び表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置である。前記データ処理装置は、第1の画像処理部と、第2の画像処理部と、注目画像出力部を備える。前記第1の画像処理部は、検出した個別特徴(顔)を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)を切出すための第1の画像領域情報を生成し、前記第2の画像処理部は、画像の動き検出情報に基づいて動き特徴を追跡して、前記広域画像データから前記第2注目画像を切出すことができる第2の画像領域情報を生成し、前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記注目画像を切り出して前記表示デバイスに供給する。
【選択図】図1

Description

この実施形態は、監視画像処理装置及び監視画像処理方法に関する。
単眼カメラを用いた監視装置が従来から開発されている。単眼カメラに360°レンズ(魚眼レンズ)を取り付けて、撮像視野を拡大した監視装置も開発されている。また、魚眼レンズを用いて、例えば会議室の様子を撮像して広角視野監視画像を取得し、この広角視野監視画像をパノラマ画像に展開し、展開したパノラマ画像を用いて、顔検出を行う監視装置も開発されている。
特開2015−19162号公報 特開2016−25516号公報 特開2016−39539号公報
360°レンズ(魚眼レンズ)を利用して撮像視野を拡大した監視装置は、さらなる改善が求められている。
例えば、特定の人物の追跡処理が正確で、耐性がある(ロバストである)ことが要望されている。人物の顔がカメラに対して向き合っているときは、追跡処理は比較的安定している。これは、撮影した人物の顔の特徴パターンと監視装置に記録された比較パターン(通常は正面から見た顔の特徴パターンが記録される)とを比較したとき、両者が類似する確率が高いからである。
しかしながら、監視対象となる人物の顔を正面から安定して捕えることができない場合がある。例えば追跡中の人物が向きを変えて、カメラからみてその人物の顔を横あるいは後ろから撮像するような状態となった場合である。このような状態が比較的長い時間続いた場合、監視装置は、特定の人物を追跡することができなくなる。つまり、対象となる人物の追跡処理ができない状態(ロスト状態)になる。
そこで本実施形態によれば、追跡する対象物(例えば人物等)の追跡能力を向上した監視画像処理装置及び監視画像処理方法を提供することを目的とする。
実施形態によれば、撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置であって、
前記データ処理装置は、
前記対象物の個別特徴(顔)を追跡する第1の画像処理部(A1)と、前記対象物の動き特徴を追跡する第2の画像処理部(A2)と、注目画像を切り出して前記表示デバイスに供給する注目画像出力部(A3)を備える。
前記第1の画像処理部は、個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから第1注目画像(顔画像)を切出すための第1の画像領域情報を生成し、
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の追跡を失った場合、追跡を失った位置に存在する画像の動き検出情報に基づいて動き特徴を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
前記注目画像出力部は、少なくとも前記第1又は第2の画像領域情報に基づいて、前記広域画像データから前記第1又は第2注目画像を切り出して前記表示デバイスに供給する。
図1は、本実施形態の監視画像処理装置が使用されている全方位監視画像表示処理システムの一例を概略的に示すブロック図である。 図2は、図1に示したブロック構成をさらに具体化した一例を示すブロック図である。 図3は、本実施形態の監視画像処理装置の構成とその動作を概略的に示す説明図である。 図4は、本実施形態の監視画像処理装置において、顔検知による追跡処理と動体検知による追跡処理が行われる際の状態遷移ルートの一例を示す図である。 図5は、本実施形態に関わる装置の動作を概略的に示すフローチャートである。 図6は、図5に示した顔矩形画像を追尾する追尾処理工程をさらに具体的示すフローチャートである。 図7は、図6のフローチャートの続きを示すフローチャートである。 図8は、図5に示した動体特徴を追尾する追尾処理工程をさらに具体的示すフローチャートである。 図9は、本実施形態の監視画像処理装置における全方位高精細監視画像とパノラマ画像の説明図である。 図10は、本実施形態の監視画像処理装置により表示デバイスに画像が表示された一例を示す図である。 図11は、第1の画像処理部A1における個別特徴(顔)の追跡がロスト状態になったときに表示デバイスに表示される画像の例を示す図である。
以下、実施の形態について図面を参照して説明する。図1には、一実施形態である監視画像処理装置が適用された全方位監視(広角視野監視と称してもよい)画像表示処理システムを示している。実施形態では、1.3メガ(M)ピクセル以上の画素数を有する画素(高精細画素)の単眼カメラ(1台のipカメラ)101(撮像部と称してもよい)を用いている。この単眼カメラ101に360°レンズ(魚眼レンズ)が取り付けられ、この単眼カメラ101は、全方位高精細監視画像を取得可能である。
取得された全方位高精細監視画像のデータストリームは、データ処理装置200A内のストリーム受信部で受信されて、キャプチャ201によりフレーム単位でキャプチャされ、画像バッファメモリ202に入力される。全方位高精細監視画像は、表示画面で見た場合、画像フレームに対して撮像領域が楕円状に配置されて表示される。全方位高精細監視画像は2560×1920ピクセル以上の高解像度を持つ画像である。
図1は一実施形態の基本的なブロック図である。実施形態によれば、撮像部101と、データ処理装置200Aと、表示デバイス321を備え、撮像部101が対象物を含む空間を撮影した広域画像データをデータ処理装置200Aに入力する装置である。ここでデータ処理装置は、対象物の個別特徴(顔)を追跡する第1の画像処理部A1と、対象物の動き特徴を追跡する第2の画像処理部A2と、注目画像を切り出して表示デバイス321に供給する注目画像出力部A3を備える。
そして、第1の画像処理部A1は、個別特徴(顔)の画像を検出している場合、その個別特徴(顔)を追跡しながら、個別特徴(顔)の画像が位置する画像領域を囲む第1の矩形情報(顔検知矩形座標情報或いは第1の画像領域情報と称しても良い)を生成する。また、第2の画像処理部A2は、第1の画像処理部A1が個別特徴(顔)の追跡を失った場合、追跡を失った位置に存在する画像の動き検出情報に基づいて動き特徴を追跡しながら、動き特徴が位置する画像領域を囲む第2の矩形情報(動体検知矩形座標情報或いは第2の画像領域情報と称しても良い)を生成する。
そして注目画像出力部A3は、少なくとも第1の矩形情報(顔検知矩形座標情報或いは第1の画像領域情報)を用いて広域画像データから出力用注目画像を切り出して表示デバイス321に供給する。第2の矩形情報(動体検知矩形座標情報或いは第2の画像領域情報)は、必ずしも常に用いる必要はない。
注目画像出力部A3は、第1の画像処理部A1が個別特徴(顔)の画像を検出したときは、第1の矩形情報(顔検知矩形座標情報或いは第1の画像領域情報)を優先して使用する。
なお第2注目画像の出力表示形態は、各種可能である。例えば、第1注目画像(顔画像)のみを切り出して出力し、第2注目画像(動体画像)が切り出し可能な場合は、例えば「ロスト中」のメッセージが表示デバイス321に出力されてもよい。或いは、動体画像(顔なし或いは疑似的に顔を示した画像)が、矩形枠内に表示されてもよい。
上記第1の画像処理部A1は、個別特徴(顔)の追跡を失っている(ロストしている)ときは、前記第2の画像処理部A2が生成している第2の矩形情報を参照して、仮想的に個別特徴(顔)の追跡を行ってもよい。このときは、第1の画像処理部A1は、第2の矩形情報で表される領域よりも少し拡大した領域を示す第1の矩形情報を用いて仮想追跡を行ってもよい。拡大の程度は、例えば矩形画像が数十ピクセル上下及び左右に拡大される程度である。
逆に、第1の画像処理部A1が、個別特徴(顔)の追跡を行っているとき(ロストしていないとき)は、第2の画像処理部A2は、第1の矩形情報を参照して、動体を仮想追跡してもよい。このときも、第2の画像処理部A2は、第1の画像処理部A1が個別特徴(顔)の追跡を失った場合、続けて動体の追跡を実行しながら、第2の矩形情報を生成する。このときは、第2の画像処理部A2は、第1の矩形情報で表される領域よりも少し拡大した領域を示す第2の矩形情報を用いて仮想追跡を行ってもよい。拡大の程度は、例えば矩形画像が数十ピクセル上下及び左右に拡大される程度である。
データ処理装置200Aは、ブロッキング輝度伸張部320を含む。ブロッキング輝度伸張部320は、ブロッキング輝度伸張処理部320は、注目画像(たとえば顔を含む領域を矩形状に抽出した顔矩形画像)に対して画素単位のブロッキング輝度伸張処理を施し画素レベルで明暗の補正を実施する。このブロッキング輝度伸張処理部320によるブロッキング輝度伸張処理により、監視対象の顔矩形画像に対して明暗の大きく異なる部分が画素レベルで補正され、監視対象の顔矩形画像が監視し易いダイナミックレンジの画像に補正される。このブロッキング輝度伸張処理技術の詳細については同一出願人による特許第5486963号、特許第5866146号、特許第5887067号に開示されている。
表示デバイス321では、データ処理装置200Aから取り込まれた全方位監視画像が表示され、この全方位監視画像の中に、追跡処理した顔矩形画像が表示される。これによりユーザは、撮像領域内の注目画像(顔画像)の移動位置を容易に確認することができる。
図2は、図1の構成をさらに具体的に示すブロック図を示している。
画像バッファメモリ202の全方位高精細監視画像(広域画像データと称してもよい)は、リサイズ部11によりVGA:640×480ピクセルの解像度を持つ画像に変換され、先のブロッキング輝度伸張部320に入力される。
また画像バッファメモリ202の全方位高精細監視画像(広域画像データ)は、第1の画像処理部A1内のリサイズ部11により、最大1920×1080ピクセルの解像度を持つ画像に変換され、パノラマ画像生成部203に入力される。
パノラマ画像生成部203に入力された画像は、全周囲を正面画像化したパノラマ画像に変換される。この場合、楕円状の画像領域が例えば上下に2分割されて、第1パノラマ画像、第2パノラマ画像として表示される。これらのパノラマ画像は、先のリサイズにより、最大1920×1080ピクセルの解像度を持つ画像であり、全方位高精細監視画像のピクセル数よりも少なく、データ処理の負担を軽くしている。
パノラマ画像生成部203のパノラマ画像は、画像追跡処理部204にて、被検知物あるいは注目画像(例えば人物の顔)を検出する顔検知処理、検知した顔の追跡処理を行うための材料となる。
画像追跡処理部204は、人物の顔を検出すると、その顔画像情報、属性情報(推定年齢、性別、マスクの有無、メガネの有無など)、検知した顔の領域を矩形で囲む顔矩形座標情報を、オブジェクト情報バッファ206に送信する。
属性情報は、顔画像情報から抽出される。しかしこれに限らず、属性情報は、推定年齢、性別、マスクの有無、メガネの有無、人物の洋服、洋服の形、アクセサリー、色、髪型、など各種の情報が取得されて、当該人物の識別子(ID)と関連つけられてもよい。
検出された顔画像情報はバッファメモリ205aへ格納され、属性情報はバッファメモリ205bへ格納され、検知した顔の領域(顔を含む領域)を示す顔矩形座標情報はバッファメモリ205cに格納される。
ここで、検知した顔の領域を示す顔矩形座標情報は、パノラマ画像から取得したものである。また、顔矩形座標情報により囲まれる領域の顔画像は、最大1920×1080ピクセルの解像度である。したがって、この段階での顔矩形座標情報、解像度は、画像バッファメモリ202内の全方位高精細監視画像に対する顔矩形座標情報、解像度とは一致しない。そこで、座標変換処理部206は顔画像がバッファメモリ206aに記憶されると、パノラマ画像上の顔画像位置座標を全方位高精細監視画像の顔画像位置座標に変換する。次に、検知矩形座標情報生成部207が、座標変換処理部207により生成された全方位高精細監視画像の顔画像位置座標をもとに顔検知矩形座標情報(顔を囲むフレームの座標情報)を生成する。この顔検知矩形座標情報は、オブジェクト追跡処理部314を介してあるいは直接注目領域画像作成部315に与えられる。オブジェクト追跡処理部314は、第1の画像処理部A1又は第2の画像処理部A2から出力される何れかの顔或いは動体検知矩形座標情報を、状況に応じて選択し、注目領域画像作成部315に与えることができる。
今、注目領域画像作成部315が、第1の画像処理部A1からの顔検知矩形座標情報を選択するものとする。すると、注目領域画像作成部315は検知矩形座標情報生成部207が生成した顔検知矩形座標情報をもとに、画像バッファメモリ202に貯えられた全方位高精細監視画像から画像処理部204が検出した顔画像(顔矩形画像或いは注目画像と称す)に対応する高精細な顔矩形画像を切り出す。そして、この全方位高精細監視画像から切り出した高精細な顔矩形画像を補正処理する。補正処理は、歪のある画像を表示デバイス321のアスペクト(4:3或いは16:9)の画像に正規化することである。この補正処理された顔矩形画像は、オブジェクト画像バッファメモリ316に貯えられる。
なお検知矩形座標情報生成部207が生成した顔検知矩形座標情報は、画像バッファメモリ202において、注目領域の顔を囲む検知対象の追跡や検知結果画像を生成するためのデータとして利用される。またこの顔検知矩形座標情報は、第2の画像処理部A2において参照されてもよい。
上記のオブジェクト画像バッファメモリ316に貯えられた高精細な顔矩形画像はリサイズ部14により表示デバイス321の画素構成に合った画面サイズにリサイズされブロッキング輝度伸張処理部320に送出される。このブロッキング輝度伸張処理部320によりブロッキング輝度伸張処理された顔矩形画像は監視画像として表示デバイス321に表示される。
表示デバイス321に表示された顔矩形画像は、全方位高精細監視画像から切り出されてブロッキング輝度伸張処理により監視し易いダイナミックレンジの画像に補正された高密度ベースの監視画像である。
上記したように、監視対象の顔矩形画像は、監視し易いダイナミックレンジで高品位の画像として、表示デバイス321に表示される(図10の303参照)。
さらに、画像バッファメモリ202に格納されている全方位高精細監視画像は、リサイズ部13により、表示デバイス321の画面に合わせたサイズにリサイズされる。このリサイズされた全方位監視画像は、例えば640×480画素の解像度である。この全方位監視画像は、ブロッキング輝度伸張部320で輝度伸張処理されて、先の顔矩形画像に重なるように合成される。この全方位高精細監視画像は、追跡している対象物(この実施形態では人物の顔)が全方位監視領域の中で、どの位置へ移動したかを容易に判断するのに有効である(図10の302参照)。
また上記のオブジェクト情報バッファ205に格納されている顔画像及び属性情報などは、表示デバイス321に入力されて、付加的に表示されてもよい(図10の311、312参照)。また、顔画像情報はバッファメモリ205aへ格納される顔画像情報、バッファメモリ205bへ格納される属性情報(推定年齢、性別、マスクの有無、メガネの有無など)は、互いにリンクした形で、オブジェクト情報バッファ205に蓄積される。これらの蓄積データは、その後の顔画像認識処理、追跡処理の際に利用することができる。
図2の構成において、画像バッファメモリ202、リサイズ部11、パノラマ画像生成部203は、視野角180°以上により空間を撮像して得た広角視野監視画像を、ビット数を低減させ且つリサイズし、少なくとも2つに分けて第1パノラマ画像、第2パノラマ画像に変換する第1の変換手段と称することができる。また、画像処理部204、オブジェクト情報バッファ205は、前記第1パノラマ画像若しくは第2パノラマ画像から少なくとも注目被写体を検知して追跡する検知及び追跡手段と称することができる。
さらに、座標変換処理部206、検知矩形座標情報生成部207、注目領域画像作成部315、オブジェクト画像バッファメモリ316は、前記注目被写体のパノラマ画像上の座標データを、前記広角視野監視画像上の座標データに変換して、前記広角視野監視画像から前記注目被写体の注目画像を切出す注目画像切出し手段と称することができる。そして、リサイズ部14、ブロッキング輝度伸張部320、表示デバイス321等は、少なくとも前記注目画像切出し手段が切り出した前記注目画像を表示する表示手段と称することができる。
本装置は、さらに第2の画像処理部A2を有する。画像バッファメモリ202の全方位高精細監視画像は、リサイズ部12により320×240ピクセルの解像度を持つ画像に変換され、画像追跡処理部311に入力される。この画像追跡処理部311は、画像の中の動体を検出して追跡し、その動体検知情報を生成する。動体検知情報は、動体検知矩形座標情報部312において、追跡中の動体を囲む矩形座標情報(動体検知矩形座標情報)に変換される。この動体検知矩形座標情報は、画像バッファメモリ202において、動きのある注目領域を囲む検知対象の追跡や検知結果画像を生成するためのデータとして利用される。つまり、画像バッファメモリ202の全方位高精細監視画像から、動きを伴う動体画像を切り出し、オブジェクト画像バッファメモリ316に格納する際にこの動体検知矩形座標情報が利用される。
この場合も注目領域画像作成部315は、全方位高精細監視画像から切り出した高精細な顔矩形画像を補正処理する。補正処理は、歪のある画像を表示デバイス321のアスペクト(4:3或いは16:9)の画像に正規化することである。この補正処理された顔矩形画像は、オブジェクト画像バッファメモリ316に貯えられる。
上記した処理により、本装置は、追跡する対象物(例えば人物等)の追跡能力を向上した監視画像処理装置及び監視画像処理方法を提供することができる。
図3は、上記した装置の構成とその動作を概略的に示す説明図である。データ処理装置200Aは、撮像部101からの高精細監視画像をストリーム受信部により受信する(S401)。ストリーム受信部で受信された高精細監視画像は、キャプチャ部によりフレーム単位でキャプチャされる(S403)。尚、ストリーム受信部で受信された高精細監視画像は、記憶媒体に一旦記憶された後、或は記憶されつつ(S402)、フレーム単位でキャプチャされてもよい(S403)。
次にデータ処理装置200A内では、次のような処理が実行される。即ち、キャプチャされた高精細監視画像は前処理される(S404)。この前処理は、図2で説明したリサイズ、パノラマ画像生成に対応する。前処理されたパノラマ画像は、画像処理による顔検知に基づく追跡処理及び動体検知に基づく追跡処理の対象となる(S404,S405)。顔検知に基づく追跡処理において得られた情報は、顔矩形画像、属性情報、顔矩検知形座標情報などを含む。パノラマ画像の顔検知矩形座標情報は、全方位高精細画像の座標に対応した検知矩形座標情報に座標変換される。また属性情報も抽出される。
さらに本装置では、顔検知に基づく追跡処理の他に、第2の画像処理部A2において、動体検知に基づく追跡処理も実行されている。この追跡処理においても、注目画像を切出すための動体検知矩形座標情報が生成される(S406)。この動体検知矩形座標情報は、顔検知を行う第1の画像処理装置A1において参照することができる。この参照により、第1の画像処理装置A1は、注目画像を仮想的に追跡することができ、実際の顔検知を行った時から、顔判断までの時間を早くすることができる。つまり第1の画像処理装置A1は、顔検知能力がロバストになる。
上記のようにオブジェクト追跡処理が実施される(S407)。次に注目画像出力部A3において、第1の矩形情報(顔検知矩形座標情報)又は第2の矩形情報(動体検知矩形座標情報)又は第1の矩形情報のみに基づいて、広域画像データから注目画像が切り出され、切出された注目画像の補正処理が行われる。そして補正後の注目画像がブロッキング輝度伸張処理を受けて(S409)表示デバイス321に供給される。上記したように顔検知或は動体検知により、オブジェクト(注目画像)の追跡処理が実施される。
ここで、顔検知に基づく追跡処理に基づく顔検知矩形座標情報、動体検知に基づく追跡処理に基づく動体検知矩形座標情報の何れか一方が注目画像の切出し処理のために利用されるが、その基本的な状態遷移について、以下に説明する。この例は一例であり、必ずしもこの状態遷移に限定されるものではない。
図4は、本実施形態の監視画像処理装置において、顔検知による追跡処理と動体検知による追跡処理が行われる際の状態遷移ルートの一例を示す図である。
今、顔検知・オブジェクト検知動作状態J1にあるものとする。ここで顔(注目画像)が検知されると、パスP1を介して、顔矩形による追尾動作状態J2に移る。顔が検知されている限り(パスP2)、この追尾動作状態J2が維持される。
状態J2において、顔が検知されなくなると、パスP3を介してロスト動作状態J3に移る。ロスト動作状態J3にあっても、顔が検知されると顔矩形による追尾動作状態J2に移る。しかし、ロスト動作状態J3にあって、顔が検知されず、オブジェクト(動体)が検出された場合は、動体・停止物矩形による追尾動作状態J4に移る。この状態J4では、動体を検出したあと、その動体が一定期間停止していても、動体検知として判断し、動体追尾動作を維持することができる。
動体・停止物矩形による追尾動作状態J4において、顔検知があった場合は、パスP6を経由して顔矩形による追尾動作状態J2に移る。しかし、動体・停止物矩形による追尾動作状態J4において、動体(オブジェクト)検知もできなくなった場合、パスP7を介して、ロスト動作状態J3に移る。
ロスト動作状態J3は、パスP8を経由して一定時間が経過するまでは、ロスト動作状態J3を維持する。しかし顔・オブジェクトが検知されないまま一定時間が経過してしまうと、パスP9を経由して、顔検知・オブジェクト検知動作状態J1に移る。
顔検知・オブジェクト検知動作状態J1においては、顔検知動作、動体検知動作の両方が平行して実施される。顔検知のために、動体検知による矩形情報が座標変換(つまりパノラマ座標系に変換)されて顔検知矩形情報として利用されてもよい。この利用により、顔検知が比較的早めに達成される。
またこの場合、顔検知のための顔検知矩形の面積が、追跡処理時の顔矩形の面積よりも数パーセント拡張されて利用される。これにより、顔の左右或いは上下の動きがあっても顔検知を容易化することができる。
なおロスト動作状態J3から、顔検知・オブジェクト検知動作状態J1に移って、顔を検知した場合、今回、検知した顔と同一の顔を過去フレームにおいて検知したことがあるかどうか判定する。同一の顔が存在した場合、当該顔画像データに対応する同一顔の検知データ(例えば顔検知矩形座標情報、顔の確からしさのスコア値、検知回数、最新検知フレーム番号、追跡フレーム数、前回検知からのフレーム間隔等)を更新する。過去の顔検知において、同一顔が検知されていない場合には、新たな顔検知データ(例えば初回検知フレーム番号、顔ID情報、顔検知矩形座標情報、顔の確からしさのスコア値)を作成する。つまり今まで追跡していた顔(オブジェクト:動体)に付けていた識別データ(ID)は、一旦破棄され、状態J1で検出した新たな顔(オブジェクト)に対しては新たなIDが付されて管理される。
図5は、本実施形態に関わる装置の概略動作を記載した動作フローチャートである。全方位高精細監視画像の処理が開始される。まず顔検知に基づいて顔矩形画像を追尾する追尾処理が実行される(SA1)。顔矩形画像の追尾がロスト状態になると(SA2)、オブジェクト(動体)検知があるかどうかの判定がなされる(SA3)。オブジェクト検知があった場合は、動体・停止矩形による追尾処理が実行される(SA4)。
ロスト動作状態とオブジェクト検知動作状態、において、何らかの検知(顔検知)があった場合は、図4で説明したように状態J2状態に移る。
図6と図7は、顔矩形画像を追尾する追尾処理(図5のSA1)をさらに具体的示すフローチャートである。図8は、ロスト状態から動体を検知し追跡処理(図5のSA4)する場合の動作フローを詳しく示している。
追尾処理は、「追尾無し」、「追尾中」、「ロスト中」の3種類の状態で管理する。ロスト中は、規定時間連続してロスト状態であるかどうかを監視し、規定時間連続してロスト状態が続けば、「追尾無し」状態とする。
まず、直前の追尾状態が「追尾無し」であったかどうかの判断を行う(SB1)。「追尾無し」であった場合は、顔検知に基づく新規顔検知矩形情報が存在するか否かの判定を行う。新規顔検知矩形情報が存在した場合、この新規顔検知矩形情報を現在追尾位置矩形情報として格納する。
次に、現在追尾位置矩形情報の取得(又は作成)が成功したかどうかを判定し(SB4)、成功してれば追跡中のオブジェクトIDを所定のテーブルに格納する(SB10)。
先のSB1の「追尾無し」判定において、追尾中の判定があった場合、既存追尾位置矩形情報に対応するオブジェクトIDと同一のオブジェクトIDの顔検知矩形情報を取得する(SB5)。次に、取得した顔検知矩形情報に基づいて取得した顔画像と同一顔画像が所定テーブルに存在するかどうかを判定する(SB6)。
ここで同一顔画像が存在した場合は、現在追尾位置矩形情報の取得(又は作成)が成功したかどうかを判定し(SB4)、成功してれば追跡中のオブジェクトIDを所定のテーブルに格納する(SB10)。つまり、その後は、同一のオブジェクトIDの顔画像が追跡されることになる。
先のSB6において、同一顔画像が存在しないことが判定された場合は、既存追尾位置矩形情報を調整して、矩形位置を左右、上下指定して、サイズを拡大し、拡大した既存追尾位置矩形情報と重なる顔検知矩形情報を取得する。つまりここでは、同じ顔でも少しずれた位置に顔が移動している場合があったり、或は、既存の顔の近くに別の顔が存在する場合がある。そこで、新たに顔が認識された場合は、その顔画像を利用してその後の追尾処理を行う。これにより追跡処理が強化される。
追跡中のオブジェクトIDは、所定のテーブルに格納され(SB10)、追尾が実行される。次に再度追尾状態が「追尾無し」であったかどうかの判定がなされる(SB11=SB1の判定と同じ判定)。追尾無しであった場合は、追尾位置矩形情報に現在追尾位置矩形情報(SB4で得られた情報)を格納し、追尾状態を「追尾中」に確定する(SB12、SB13)。追尾状態を「追尾中」に確定した後は、図7に示すように追尾解除時間をリセットし(SB21)、終了する。
SB11において、追尾中であったことの判定がなされた場合は、現在追尾位置矩形情報(SB4で取得した情報)に重みを乗じた位置情報を、既存追尾位置矩形情報(追尾中であったときの情報)に加算して、追尾位置矩形情報を更新する。この処理は、例えば1秒間に10コマ或いは5コマごとに実行され、既存追尾位置矩形情報に例えば0.3の重み、現在追尾位置矩形情報に例えば0.7の重みが乗じられる。これにより、追尾位置矩形情報から現在追尾位置矩形情報への滑らかな変化が得られる。
ところで、SB4において、現在追尾位置矩形情報が取得できない場合がある。この場合は、図7のSB22に示すように、追尾状態が「追尾中」であったかどうかの判定を行う。「追尾中」であった場合は、追尾状態を「ロスト中」に設定し(SB23)、追尾解除経過時間を算出する(SB24)。SB22の判定で、追尾状態が「追尾中」ではなかった場合、つまり「ロスト」中であった場合は、追尾解除経過時間を算出する(SB24)。
そして、追尾解除経過時間が規定時間を超過した場合は、追尾状態を「追尾無し」にして終了し、追尾解除経過時間が規定時間を超過していない場合は、終了する。
図8は、ロスト状態から動体を検知した場合(図5のSA4)の動作フローを詳しく示している。
既存の追尾位置矩形情報のオブジェクトIDと同一オブジェクトIDの動体・停止物矩形情報の取得を試みる(SC1)。同一オブジェクトが存在した場合(SC2のYes)、前記同一オブジェクトに対応する現在追尾位置矩形情報の取得に成功しているかどうかの判定を行う(SC4)。同一オブジェクトが存在しなかった場合(SC2のNo)、既存追尾位置矩形情報を左右、上下、指定したサイズ分拡大し、拡大した既存追尾位置矩形情報と重なる動体・停止物検知矩形情報を取得する(SC3)。
次に、現在追尾位置矩形情報の取得(又は作成)が成功したかどうかを判定し(SC4)、成功してれば追跡中のオブジェクトIDを所定のテーブルに格納する(SC5)。次に現在追尾位置矩形情報に重みを乗じた位置を既存追尾位置矩形情報に加算して、新たな矩形情報を作成(更新)する(SC6)。この場合も、既存追尾位置矩形情報に例えば0.3の重み、現在追尾位置矩形情報に例えば0.7の重みが乗じられる。これにより、追尾位置矩形情報から現在追尾位置矩形情報への滑らかな変化が得られる。
次に追尾解除時間をリセットして終了する(SC8)。先のSC4において、現在追尾位置矩形情報の取得ができなかった場合(SC4のNo)、追尾解除経過時間を算出し(SC11)、追尾解除時間が規定時間を超過しているかどうかを判定する(SC12)。追尾解除時間が規定時間を超過している場合は、追尾状態を「追尾無し」にして(SC13)、終了し、超過していない場合は、終了する。
図9(a)、図9(b)は、全方位高精細監視画像とパノラマ画像の説明図である。図9(a)は、画像バッファメモリ202に格納された全方位高精細監視画像250の一例を示している。この全方位高精細監視画像250は、部屋の空間を撮像したものであり、表示対象となる人物253を含む。例えば枠254で囲む矩形領域が注目領域である。この全方位高精細監視画像250は、パノラマ画像に変換される際、例えば分割線251で示す位置で上下に分割され、図9(b)に示すように第1のパノラマ画像261、第2のパノラマ画像262として生成される。
図10は、本実施形態の監視画像処理装置により表示デバイス321に画像が表示された一例を示す図である。全体は、注目領域画像303であり顔画像301を含む。さらに、この注目領域画像303には、リサイズされた全方位監視画像302が挿入される。この全方位監視画像302の中に顔画像301に対応する人物画像302aが存在する。
この表示を行うことにより、注目領域の顔画像301の移動位置を、全方位監視画像302により容易に確認することができる。さらに全方位監視画像302に含まれる人物画像302aには,フレーム302bが付加されてもよい。このフレーム302bは例えば注目画像(顔画像)を切出す際に利用された顔検知矩形座標情報が、画像バッファメモリ202に書き込まれることにより、生成されている。
さらに、注目領域画像303には、属性情報312が表示されてもよい。またこの属性情報312と共にリサイズされた顔矩形画像311が表示されてもよい。この顔矩形画像311は、図2のオブジェクト情報バッファ206から取り出された画像である。
このような監視画像処理装置によると、注目領域画像303は、画像バッファメモリ202に貯えられた全方位高精細監視画像から、高精細な顔矩形画像として切出される。このために、パノラマ変換した画像から切り出すのに比べて画像品質が高い。またブロッキング輝度伸張処理されているので、画像品質の向上が図られている。
次に、注目領域画像303内にリサイズされた全方位監視画像302が挿入され、この全方位監視画像302の中に顔画像301に対応する人物画像302aが存在する。このために、顔画像301の人物が監視空間の中で、どの位置に移動しているのかを容易に確認(監視)することができる。監視装置としての信頼性及び性能が向上している。また、属性情報も表示されるので監視機能の性能がアップする。
なお表示する画像において、属性情報312、リサイズされた顔矩形画像311は、必ずしも表示する必要はない。
図11は、第1の画像処理部A1における注目画像の追跡がロスト状態になったときに表示デバイス321に表示される画像の例を示している。今まで顔画像追跡中に表示されていた、注目領域画像303においては、例えば人物の顔画像にマスクがかけられる。そして第2の画像処理部A2により、動体を追跡している様子が、全方位監視画像302の中に動体追跡枠302c(つまりマーク)で示される。このとき動体の移動方向を示す矢印が表示されてもよい。
上記実施形態では、顔検知が得られない場合、対象人物らしき人物の動きを追跡した。しかし、属性情報(色、形状、付属物など)を確認しながら、対象人物らしき人物を追跡してもよいし、さらにはこの属性情報と動き情報とを組み合わせて、対象人物らしき人物を追跡してもよい。つまり動体が追跡されるときは、動き情報のみならず単一或いは複数の属性情報(洋服の色、帽子等)も併用されてもよい。このときは、追跡に利用している属性情報を点滅あるいは色を変化させて表示してもよい。
さらにまた、複数の人物の顔が検出されることもある。この場合、特定の人物(一人)を追跡する場合、属性情報を組み合わせて、追跡することが好ましい。例えば、特定の人物の属性情報が髪の毛が長い、赤い洋服を着ている情報であるとする。顔検知がロスト状態になったとき、動き検出側で、同じ属性情報をもつ動体を追跡すると、再度顔が検知されたとき、前記特定の人物であることの確率が高くなる。
なお実施例では、個別特徴を顔とし、顔画像を追跡した。しかし、追跡対象は、顔に限らず、特定のマーク、国旗、特定の意匠、特定の発光をする物の場合も適用可能である。
実施形態では、360°全方位を撮像した画像を取得する装置として説明したが、180°以上の方位を撮像した画像を取得する装置であればよい。また、画像切出し、座標情報は、矩形である如く説明したが、これに限らず各種の形状であってもよい。例えば検出する人物が複数存在した場合、それぞれの顔画像の切り出し枠の形状が異なるようにしてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。さらにまた、請求項の各構成要素において、構成要素を分割して表現した場合、或いは複数を合わせて表現した場合、或いはこれらを組み合わせて表現した場合であっても本発明の範疇である。また請求項を制御ロジックとして表現した場合、コンピュータを実行させるインストラクションを含むプログラムとして表現した場合、及び前記インストラクションを記載したコンピュータ読み取り可能な記録媒体として表現した場合でも本発明の装置を適用したものである。
A1・・・第1の画像処理部、A2・・・第2の画像処理部、A3・・・注目画像出力部、11、12、13、14・・・リサイズ部、101・・・単眼カメラ(撮像部)、200A・・・データ処理装置、201・・・キャプチャ、202・・・画像バッファメモリ、203・・・パノラマ画像生成部、204・・・画像追跡処理部、205・・・オブジェクト情報バッファ、207・・・座標変換処理部、207・・・顔検知矩形座標情報部、311・・・画像追跡処理部、312・・・動体検知矩形座標情報部、314・・・オブジェクト追跡処理部、315・・・注目領域画像作成部、316・・・オブジェクト画像バッファメモリ、320・・・ブロッキング輝度伸張部、321・・・表示デバイス。
実施形態の一例である装置によれば、撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置であって、
前記データ処理装置は、
前記対象物の個別特徴(顔)を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴(顔)の画像を含む第1注目画像(顔画像)を切り出して前記表示デバイスに供給する注目画像出力部を備え、
前記第1の画像処理部は、前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)の画像を切出すための第1の画像領域情報を生成し、
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の画像の追跡を失った場合、画像の動き検出情報に基づいて第2注目画像(動体画像)を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
前記第1の画像処理部が前記個別特徴(顔)を追跡している間は、前記第2の画像処理部は、前記第2注目画像(動体画像)を切出すための前記第2の画像領域情報として、前記第1の画像処理部が生成している前記第1の画像領域情報に基づいて前記第2注目画像(動体画像)を仮想追跡し、
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴(顔)の画像を切り出して前記表示デバイスに供給する。
実施形態の他の装置によれば、撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置であって、
前記データ処理装置は、
前記対象物の個別特徴(顔)を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴(顔)の画像を含む第1注目画像(顔画像)を切り出して前記表示デバイスに供給する注目画像出力部を備え、
前記第1の画像処理部は、前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)の画像を切出すための第1の画像領域情報を生成し、
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の画像の追跡を失った場合、画像の動き検出情報に基づいて第2注目画像(動体画像)を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
前記第2の画像処理部が前記動き特徴を追跡している間は、前記第1の画像処理部は、第1注目画像(顔画像)を切り出すための前記第1の画像領域情報として、前記第2の画像処理部が生成している前記第2の画像領域情報に基づいて前記個別特徴(顔)を仮想追跡し、
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴(顔)の画像を切り出して前記表示デバイスに供給する。
ここで、検知した顔の領域を示す顔矩形座標情報は、パノラマ画像から取得したものである。また、顔矩形座標情報により囲まれる領域の顔画像は、最大1920×1080ピクセルの解像度である。したがって、この段階での顔矩形座標情報、解像度は、画像バッファメモリ202内の全方位高精細監視画像に対する顔矩形座標情報、解像度とは一致しない。そこで、座標変換処理部206は顔画像がバッファメモリ205に記憶されると、パノラマ画像上の顔画像位置座標を全方位高精細監視画像の顔画像位置座標に変換する。次に、検知矩形座標情報生成部207が、座標変換処理部206により生成された全方位高精細監視画像の顔画像位置座標をもとに顔検知矩形座標情報(顔を囲むフレームの座標情報)を生成する。この顔検知矩形座標情報は、オブジェクト追跡処理部314を介してあるいは直接注目領域画像作成部315に与えられる。オブジェクト追跡処理部314は、第1の画像処理部A1又は第2の画像処理部A2から出力される何れかの顔或いは動体検知矩形座標情報を、状況に応じて選択し、注目領域画像作成部315に与えることができる。
A1・・・第1の画像処理部、A2・・・第2の画像処理部、A3・・・注目画像出力部、11、12、13、14・・・リサイズ部、101・・・単眼カメラ(撮像部)、200A・・・データ処理装置、201・・・キャプチャ、202・・・画像バッファメモリ、203・・・パノラマ画像生成部、204・・・画像追跡処理部、205・・・オブジェクト情報バッファ、206・・・座標変換処理部、207・・・顔検知矩形座標情報部、311・・・画像追跡処理部、312・・・動体検知矩形座標情報部、314・・・オブジェクト追跡処理部、315・・・注目領域画像作成部、316・・・オブジェクト画像バッファメモリ、320・・・ブロッキング輝度伸張部、321・・・表示デバイス。

Claims (13)

  1. 撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置であって、
    前記データ処理装置は、
    前記対象物の個別特徴(顔)を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴(顔)の画像を含む第1注目画像(顔画像)を切り出して前記表示デバイスに供給する注目画像出力部を備え、
    前記第1の画像処理部は、前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)の画像を切出すための第1の画像領域情報を生成し、
    前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の画像の追跡を失った場合、画像の動き検出情報に基づいて第2注目画像(動体画像)を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
    前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴(顔)の画像を切り出して前記表示デバイスに供給する、
    ことを特徴とする監視画像処理装置。
  2. 前記第1の画像処理部が前記個別特徴(顔)の画像を検出したとき、前記注目画像出力部は、前記第1の画像領域情報を優先して使用する、
    ことを特徴とする請求項1記載の監視画像処理装置。
  3. 前記第1の画像処理部が前記個別特徴(顔)を追跡している間は、前記第2の画像処理部は、前記第2注目画像(動体画像)を切出すための前記第2の画像領域情報として、前記第1の画像処理部が生成している前記第1の画像領域情報に基づいて前記第2注目画像(動体画像)を仮想追跡する、
    ことを特徴とする請求項1記載の監視画像処理装置。
  4. 前記第2の画像処理部が前記動き特徴を追跡している間は、前記第1の画像処理部は、第1注目画像(顔画像)を切り出すための前記第1の画像領域情報として、前記第2の画像処理部が生成している前記第2の画像領域情報に基づいて前記個別特徴(顔)を仮想追跡する、
    ことを特徴とする請求項1記載の監視画像処理装置。
  5. 前記第1の画像処理部が前記個別特徴(顔)の追跡を失った場合、前記第2の画像処理部は、前記第1の画像領域情報を利用するとき、この第1の画像領域情報よりも領域面積が大きい前記第2の画像領域情報を生成して仮想追跡を開始する、
    ことを特徴とする請求項1記載の監視画像処理装置。
  6. 前記データ処理装置は、
    前記表示デバイスに対して、前記第1注目画像(顔画像)を入力して表示させると共に、前記第1注目画像(顔画像)に重ねてリサイズした前記広域画像データの画像を入力して表示させる、
    ことを特徴とする請求項1記載の監視画像処理装置。
  7. 前記データ処理装置は、
    前記表示デバイスに対して、さらに前記第1注目画像(顔画像)に関する属性情報を入力して表示させる、
    ことを特徴とする請求項1記載の監視画像処理装置。
  8. 前記データ処理装置は、
    前記第1の画像処理部が前記個別特徴(顔)の追跡を失っているとき、
    前記表示デバイスに対して、前記広域画像データの画像を入力して表示させると共に、前記第2の画像処理部が追跡している第2注目画像(動体画像)をマークとして、前記広域画像データの画像に重ねて表示させる、
    ことを特徴とする請求項1記載の監視画像処理装置。
  9. 撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力して処理する監視画像処理方法であって、
    第1の画像処理部で前記対象物に対応する個別特徴(顔)を追跡し、第2の画像処理部で前記対象物の動き特徴を追跡し、注目画像出力部で、第1注目画像(顔画像)を切り出して前記表示デバイスに供給し、
    前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)を切出すための第1の画像領域情報を生成し、
    前記第1の画像処理部が前記個別特徴(顔)の追跡を失った場合、画像の動き検出情報に基づいて動き特徴を追跡して、前記広域画像データから第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
    少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)を切り出して前記表示デバイスに供給する、
    ことを特徴とする監視画像処理方法。
  10. 前記個別特徴(顔)の画像が検出されたとき、前記第1の画像領域情報を優先して使用し、前記広域画像データから前記第1注目画像(顔画像)を切り出して前記表示デバイスに供給する、
    ことを特徴とする請求項9記載の監視画像処理方法。
  11. 撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置であって、
    前記データ処理装置は、
    前記対象物の個別特徴を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴の画像を切り出して前記表示デバイスに供給する注目画像出力部を備え、
    前記第1の画像処理部は、前記個別特徴の画像を検出している場合、前記個別特徴の画像を囲む矩形情報に基づいて、前記広域画像データから前記個別特徴の画像を切出すための第1の画像領域情報を生成し、
    前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴の画像の追跡を失った場合、画像の動き検出情報に基づいて動体画像を追跡して、前記広域画像データから前記動体画像を切出すことができる第2の画像領域情報を生成し、
    前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴の画像を切り出して前記表示デバイスに供給する、
    ことを特徴とする監視画像処理装置。
  12. 前記第1の画像処理部が前記個別特徴を追跡している間は、前記第2の画像処理部は、前記動体画像を切出すための前記第2の画像領域情報として、前記第1の画像処理部が生成している前記第1の画像領域情報に基づいて前記動体画像を仮想追跡する、
    ことを特徴とする請求項11記載の監視画像処理装置。
  13. 前記第2の画像処理部が前記動き特徴を追跡している間は、前記第1の画像処理部は、前記個別特徴の画像を切り出すための前記第1の画像領域情報として、前記第2の画像処理部が生成している前記第2の画像領域情報に基づいて前記個別特徴を仮想追跡する、
    ことを特徴とする請求項11記載の監視画像処理装置。
JP2017005215A 2017-01-16 2017-01-16 監視画像処理装置及び監視画像処理方法 Active JP6440749B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017005215A JP6440749B2 (ja) 2017-01-16 2017-01-16 監視画像処理装置及び監視画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017005215A JP6440749B2 (ja) 2017-01-16 2017-01-16 監視画像処理装置及び監視画像処理方法

Publications (2)

Publication Number Publication Date
JP2018117181A true JP2018117181A (ja) 2018-07-26
JP6440749B2 JP6440749B2 (ja) 2018-12-19

Family

ID=62984193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017005215A Active JP6440749B2 (ja) 2017-01-16 2017-01-16 監視画像処理装置及び監視画像処理方法

Country Status (1)

Country Link
JP (1) JP6440749B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881866A (zh) * 2020-08-03 2020-11-03 杭州云栖智慧视通科技有限公司 一种实时人脸抓取推荐方法、装置及计算机设备
WO2023105598A1 (ja) * 2021-12-07 2023-06-15 株式会社日立国際電気 画像処理装置、画像処理システム及び画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154134A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 映像監視システム
JP2013162329A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラム、及び記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154134A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 映像監視システム
JP2013162329A (ja) * 2012-02-06 2013-08-19 Sony Corp 画像処理装置、画像処理方法、プログラム、及び記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881866A (zh) * 2020-08-03 2020-11-03 杭州云栖智慧视通科技有限公司 一种实时人脸抓取推荐方法、装置及计算机设备
CN111881866B (zh) * 2020-08-03 2024-01-19 杭州云栖智慧视通科技有限公司 一种实时人脸抓取推荐方法、装置及计算机设备
WO2023105598A1 (ja) * 2021-12-07 2023-06-15 株式会社日立国際電気 画像処理装置、画像処理システム及び画像処理方法

Also Published As

Publication number Publication date
JP6440749B2 (ja) 2018-12-19

Similar Documents

Publication Publication Date Title
US9196093B2 (en) Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
JP6492041B2 (ja) 監視画像処理装置及び監視画像処理方法
JP6564271B2 (ja) 撮像装置及び画像処理方法、プログラム、並びに記憶媒体
KR20110006878A (ko) 복수의 인물에 대한 이미지 생성 장치 및 방법
CN108605087B (zh) 终端的拍照方法、拍照装置和终端
WO2016026466A1 (zh) 一种光绘图像的优化方法及装置
US10348958B2 (en) Image processing apparatus for performing predetermined processing on a captured image
JP2013235080A (ja) 画像表示装置、画像表示プログラム及び画像表示方法
KR20090088325A (ko) 화상 처리 장치, 화상 처리 방법 및 촬상 장치
JP2010141649A (ja) 撮像装置、顔検出方法及びプログラム
JP2013186853A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013228930A (ja) 被写体領域検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP5963006B2 (ja) 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体
JP6440749B2 (ja) 監視画像処理装置及び監視画像処理方法
US11496661B2 (en) Image processing apparatus and image processing method
TWI477887B (zh) 影像處理裝置、影像處理方法及記錄媒體
JP5924977B2 (ja) 画像処理装置および画像処理方法
JP6104066B2 (ja) 画像処理装置および画像処理方法
JP6858007B2 (ja) 画像処理システム、画像処理方法
US10937174B2 (en) Image processing device, image processing program, and recording medium
JP2012124767A (ja) 撮像機器
JP2019009615A (ja) 監視カメラ装置、監視映像配信方法および監視システム
CN111083345B (zh) 独照生成装置和方法及其非易失性计算机可读媒体
KR101481798B1 (ko) B셔터 이미지 생성 방법 및 장치
KR20130032578A (ko) 열화상카메라를 이용한 영상획득 방법 및 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181120

R150 Certificate of patent or registration of utility model

Ref document number: 6440749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250