JP2008048243A - 画像処理装置、画像処理方法および監視カメラ - Google Patents

画像処理装置、画像処理方法および監視カメラ Download PDF

Info

Publication number
JP2008048243A
JP2008048243A JP2006223007A JP2006223007A JP2008048243A JP 2008048243 A JP2008048243 A JP 2008048243A JP 2006223007 A JP2006223007 A JP 2006223007A JP 2006223007 A JP2006223007 A JP 2006223007A JP 2008048243 A JP2008048243 A JP 2008048243A
Authority
JP
Japan
Prior art keywords
unit
image data
region
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006223007A
Other languages
English (en)
Inventor
Kazunori Hayashi
和慶 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006223007A priority Critical patent/JP2008048243A/ja
Publication of JP2008048243A publication Critical patent/JP2008048243A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】重要領域の位置、大きさが変化する場合であっても、画像データの効果的な圧縮処理を可能とする。
【解決手段】撮像信号処理部103で得られる画像データVDを、画像データ処理部104および画像データ圧縮部105に供給する。画像データ処理部104は、画像データVDを処理し、この画像データVDによる画像から重要領域DIを検知する。例えば、動き領域、不動体領域、画像認識された人物、車等の所定領域のいずれか、またはそれらの領域の所定の組み合わせを、重要領域DIとする。画像データ圧縮部105は、画像データVDに対してデータ圧縮処理を行って、監視カメラ100の出力としての圧縮画像データVDCを生成する。このデータ圧縮処理を重要領域DIの情報に基づいて行い、重要領域DIのデータ圧縮率は他の領域のデータ圧縮率より低く抑える。
【選択図】図1

Description

この発明は、IP(InternetProtocol)伝送を用いた監視カメラシステムに適用して好適な画像処理装置、画像処理方法および監視カメラに関する。詳しくは、この発明は、入力画像データを処理して画像の重要領域を検知し、この検知出力に基づいて重要領域のデータ圧縮率を他の領域のデータ圧縮率より低く抑えることによって、重要領域の位置、大きさが変化する場合であっても画像データを効果的に圧縮できるようにした画像処理装置等に係るものである。
監視カメラシステムでは、従来から使われてきたアナログシステムに代わって、IP伝送を用いたシステムが新たに商品化されてきている。IP化することによって大規模なシステムが構築できるようになったが、伝送容量(帯域)の削減と記録(ストレージ)容量の削減が大きな課題となっている。
IP伝送時の圧縮方式(コーデック)は、監視カメラ以外でも一般的に用いられているJPEG(Joint PhotographicExperts Group)方式、MPEG(Moving Picture Experts Group)方式が主流であって、特殊な圧縮方式は用いられない。JPEG方式は、監視カメラの台数が多くフレームレートが低くなってしまう場合には有効な方式であり、MPEG方式は画像解像度を落としてでも動画像を確認したい場合に有効な方式である。
通常のTV放送の画像などとは異なり、監視カメラ画像は、異常状態を監視・モニタリングすることが目的であり、本来であれば異常な状態のみ記録できればよい。しかしながら現状の動き領域検知などの機能は完全ではないために、検知した状態の画像のみを記録する方式はあまり用いられず、結果として常時記録されることが多く、記録容量の削減には至っていない。
特許文献1には、例えばこのような常時記録において、記録容量の削減を効果的に行い得る技術が開示されている。この技術は、画像から重要領域を選択する領域選択手段を備え、重量領域を構成する画像データを低圧縮率で圧縮し、非重要領域を構成する画像データを高圧縮率で圧縮するという技術である。この場合、重量領域を構成する画像データは低圧縮率で圧縮されるので重要領域の画質をそれほど低下させずに済む。一方、非重要領域を構成する画像データは高圧縮率で圧縮されるので、伝送容量、記録容量は削減される。
特開平10−210467号公報
特許文献1に記載される技術は、上記したように効果的に伝送容量、記録容量を削減できる。しかし、この技術では、重要領域はユーザが領域選択手段、例えばポインティングデバイスを利用して選択するものであり、この重要領域が特許文献1に記載されているように固定している場合には何ら問題はないが、重要領域の位置や大きさが変化する場合には対処できないという問題がある。
この発明の目的は、重要領域の位置、大きさが変化する場合であっても、画像データの効果的な圧縮を可能にすることにある。
この発明の概念は、
入力画像データを処理することで、該入力画像データによる画像から重要領域を検知する領域検知部と、
上記入力画像データに対してデータ圧縮処理を行って圧縮画像データを出力する画像データ圧縮部を備え、
上記画像データ圧縮部は、上記領域検知部の検知出力に基づいて、上記重要領域のデータ圧縮率を他の領域のデータ圧縮率より低く抑える
ことを特徴とする画像処理装置にある。
この発明においては、例えば撮像部からの入力画像データが処理され、当該入力画像データによる画像から重要領域、例えば動き領域、不動体領域(物体の発生領域、物体の消失領域)、画像認識処理による所定領域等が検知される。なお、各領域が並行して検知され、最終的な重要領域が、検知された各領域のいずれかまたはそれらの領域の所定の組み合わせとされてもよい。また、重要領域の検知が、ユーザ操作部で設定された条件、例えば重要領域の色、図柄、検知の仕方等に基づいて行われるようにしてもよい。
入力画像データに対してデータ圧縮の処理が行われるが、上述した重要領域の検知出力に基づき、重要領域のデータ圧縮率は他の領域のデータ圧縮率より低く抑えられる。この場合、重要領域の位置、大きさが変化する場合であっても、当該重要領域を検知して、重要領域と非重要領域とでデータ圧縮率を変化させるものであり、画像データの効果的な圧縮が可能となる。
例えば、領域検知部は、あるフレームで重要領域を検知するとき、続く複数のフレームで重要領域を検知しない場合であっても、あるフレームで検知される重要領域の範囲と移動速度に基づいて重要領域を推定して検知出力とするようにしてもよい。この場合、例えば動き領域の検知、画像認識処理による所定領域の検知にあって検知漏れが断続的に発生した場合であっても、重要領域でデータ圧縮率が低く抑えられることが継続され、見易い安定した画像を得ることが可能となる。またこの場合、例えば不動体検知部の不動体領域(物体の発生領域、物体の消失領域)の検知にあって、検知後でも当該不動体領域が重要領域とされてデータ圧縮率が低く抑えられることが継続され、当該不動体領域を見易い画像で監視することが可能となる。
また例えば、領域検知部は、あるフレームで動き領域を検知するとき、続く複数のフレームで動き領域を検知しない場合であっても、あるフレームで検知される動き領域を重要領域とするようにしてもよい。この場合、動体が停止し当該動体領域が動き領域として検知されなくなっても、この停止した動体の領域が重要領域とされてデータ圧縮率が低く抑えられることが継続され、当該停止した動体を見易い画像で監視することが可能となる。
この発明によれば、入力画像データを処理して画像の重要領域を検知し、この検知出力に基づいて重要領域のデータ圧縮率を他の領域のデータ圧縮率より低く抑えるものであり、重要領域の位置、大きさが変化する場合であっても画像データの効果的な圧縮処理を行うことができる。
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としての監視カメラ100の構成を示している。この監視カメラ100は、撮像レンズ101と、撮像素子102と、撮像信号処理部103と、画像データ処理部104と、画像データ圧縮部105と、出力端子106とを有している。
撮像レンズ101は、例えばマスタレンズ、焦度調整用レンズ、変倍レンズなどにより構成されている。この撮像レンズ101の焦度調整用レンズ、変倍レンズは、撮像信号処理部103からの制御信号に基づき、図示しない駆動部により駆動され、フォーカス調整、ズーム倍率調整が行われる。撮像素子102は、CCD(Charged Coupled Device)あるいはCMOS(ComplementaryMetal-Oxide Semiconductor)等の撮像素子である。
撮像信号処理部103は、撮像素子102から出力される撮像信号(アナログ信号)のサンプルホールドおよび利得制御、アナログ信号からデジタル信号への変換を行い、さらにホワイトバランス調整、ガンマ補正等を行って画像データVDを生成する。また、この撮像信号処理部103は、上述したように撮像レンズ101の焦度調整用レンズ、変倍レンズを駆動する駆動部に制御信号を供給する制御部も備えている。撮像レンズ103、撮像素子104および撮像信号処理部103は撮像部を構成している。
画像データ処理部104は、撮像信号処理部103で生成された画像データを処理して、この画像データによる画像から重要領域を検知する。ここで、画像データ処理部104は、動き領域を検知する動体検知部と、不動体領域(物体の発生領域、物体の消失領域)を検知する不動体検知部と、画像認識処理により所定領域、例えば人物領域、車領域等を検知する画像認識検知部を有し、最終的な重要領域を、各検知部で検知された領域のいずれかまたは各検知部で検知された領域の所定の組み合わせとする。この画像データ処理部104は、重要領域DIを検知する領域検知部を構成している。
図2は、画像データ処理部104の具体的な構成を示している。この画像データ処理部104は、制御部111、ユーザ操作部112、入力端子113、動体検知部114、不動体検知部115、画像認識検知部116、選択組み合わせ部117、保持・追尾機能部118および出力端子119を有している。
制御部111は全体の動作を制御する。ユーザ操作部112は、ユーザが種々の入力を行うために操作するユーザインターフェースを構成している。このユーザ操作部112は、制御部111に接続されている。
ユーザは、このユーザ操作部112により、重量領域を検知するための条件を設定できる。画像データ処理部104は、上記したように各検知部で検知された領域のいずれかまたは各検知部で検知された領域の所定の組み合わせを最終的な重要領域とするものであり、ユーザは、このユーザ操作部112を操作して、重要領域を、各検知部で検知された領域のいずれにするか、あるいは各検知部で検知された領域の所定の組み合わせとするか、という検知の仕方を選択できる。また、ユーザは、このユーザ操作部112を操作して、各検知部で検知される領域の色、図柄などを選択できる。また、ユーザは、このユーザ操作部112を操作して、画像認識検知部116で画像認識すべき対象物、例えば人物、車などを選択できる。
動体検知部114は、入力端子113に入力される画像データDVを処理することで、この画像データDVによる画像から動き領域を検知する。不動体検知部115は、入力端子113に入力される画像データDVを処理することで、この画像データDVによる画像から不動体領域(物体の発生領域、物体の消失領域)を検知する。また、画像認識検知部116は、入力端子113に入力される画像データDVに基づき画像認識処理を行って所定領域を検知する。これら動体検知部114、不動体検知部115および画像認識検知部116の具体例については後述する。
選択組み合わせ部117は、検知部114〜116で検知された領域Da〜Dcに基づいて最終的な重要領域DI′を出力する。この選択組み合わせ部117では、上述したユーザ操作部112からのユーザ選択により、重要領域DI′として、例えば、(1)動体検知部114で検知された領域Da、(2)不動体検知部115で検知された領域Db、(3)画像認識検知部116で検知された領域Dc、(4)動体検知部114で検知された領域Daであって、かつ画像認識検知部116で検知された領域Dc、などを出力する。
保持・追尾機能部118は、選択組み合わせ部117から出力される重要領域DI′を重要領域DIとして出力端子119に出力する。また、保持・追尾機能部118は、選択組み合わせ部117からあるフレームで重要領域DI′が出力されるが、それに続く複数のフレームで重要領域DI′が出力されないとき、あるフレームで出力される重要領域DI′の範囲と移動速度(方向情報も含む)に基づいてそれに続く各フレームの重要領域を推定し、この推定された重要領域を重要領域DIとして出力端子119に出力する。
ここで、保持・追尾機能部118は、あるフレームで出力される重要領域DI′の移動速度が0でないときは、その移動速度に基づき、追尾機能によって、各フレームの重要領域を順次移動していく。一方、保持・追尾機能部118は、あるフレームで出力される重要領域DI′の移動速度が0であるときは、保持機能によって、各フレームの重要領域をあるフレームの重要領域と同じ領域とする。
また、保持・追尾機能部118は、選択組み合わせ部117が上述した(1)動体検知部114で検知された領域Daを選択する状態にあり、あるフレームで重要領域DI′が出力されるが、それに続く複数のフレームで重要領域DI′が出力されないとき、あるフレームで出力される重要領域DI′をそのまま重要領域DIとして出力端子119に出力する。
ここで、動体検知部114の具体例(特願2004−266012号参照)を説明する。図3は、動体検知部114の具体例を示している。この動体検知部114は、入力端子121、過去画像保持部122、フレーム間差分処理部123、背景画像保持部124、フレーム間差分処理部125、変化連続性検出部126および出力端子127を有している。
入力端子121は、画像データVDを入力するための端子である。過去画像保持部122は、過去数フレームの画像データを過去画像データ群として保持する。フレーム間差分処理部123は、過去画像保持部122に保持されている過去数フレームの画像データと、入力端子121に入力される現フレームの画像データとの差分値を求める。
背景画像保持部124は、背景画像の画像データを保持する。フレーム間差分処理部125は、背景画像保持部124に保持されている背景画像の画像データと、入力端子121に入力される現フレームの画像データとの差分を検出し、この差分値に基づいて現フレーム画像のうち背景画像と異なる領域を検出する。
上述したフレーム間差分処理部123は、このフレーム間差分処理部125で検出された領域に基づき、差分値を求める処理を、当該検出領域のみで行い、高速な処理を実現すると共に、動き領域として過去に動体が存在していた領域(残像領域)が検出されることを防止する。
変化連続性検出部126は、フレーム間差分処理部で求められた数フレーム分の差分値に基づいて、画素毎に、変化連続性を検出して、動き領域か否かを検出する。この場合、画素毎に、数フレーム分の差分値に対してそれぞれ閾値処理を行い、閾値を越えた状態が一定時間以上継続した場合には、動き領域を構成する画素であるとする。
この変化連続性検出部126における検出処理について、図4(A)〜(C)を参照して、さらに説明する。この図4(A)〜(C)は、ある画素における数フレーム分の差分値を、横軸に過去フレームの時間、縦軸にそれぞれの過去フレームでの差分値を示している。
ある画素に物体(動体)が無い場合、図4(A)に示すように、数フレーム分の差分値は小さい状態が継続したものとなる。次に、ある画素に時刻t1のフレームで物体が進入してきて、現フレームでも当該物体が存在する場合、図4(B)に示すように、時刻t1以前のフレームの差分値は大きく、それ以後のフレームの差分値は小さくなる。次に、ある画素に木の葉や波等の揺らぎ(周期的な動き)がある場合、図4(C)に示ように、差分値はランダムに変動する。
このように、ある画素に物体が進入してきた場合には、図4(B)に示すように、一定時間の間、差分値が大きい状態におかれる。そのため、変化連続性検出部126は、差分値が大きなフレームの連続数がカウントされ、その値が所定数を越えるとき、動き領域を構成する画素であるとする。
なお、ある画素に木の葉や波等の揺らぎがある場合には、図4(C)に示ように、差分値が大きなフレームの連続数は少なく、当該ある画素が動き領域を構成する画素とはされない。また、差分値の図示は省略するが、ある画素に物体の進入によらない輝度変化(単発的な動き)がある場合も、上述した木の葉や波等の揺らぎ(周期的な動き)がある場合と同様に、差分値が大きなフレームの連続数は少なく、当該ある画素が動き領域を構成する画素とはされない。これにより、動き領域として、突発的あるいは周期的な動き領域が除かれ、画像内に進入してきた物体の領域のみ検出可能となる。
変化連続性検出部126は、上述したように動き領域を構成する画素とした各画素に対して隣接画素との結合処理等によるラベリングを行って動き領域Daを検知し、その情報を出力端子127に出力する。
図3に示す動体検知部114の動作を説明する。入力端子121には画像データVDが入力される。この画像データVDは背景画像保持部124に供給され、物体が存在していない状態における画像データVDが背景画像の画像データとして保持される。
入力端子121に入力される画像データVDはフレーム間差分処理部125に供給される。そして、フレーム間差分処理部125では、背景画像保持部124に保持されている背景画像の画像データと、入力端子121に入力される現フレームの画像データとの差分値が検出され、この差分値に基づいて現フレーム画像のうち背景画像と異なる領域が検出される。
入力端子121に入力される画像データVDが過去画像保持部122に供給され、この過去画像保持部122には過去数フレーム分の画像データが過去画像データ群として保持される。
入力端子121に入力される画像データVDがフレーム間差分処理部123に供給される。そして、このフレーム間差分処理部123では、過去画像保持部122に保持されている過去数フレームの画像データと、入力端子121に入力される現フレームの画像データとの差分値が求められる。この場合、上述のフレーム間差分処理部125で検出された領域に基づき、差分値を求める処理は、当該検出領域のみで行われ、処理の高速化が図られ、また残像領域の検出が防止される。
このようにフレーム間差分処理部123で求められた数フレーム分の差分値は変化連続性検出部126に供給される。この変化連続性検出部126では、画素毎に、数フレーム分の差分値に対してそれぞれ閾値処理が行われ、閾値を越えた状態が一定時間以上継続した場合には、動き領域を構成する画素であるとする決定が行われる。
そして、この変化連続性検出部126では、上述したように動き領域を構成する画素とした各画素に基づいて隣接画素との結合処理などのラベリングが行われて動き領域Daが検知される。この動き領域Daの情報は出力端子127に出力される。
次に、不動体検知部115の具体例(特願2005−157588号参照)を説明する。この例は、基準背景画像の更新方法として、重み付き混合正規分布を用いるものである。
図5は、不動体検知部115の具体例を示している。この不動体検知部115は、入力端子131、重み付き混合正規分布算出部132、上位重み抽出部133、クラス分類部134、基準輝度値更新部135、変化後輝度値検出部136、クラス遷移判別部137、比較部138、不動体検知判定部139および出力端子140を有している。
入力端子131は、画像データVDを入力するための端子である。重み付き混合正規分布算出部132は、画素毎に、輝度値が複数個の輝度正規分布のいずれに属するかを判定し、複数個の輝度正規分布のそれぞれについての重みを更新すると共に、平均値を更新する。そして、この重み付き混合正規分布算出部132は、その算出結果(少なくとも各分布の重みおよび平均値(平均輝度値))を上位重み抽出部133に供給する。
ここで、輝度正規分布の平均値および重みの更新についてさらに説明する。
現在(時点t)の画素の輝度Xtの確率P(Xt)は、一般に、(1)式のように表すことができる。
この(1)式における確率密度関数ηは、(2)式のように表すことができる。
各画素の輝度は、k個(kは正の整数)の正規分布のいずれに属するかを探す。例えば、1画素の輝度データが8ビットで表される画像データの場合、図6(A)に示すような4個の輝度正規分布を用意し、各画素の輝度が、当該4個の輝度正規分布のどれに属するかを探す。
ある画素の輝度Xtが、例えば、その輝度正規分布の平均値μk±2σk以内の値であるか否か判定し、以内であれば当該輝度正規分布に属していると判定し、以外であれば当該輝度正規分布に属していないと判定する。もしも、いずれの輝度正規分布にも属さないときには、k個の輝度正規分布のうち後述する重みが最も小さい輝度正規分布の平均値μを、そのときの画素の輝度Xtに置き換える。
そして、画素毎に、当該画素の輝度Xtが属した輝度正規分布の重みを大きく、属さなかった輝度正規分布の重みを小さくするように、各輝度正規分布の重みωk,tを更新する。すなわち、例えば、画素の輝度Xtが属した輝度正規分布の重みωk,tは、以下の(3)式にしたがって更新し、また、属さなかった輝度正規分布の重みωk,tは、以下の(4)式にしたがって更新する。なお、(3)式および(4)式において、αは重みの更新速度であり、0≦α≦1である。
そして、各輝度正規分布の平均値μtと分散σは、以下の(5)式、(6)式、(7)式に基づいて、更新される。
以上により、各画素について、複数個の輝度正規分布のそれぞれの重みωk,tの情報が、図6(B)に示すように更新されてゆく。
上位重み抽出部133は、複数個の輝度正規分布のうち、重みの大きさが上位2個の分布の重みをクラス分類部134に供給すると共に、重みが最大である分布の平均輝度値を基準輝度値更新部135および変化後輝度値検出部136に供給する。
クラス分類部134は、重みの大きさが上位2個の分布の重みを用い、以下の(8)式および(9)式に基づいて、現時点における画素の輝度の変化状態についてクラス分類し、その分類結果のクラスの情報をクラス遷移判別部137に供給する。
重みの大きさが上位2個の分布の重みを用いたクラス分類について説明する。この場合、重みの大きさの上位2つの輝度正規分布の重みの関係、特にこの実施の形態では、上位2つの輝度正規分布の重みの比に基づいてクラス分類をする。上位2つの輝度正規分布の重みのうち、重みの大きさが大きい方をwb、小さい方をwsとしたときに、(8)式であらわされる比rの値に基づいてクラス分類する。
r=wb/ws ・・・(8)
この場合、比r=1および1近傍のときには、画素の輝度は、上位2つの輝度正規分布のどちらに属するかが不安定な状態であるので、不安定クラスとする。
そして、比rが所定値以上であれば、上位2つの輝度正規分布の重みに大きな違いがあり、いずれの輝度正規分布に画素の輝度が属するかは安定に判定できるので、安定クラスとする。そして、安定クラスと、不安定クラスとの中間の状態は、中間クラスとする。
比rの値に対する各クラス分けのための閾値は、例えば試行錯誤により決定される。この実施の形態では、例えば、(9)式で示されるものとする。
不安定クラス ; 1≦r<1.1〜1.2
中間クラス ; 1.1〜1.2≦r<1.5
安定クラス ; 1.5≦r
・・・(9)
クラス遷移判別部137は、クラス分類部134からのクラスの情報の時間的な遷移を判別する。そして、クラス遷移判別部137は、この実施形態では、判別したクラス遷移に基づいて、基準輝度値の更新タイミング信号Sstおよび輝度変化検出タイミング信号Schを生成する。
図7に、上位2つの重みの比に基づいて、画素の輝度の状態を安定クラス、中間クラス、不安定クラスの3つのクラスに分類したときの遷移状態を示す。この図7では、便宜上、安定クラスをA、中間クラスをB、不安定クラスをCとし、遷移状態を表す値、遷移状態値をSTATE_Xとする。ここで、遷移状態値STATE_XにおけるXは、不安定クラスCになったときには、C(STATE_C)となるが、その他のときには、前のクラスの状態を考慮した値とされる。
すなわち、STATE_AおよびSTATE_Bは、初期状態がAクラスおよびBクラスの場合の遷移状態値である。初期状態がCクラスのときにも遷移状態値は、STATE_Cとなる。STATE_BAは、AクラスからBクラスに遷移したとき、または、BクラスからAクラスに遷移したときの遷移状態値である。STATE_CBは、BクラスからCクラスに遷移したとき、または、CクラスからBクラスに遷移したときの遷移状態値である。さらに、STATE_CBAは、AクラスからBクラス、さらにCクラスに遷移したとき、または、CクラスからBクラス、さらにAクラスに遷移したときの遷移状態値である。
初期状態の遷移状態値をSTATE_Aとし、例えば安定→中間→不安定と遷移した場合、遷移状態値はSTATE_AからSTATE_BA、さらにSTATE_Cと変化する。
また、例えば、STATE_Aは、最大重みの分布が変わらず、変化がないことを示す。また、STATE_CBAは、重みの大きさが2番目から最大に変化した分布であることを示し、いままで、監視領域中に在った物がなくなったか、新たに静止状態のものが監視領域内に入ったことを表している。
したがって、不動体を検知するタイミング、つまり、輝度変化検出タイミングは、この実施形態では、遷移状態値がSTATE_CBAであるときとする。そして、この実施形態では、安定性を上げるため、クラス遷移判別部137は、遷移状態値がSTATE_CBAになったときに即座に輝度変化検出タイミングとするのではなく、STATE_CBAの状態がある所定時間継続したときを輝度変化検出タイミングとして、輝度変化検出タイミング信号Schを生成し出力する。
例えば、この実施の形態では、輝度変化検出(不動体検出)は、画像データの毎フレームではなく、例えば4フレームごとに行なうようにしており、STATE_CBAの状態が、例えば30回(4秒)続いた後を、輝度変化検出タイミングとする。
ここで、図8の例について説明する。この例は、監視領域に車が入ってきて停止した場合における上位2つの重みの推移に関連して、上述した3つのクラスを示したものである。この図8において、f1(w1_t,m1_t)は、時刻tで、重みw1_tと輝度(輝度正規分布の平均値)m1_tとを持つ背景を表し、f2(w2_t,m2_t)は、時刻tで、重みw2_tと輝度(輝度正規分布の平均値)m2_tとを持つ車を表している。重みも、輝度(輝度正規分布の平均値)も、上述した(5)式、(6)式、(7)式により時間tの経過に伴って更新される。
図8に示すように、最初は、背景の重みw1_tが大きく、停車すると徐々に車の重みw2_tが増し、それに伴い背景の重みw1_tが減り、最終的には車の重みw2_tが最大になる。したがって、重みが一番大きい輝度正規分布の平均値(輝度)の変化、すなわち、図8の場合であれば、m1_tとm2_tの差を検知すれば、注目画素の部分が背景から停止している車に変化したことがわかる。
図8の例において、時点t2は遷移状態値がSTATE_CBAになった時刻であり、輝度変化検出タイミングは、時点t3である。また、クラス遷移判別部137は、基準輝度値を更新するタイミングを、上位2つの重みの関係が不安定クラスであって、かつ、前回の遷移状態値が、かつて安定したクラスに属していたことを示すSTATE_BAかSTATE_CBAの場合とする。そして、クラス遷移判別部137は、この基準輝度値の更新タイミングの時点で、基準輝度値の更新タイミング信号Sstを生成する。この更新タイミングの時点は、図8の例であれば、時点t1のタイミングである。
ただし、クラス遷移判別部137は、上述した滞在時間の短い物を不動体として検出しないようにするために、更新タイミングの時点と判定される時点であっても、前回の輝度変化検出タイミング信号Schの生成時点から指定滞在時間以上経過していないときには、基準輝度値の更新タイミング信号Sstは生成せず、基準輝度値は更新しないようにする。
このために、この実施形態では、基準輝度値の更新を許可するかどうかを示すフラグ(以下、「更新フラグ」という)を用意する。この更新フラグは、初期状態では「false(=偽)」として、更新を許可する状態とする。すなわち、更新タイミング時点において、この更新フラグを参照し、更新フラグが「false」の時には、更新タイミング信号Sstを生成して出力することを許可する。
そして、この実施形態では、基準輝度値を更新タイミングで更新したときに、つまり、更新タイミング信号Sstを出力したときに、更新フラグを「true(=真)」として、更新の禁止状態にする。クラス遷移判別部137は、更新フラグが「true」の状態のときには、更新タイミング信号Sstを出力しない。
クラス遷移判別部137では、検出すべき不動体の指定滞在時間以上、更新フラグが「true」の状態が継続したときには、「false」に戻して、更新タイミング信号Sstの出力を許可するようにする。また、クラス遷移判別部137は、画素の輝度変化がないと判断できるときに、更新フラグを「true」から「false」の状態に戻すようにしてもよい。
以上のようにして、クラス遷移判別部137は、基準輝度値の更新タイミング信号Sstを生成し、この基準輝度値の更新タイミング信号Sstを基準輝度値更新部135に供給する。基準輝度値更新部135は、この基準輝度値の更新タイミング信号Sstにより、重みが最大である輝度正規分布の平均値を、基準輝度値として取得して更新する。
また、クラス遷移判別部137は、上述のようにして生成した輝度変化検出タイミング信号Schを変化後輝度値検出部136に供給する。変化後輝度値検出部136は、この輝度変化検出タイミング信号Schにより、重みが最大である輝度正規分布の平均値を、変化後輝度値として取得する。
そして、基準輝度値更新部135で更新された基準輝度値が比較部138に供給されると共に、変化後輝度値検出部136で取得された変化後輝度値が比較部138に供給される。さらに、クラス遷移判別137からの輝度変化検出タイミング信号Schが、比較タイミング信号としてこの比較部138に供給される。比較部138では、変化後輝度値検出部136で取得された変化後輝度値と、基準輝度値更新部135で更新された基準輝度値とが比較されて、両者に有意差があるかどうか判定され、その比較判定結果が不動体検知判定部139に供給される。
不動体検知判定部139は、比較部138からの比較判定結果を受けて、当該比較判定結果が変化後輝度値と基準輝度値との間に有意差があることを示しているときに、そのときの時間、例えばフレーム番号を不動体検知時間として保存する。そして、不動体検知判定部139は、比較判定結果が変化後輝度値と基準輝度値との間に有意差があることを示している状態が、その後継続しているときには、予め定められた時間後、不動体を検知した状態となる。
上述した図8の例について、上述した不動体の検知処理動作をさらに説明する。図8において、初期状態t=t0では更新フラグは「false」、基準輝度値はm1_t0とされる。図8に示す時点t=t1では、更新フラグは「false」であり、上位2つの重みの関係から、画素の輝度の状態は不安定クラスであり、かつ、前回の遷移状態値がSTATE_BAなので、更新タイミング信号Sstが発生され、基準輝度値は、m1_t0からm1_t1に更新され、更新フラグは「true」とされる。
そして、時点t=t3では、輝度変化検出タイミング信号Schが発生するので、基準輝度値m1_t1と変化後輝度値m2_t3とが比較されて、画素の輝度値の変化が検知される。このとき、基準輝度値m1_t1と変化後輝度値m2_t3との間には、有意差があるので、そのときの時間、例えばフレーム番号が検知時間として保存される。そして、その後変化がなければ、不動体を検知した状態となる。
次に、一旦静止した物が、指定した滞在検知時間に満たずに移動した場合につき、図9の例を用いて説明する。この図9の例において、f1(w1_t,m1_t)は背景についての、f2(w2_t,m2_t)は車についての、重みの変化を示す。初期状態t0では、更新フラグは「false」、基準輝度値はm1_t0とされる。
時点t1では、上位2つの重みの関係は、不安定クラスの状態で、前回の遷移状態値がSTATE_BAなので、基準輝度値は、m1_t0からm1_t1に更新され、更新フラグは「true」とされる。そして、時点t3では、基準輝度値m1_t1と、変化後輝度値m2_t3とが比較されて、画素の輝度値の変化が検知される。次の時点t4では、前の輝度変化検出タイミング時点t3から指定滞在時間以内にあるので、更新フラグは「false」に戻されることなく、「true」のままとされる。そのため、この時点t4では、基準輝度値の更新は行われない。
したがって、このときには次の輝度変化検出タイミングである時点t6では、基準輝度値m1_t1と、当該時点t6での変化後輝度値m1_t6とが比較されるので、画素の輝度値の変化はないとされる。このようにして、指定滞在時間よりも短い時間停止で移動する物の場合には、不動体を検知した状態とはならない。
不動体検知判定部139は、上述した不動体検知処理を画素単位で行っている。この不動体検知判定部139では、上述した画素単位の不動体検知処理が終了すると、画素単位で検知した検知領域をまとめるために検知フラグを基に、ブロック化処理を行う。このブロック化処理は、例えば、縦×横=4×4画素の範囲を1つのブロックとした場合に、そのブロック中に検知画素が半分以上あれば、そのブロック内の画素の全部を不動体として検知したことにし、反対に、上述のブロック中に検知画素が半分未満ならば、そのブロック内の画素は不動体とは検知しなかったことにする。この場合、ブロック範囲の動かし方は、1画素ずつずらしていってもよいし、あるいは4画素飛ばしでもよい。
不動体検知判定部139では、上述したようにブロック検知領域に対して、隣接画素との結合処理などのラベリングが行われて不動体領域Dbが検知される。この不動体領域Dbの情報は出力端子140に出力される。
次に、画像認識検知部116の具体例を説明する。図10は、画像認識検知部116の具体例の構成を示している。この例は、人の頭部を所定領域として検知するものである。
この画像認識検知部116は、入力端子171、横方向エッジ検出部172、縦方向エッジ検出部173、横方向線分検出部174、縦方向線分検出部175、エッジ密度算出部176、エッジ角度算出部177、頭頂マッチング部178、頭側マッチング部179、ヘッド中央解析部180、頭部輪郭マッチング部181、胴体縦エッジ位置検出部182、結果結合部183および出力端子184を有している。
入力端子171は、画像データVDを入力するための端子である。横方向エッジ検出部172は、画像データVDによる画像から横方向のエッジを検出する。縦方向エッジ検出部173は、画像データVDによる画像から縦方向のエッジを検出する。
横方向線分検出部174は、横方向エッジ検出部172のエッジ検出画像から小領域、例えば16×16画素を順次取り出し、横方向のエッジの長さが一定範囲にある線分を検出する。頭頂マッチング部178は、横方向線分検出部174で検出された線分が頭部の上部の水平線となりうるかどうかを判定する。この場合、人の頭頂部はそれ以外に水平方向のエッジが近傍にないことが条件となるので、単一の線分が存在するというパターンとのマッチングを取って、その一致度が高いものほど、頭頂部らしさが高いと判定する。
縦方向線分検出部175は、縦方向エッジ検出部173のエッジ検出画像から小領域、例えば16×16画素を順次取り出し、縦方向のエッジの長さが一定範囲にある線分を検出する。頭側マッチング部179は、縦方向線分検出部175で検出された線分が顔の左右の縦エッジとなりうるかどうかを判定する。この場合、縦方向の線分がある間隔で2つ存在するというパターンとのマッチングをとり、その一致度が高いものほど、顔の両端らしさが高いと判定する。
エッジ密度算出部176は、横方向エッジ検出部172のエッジ検出画像および縦方向エッジ検出部173のエッジ検出画像に基づいて、画像の上述した各小領域のエッジ密度を算出する。顔の内部は目・鼻・口など複雑な形状をしているので、エッジ密度が高くなる。ヘッド中央解析部180は、エッジ密度算出部176で算出されたエッジ密度によって、各小領域が顔の中央部である確からしさを求める。
エッジ角度算出部177は、横方向エッジ検出部172のエッジ検出画像および縦方向エッジ検出部173のエッジ検出画像に基づいて、各エッジの角度(向き)を算出する。頭部輪郭マッチング部181は、エッジ密度算出部176で算出された各小領域のエッジ密度とエッジ角度算出部177で算出された各エッジの角度(向き)に基づいて、頭部輪郭位置を推定する。
胴体縦エッジ位置検出部182は、縦方向エッジ検出部173のエッジ検出画像に基づいて、例えば縦方向のエッジがある間隔で2つ存在するというパターンとのマッチングをとることで、胴体左右両端の縦エッジ位置を検出する。
結果結合部183は、頭頂マッチング部178、頭側マッチング部179、ヘッド中央解析部180、頭部輪郭マッチング部181および胴体縦エッジ位置検出部182から出力される、画像の各小領域における頭頂部、頭部横両端、顔内部、頭部輪郭、胴体左右である確からしさの情報により、人の頭部領域を検知する。
図10に示す画像認識検知部116の動作を説明する。入力端子171には画像データVDが入力される。この画像データVDは横方向エッジ検出部172および縦方向エッジ検出部173に供給される。横方向エッジ検出部172では画像データVDによる画像から横方向のエッジが検出され、縦方向エッジ検出部173では画像データVDによる画像から縦方向のエッジが検出される。
横方向エッジ検出部172のエッジ検出画像は、横方向線分検出部174、エッジ密度算出部176およびエッジ角度算出部177に供給される。縦方向エッジ検出部173のエッジ検出画像は、縦方向線分検出部175、エッジ密度算出部176、エッジ角度算出部177および胴体縦エッジ位置検出部182に供給される。
横方向線分検出部174では、横方向エッジ検出部172のエッジ検出画像から、横方向のエッジの長さが一定範囲にある線分が検出される。そして、頭頂マッチング部178では、このように横方向線分検出部174で検出された線分が頭部の上部の水平線となりうるかどうかが判定され、各小領域が頭頂部である確からしさの情報が得られる。
縦方向線分検出部175では、縦方向エッジ検出部173のエッジ検出画像から、縦方向のエッジの長さが一定範囲にある線分が検出される。そして、頭側マッチング部179では、このように縦方向線分検出部175で検出された線分が顔の左右の縦エッジとなりうるかどうかが判定され、各小領域が頭部横両端である確からしさの情報が得られる。
エッジ密度算出部176では、横方向エッジ検出部172のエッジ検出画像および縦方向エッジ検出部173のエッジ検出画像に基づいて、画像の各小領域のエッジ密度が算出される。そして、ヘッド中央解析部180では、このようにエッジ密度算出部176で算出されたエッジ密度によって、各小領域が顔の中央部(顔内部)である確からしさが求められ、その情報が得られる。
エッジ角度算出部177では、横方向エッジ検出部172のエッジ検出画像および縦方向エッジ検出部173のエッジ検出画像に基づいて、各エッジの角度(向き)が算出される。そして、頭部輪郭マッチング部181では、このようにエッジ密度算出部176で算出された各小領域のエッジ密度とエッジ角度算出部177で算出された各エッジの角度(向き)に基づいて、頭部輪郭位置が推定され、各小領域が頭部輪郭である確からしさの情報が得られる。
胴体縦エッジ位置検出部182では、縦方向エッジ検出部173のエッジ検出画像に基づいて、例えば縦方向のエッジがある間隔で2つ存在するというパターンとのマッチングをとることで、胴体左右両端の縦エッジ位置が検出され、各小領域が胴体左右である確からしさの情報が得られる。
頭頂マッチング部178、頭側マッチング部179、ヘッド中央解析部180、頭部輪郭マッチング部181および胴体縦エッジ位置検出部182で得られる、画像の各小領域における頭頂部、頭部横両端、顔内部、頭部輪郭、胴体左右である確からしさの情報は、結果結合部183に供給される。この結果結合部183では、各確からしさの情報に基づいて、人の頭部領域Dcが検知される。この人の頭部領域Dcの情報は出力端子184に出力される。
例えば、画像データVDによる画像(入力画像)が図11(a)に示すようであるとき、例えば頭頂マッチング部178、頭側マッチング部179、ヘッド中央解析部180、頭部輪郭マッチング部181および胴体縦エッジ位置検出部182で得られる、画像の各小領域における頭頂部、頭部横両端、顔内部、頭部輪郭、胴体左右である確からしさの情報は、それぞれ、図11(b),(c),(d),(e),(f)の画像として表示できる。ここで、画像の白い部分は確からしさが高い領域(位置)を表し、逆に画像の黒い部分は確からしさが低い領域(位置)を表している。この各確からしさの情報に基づいて、図11(g)にハッチングで示すように、人の頭部領域Dcが検知される。
図2に示す画像データ処理部104の動作を説明する。入力端子113には画像データVDが供給される。この画像データVDは、動体検知部114、不動体検知部115および画像認識検知部116に供給される。動体検知部114では、画像データDVが処理され、この画像データDVによる画像から動き領域Daが検知される。不動体検知部115では、不動体検知部115では、画像データDVが処理され、この画像データDVによる画像から不動体領域(物体の発生領域、物体の消失領域)が検知される。また、画像認識検知部116では、画像データDVに基づき画像認識処理が行われて所定領域、例えば人物、車等が検知される。
この場合、ユーザの色、図柄などの選択操作により、検知部114〜116で検知される領域の色、図柄が特定される。またこの場合、ユーザの画像認識すべき対象物の選択操作により、画像認識検知部116で画像認識される対象物が特定される。
これら検知部114〜116で検知された領域Da〜Dcの情報は選択組み合わせ部117に供給される。この選択組み合わせ部117では、検知部114〜116で検知された領域Da〜Dcに基づいて最終的な重要領域DI′が取得されて出力される。この場合、ユーザの選択操作により、重要領域DI′として、例えば、(1)動体検知部114で検知された領域Da、(2)不動体検知部115で検知された領域Db、(3)画像認識検知部116で検知された領域Dc、(4)動体検知部114で検知された領域Daであって、かつ画像認識検知部116で検知された領域Dc、などが出力される。
選択組み合わせ部117から出力される重要領域DI′は保持・追尾機能部118に供給される。このように保持・追尾機能部118に供給される重要領域DI′は重要領域DIとして出力端子119に出力される。また、この保持・追尾機能部118では、あるフレームで重要領域DI′が供給され、それに続く複数のフレームで重要領域DI′が供給されないとき、あるフレームに供給される重要領域DI′の範囲と移動速度(方向情報も含む)に基づいてそれに続く各フレームの重要領域が推定され、この推定された重要領域が重要領域DIとして出力端子119に出力される。
この場合、あるフレームで出力される重要領域DI′の移動速度が0でないときは、その移動速度に基づき、追尾機能によって、各フレームの重要領域は順次移動していく。一方、あるフレームで出力される重要領域DI′の移動速度が0であるときは、保持機能によって、各フレームの重要領域があるフレームの重要領域と同じ領域に保持される。
またこの場合、選択組み合わせ部117gが動体検知部114で検知された領域Daを出力する状態にあり、あるフレームで重要領域DI′が供給されるが、それに続く複数のフレームで重要領域DI′が供給されないとき、あるフレームに供給される重要領域DI′がそのまま重要領域DIとして出力端子119に出力される。
図1に戻って、画像データ圧縮部105は、撮像信号処理部103から出力される画像データVDに対してデータ圧縮処理を行って圧縮画像データVDCを出力端子106に出力する。この場合、画像データ圧縮部105は、画像データ処理部104の重要領域DIの検知出力に基づいて、重要領域DIのデータ圧縮率を他の領域のデータ圧縮率より低く抑える。
図12は、画像データ圧縮部105の具体的な構成を示している。この画像データ圧縮部105は、画像データVDの入力端子150、DCT(Discrete Cosine Transform)部151、量子化部152、量子化テーブル(A)153、量子化部154、量子化テーブル(B)155、重要領域DIの情報の入力端子156、切換スイッチ157、エントロピー符号化部158および圧縮画像データVDCの出力端子159を有している。
DCT部151は、入力端子150に入力される画像データVDを、例えば8×8画素のブロックに分け、ブロック毎に、離散コサイン変換を行って、画素値から周波数成分(DCT係数)に変換する。
量子化部152,154は、それぞれ、DCT部151で得られる各ブロックのDCT係数を、量子化テーブル153,155に基づいて、量子化する。この場合、量子化テーブル155の値は、量子化テーブル153の値に比べて大きくされている。そのため、量子化部152における量子化によるデータ圧縮率に比べて、量子化部154における量子化によるデータ圧縮率は大きくされる。
切換スイッチ156は、入力端子156に入力される重要領域DIの情報に基づいて、量子化部152から出力される量子化DCT係数または量子化部154から出力される量子化DCT係数を選択的に出力する。ここで、量子化部152の出力側は切換スイッチ157のa側の固定端子に接続され、量子化部154の出力側は切換スイッチ157のb側の固定端子に接続される。
この切換スイッチ157の可動端子は、重要領域DIではa側の固定端子に接続され、その他の領域ではb側の固定端子に接続される。したがって、この切換スイッチ157の出力側には、重要領域DIでは量子化部152から出力される量子化DCT係数が得られ、その他の領域では量子化部154から出力される量子化DCT係数が得られる。
エントロピー符号化部158は、切換スイッチ157から出力された量子化DCT係数に対してエントロピー符号化、例えばハフマン符号化を行って圧縮画像データVDCを生成して、出力端子159に出力する。
図12に示す画像データ圧縮部105の動作を説明する。入力端子150には画像データVDが入力され、この画像データVDはDCT部151に供給され、ブロック毎に、DCT係数に変換される。各ブロックのDCT係数は、順次、量子化部152,154のそれぞれに供給される。そして、量子化部152,154では、それぞれ、量子化テーブル153,155に基づいて、量子化が行われる。量子化部152,154から出力される量子化DCT係数は、それぞれ、切換スイッチ157のa側、b側に供給される。
入力端子156には画像データ処理部104から供給される重要領域DIの情報が入力される。切換スイッチ157は、この情報に基づき、重要領域DIではa側に接続され、その他の領域ではb側に接続される。したがって、重要領域DIでは量子化部152で得られる量子化DCT係数が出力され、その他の領域では量子化部154で得られる量子化DCT係数が出力される。
この場合、上述したように量子化テーブル155の値は量子化テーブル153の値に比べて大きく、量子化部152における量子化によるデータ圧縮率に比べて量子化部152における量子化によるデータ圧縮率が大きくされていることから、重要領域DIのデータ圧縮率は他の領域のデータ圧縮率より低く抑えられることになる。
切換スイッチ157から選択的に出力される量子化DCT係数はエントロピー符号化部158に供給される。そして、このエントロピー符号化部158では、量子化DCT係数に対してエントロピー符号化、例えばハフマン符号化が行われて圧縮画像データVDCが生成され、この圧縮画像データVDCは出力端子159に出力される。
図1に示す監視カメラ100の動作を説明する。被写体の像光が撮像レンズ101を介して撮像素子102の撮像面に照射され、この撮像面に被写体像が結像される。撮像素子102ではこの状態で撮像が行われ、この撮像素子102から出力される撮像信号は撮像信号処理部103に供給されて処理され被写体に対応した画像データVDが生成される。この画像データVDは、画像データ処理部104および画像データ圧縮部105に供給される。
画像データ処理部104では、画像データVDが処理され、この画像データVDによる画像から重要領域DIが検知される。例えば、動き領域、不動体領域(物体の発生領域、物体の消失領域)、画像認識された人物、車等の所定領域のいずれか、またはそれらの領域の所定の組み合わせが、重要領域DIとされる。この重要領域DIの情報は、画像データ圧縮部105に供給される。
画像データ圧縮部105では、画像データVDに対してデータ圧縮処理が行われて圧縮画像データVDCが生成される。この場合、データ圧縮処理は、重要領域DIの情報に基づいて行われ、重要領域DIのデータ圧縮率は他の領域のデータ圧縮率より低く抑えられる。このように画像データ圧縮部105で生成される圧縮画像データVDCは出力端子106に出力される。
上述したように、図1に示す監視カメラ100においては、画像データ圧縮部105で画像データVDに対してデータ圧縮処理が行われて圧縮画像データVDCが生成されるが、画像データ処理部104で画像データVDが処理されて検知される重要領域DIに基づいて、重要領域DIのデータ圧縮率が他の領域のデータ圧縮率より低く抑えられる。したがって、データ圧縮率が低く抑えられる領域が固定されておらず、重要領域DIの位置、大きさが変化する場合にあっても、画像データVDを効果的に圧縮できる。
図13は、「オリジナルJPEG圧縮」、「低ビットレート」、および「動体検知領域のみ高画質」における、重要領域DIとしての動体検知領域(動き領域)とそれ以外の領域の画像を示している。ここで、「オリジナルJPEG圧縮」は、例えば、図12に示す画像データ圧縮部105で切換スイッチ157をa側に接続したままでデータ圧縮処理を行った場合の例である。「低ビットレート」は、例えば、図12に示す画像データ圧縮部105で切換スイッチ157をb側に接続したままでデータ圧縮処理を行った場合の例である。また、「動体検知領域のみ高画質」は、図12に示す画像データ圧縮部105で、切換スイッチ157を重要領域DIの情報で制御して、データ圧縮処理を行った場合の例である。
「動体検知領域のみ高画質」では、動き領域である人物部分はデータ圧縮率が低く抑えられるので高画質で見やすくなっているが、その他の領域はデータ圧縮率が高くなるので低画質となっている。これに対して、「オリジナルJPEG圧縮」では全ての領域でデータ圧縮率が低く抑えられるため高画質となっている。また、「低ビットレート」では全ての領域でデータ圧縮率が高くされ、低画質となっている。
また、図1に示す監視カメラ100においては、画像データ処理部104で、あるフレームで重要領域が検知されるとき、続く複数のフレームで重要領域が検知されない場合であっても、あるフレームで検知される重要領域の範囲と移動速度に基づいて重要領域が推定されて検知出力とされる。したがって、例えば動き領域の検知、画像認識処理による所定領域の検知にあって、検知漏れが断続的に発生した場合であっても、重要領域でデータ圧縮率が低く抑えられることが継続され、見易い安定した画像を得ることができる。また、不動体領域の検知にあって、検知後でも当該不動体領域が重要領域とされてデータ圧縮率が低く抑えられることが継続され、当該不動体領域を見易い画像で監視することができる。
また、図1に監視カメラ100においては、画像データ処理部104で、あるフレームで動き領域が検知されるとき、続く複数のフレームで動き領域が検知されない場合であっても、あるフレームで検知される動き領域が重要領域とされる。したがって、動体が停止し当該動体領域が動き領域として検知されなくなっても、この停止した動体の領域が重要領域とされてデータ圧縮率が低く抑えられることが継続され、当該停止した動体を見易い画像で監視することができる。
なお、上述実施の形態においては、画像データ圧縮部105では、図12に示すように、2つの量子化部152,154および2つの量子化テーブル153,155を有するものを示したが、1つの量子化部および1つの量子化テーブルを用いて、同様の機能を持つデータ圧縮部を構成することもできる。
図14は、1つの量子化部および1つの量子化テーブルを用いて構成される画像データ圧縮部105Aの構成を示している。この図14において、図12と対応する部分には、同一符号を付し、適宜その説明は省略する。
この画像データ圧縮部105Aは、画像データVDの入力端子150、DCT部151、量子化部152、量子化テーブル153A、重要領域DIの情報の入力端子156、切換スイッチ157、エントロピー符号化部158、圧縮画像データVDCの出力端子159および高周波係数削減処理部160を有している。
高周波係数削減処理部160は、DCT部151でブロック毎に得られるDCT係数から高周波係数を削減する。切換スイッチ157は、入力端子156に入力される重要領域DIの情報に基づいて、DCT部151でブロック毎に得られるDCT係数、または高周波係数削減処理部160で高周波係数が削減されたDCT係数を選択的に出力する。
ここで、DCT部151の出力側は切換スイッチ157のa側の固定端子に接続され、高周波係数削減処理部160の出力側は切換スイッチ157のb側に接続される。これにより、切換スイッチ157の出力側には、重要領域DIではDCT部151から出力されるDCT係数が得られ、その他の領域では高周波係数削減処理部160から出力される高周波係数が削減されたDCT係数が得られる。
量子化部152は、切換スイッチ157から出力されるDCT係数を、量子化テーブル153に基づいて、量子化する。エントロピー符号化部158は、この量子化部152から出力される量子化DCT係数に対してエントロピー符号化、例えばハフマン符号化を行って圧縮画像データVDCを生成し、出力端子159に出力する。
図14に示す画像データ圧縮部105Aの動作を説明する。入力端子150には画像データVDが入力される。この画像データVDはDCT部151に供給され、ブロック毎に、DCT係数に変換される。このDCT部151から出力される各ブロックのDCT係数は切換スイッチ157のa側の固定端子に供給される。
また、DCT部151から出力される各ブロックのDCT係数は、高周波係数削減処理部160に供給される。そして、この高周波係数削減処理部160で高周波係数が削減されたDCT係数は切換スイッチ157のb側の固定端子に供給される。
入力端子156には画像データ処理部104から供給される重要領域DIの情報が入力される。切換スイッチ157は、この情報に基づき、重要領域DIではa側に接続され、その他の領域ではb側に接続される。したがって、重要領域DIではDCT部151から出力されるDCT係数が出力され、その他の領域では高周波係数削減処理部160から出力される高周波係数が削減されたDCT係数が出力される。これにより、重量領域DIのデータ圧縮率は他の領域のデータ圧縮率より低く抑えられることになる。
この切換スイッチ157から出力されるDCT係数は量子化部152に供給される。そして、この量子化部152では、DCT係数に対して、量子化テーブル153を用いて、量子化が行われる。この量子化部152から出力される量子化DCT係数はエントロピー符号化部158に供給される。そして、このエントロピー符号化部158では、量子化DCT係数に対してエントロピー符号化、例えばハフマン符号化が行われて圧縮画像データVDCが生成され、この圧縮画像データVDCは出力端子159に出力される。
このように、図14に示す画像データ処理部105Aにおいても、図12に示す画像データ処理部105と同様に、重量領域DIのデータ圧縮率は他の領域のデータ圧縮率より低く抑えられる。
また、上述実施の形態においては、撮像信号処理部103から出力される画像データVDに対して画像データ圧縮部105でデータ圧縮処理を行って圧縮画像データVDCを生成し、この圧縮画像データVDCを伝送データとして出力端子106に出力するものを示したが、この発明による画像処理装置は、例えば撮像信号処理部103から出力される画像データVDを一旦記録媒体に記録し、この記録媒体から再生された画像データVDに対してデータ圧縮処理を行って伝送データとしての圧縮画像データVDCを得る際にも同様に適用できる。
また、上述実施の形態においては、重要領域DIとそれ以外の領域とで2種類のデータ圧縮率を切り換えるものを示したが(図12、図14参照)、例えば重要領域DIを複数段階のデータ圧縮率に分ける等して、全体として3種類以上のデータ圧縮率を切り換えるようにしてもよい。
また、上述実施の形態においては、画像データ圧縮部105,105AとしてJPEG方式の例をあげたが、MPEG方式の場合であってもIピクチャ(Intra picture)のデータ圧縮で同等の効果を得ることが可能である。
この発明は、重要領域の位置、大きさが変化する場合であっても、画像データの効果的な圧縮処理を可能とするものであり、監視カメラシステム等に適用できる。
実施の形態としての監視カメラの構成を示すブロック図である。 画像データ処理部の具体的な構成を示すブロック図である。 動体検知部の具体例を示すブロック図である。 動体検知部における変化連続性の検出処理を説明するための図である。 不動体検知部の具体例を示すブロック図である。 重み付き混合正規分布を説明するための図である。 画素の輝度の状態を安定クラス、中間クラス、不安定クラスの3つのクラスに分類したときのクラス遷移状態を示す図である。 背景と車の重みの推移例とクラス分類(不動体を検知)を示す図である。 背景と車の重みの推移例とクラス分類(不動体を非検知)を示す図である。 画像認識検知部の具体例を示すブロック図である。 入力画像と、各確からしさの画像と、検知される頭部領域とを示す図である。 画像データ圧縮部の具体的な構成を示すブロック図である。 動体検知領域とそれ以外の領域の拡大画像を比較して示した図である。 画像データ圧縮部の具体的な他の構成を示すブロック図である。
符号の説明
100・・・監視システム、101・・・撮像レンズ、102・・・撮像素子、103・・・撮像信号処理部、104・・・画像データ処理部、105,105A・・・画像データ圧縮部、106・・・出力端子、111・・・制御部、112・・・ユーザ操作部、113・・・入力端子、114・・・動体検知部、115・・・不動体検知部、116・・・画像認識検知部、117・・・選択組み合わせ部、118・・・保持・追尾機能部、119・・・出力端子、150・・・入力端子、151・・・DCT部、152,154・・・量子化部、153,155・・・量子化テーブル、156・・・重要領域の情報入力端子、157・・・切換スイッチ、158・・・エントロピー符号化部、159・・・出力端子、160・・・高周波係数削減処理部

Claims (12)

  1. 入力画像データを処理することで、該入力画像データによる画像から重要領域を検知する領域検知部と、
    上記入力画像データに対してデータ圧縮処理を行って圧縮画像データを出力する画像データ圧縮部を備え、
    上記画像データ圧縮部は、上記領域検知部の検知出力に基づいて、上記重要領域のデータ圧縮率を他の領域のデータ圧縮率より低く抑える
    ことを特徴とする画像処理装置。
  2. 上記領域検知部は、あるフレームで上記重要領域を検知するとき、続く複数のフレームで上記重要領域を検知しない場合であっても、上記あるフレームで検知される重要領域の範囲と移動速度に基づいて重要領域を推定して検知出力とする
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 上記領域検知部は、上記入力画像データを処理することで、上記重要領域として動き領域を検知する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 上記領域検知部は、単発的あるいは周期的な動き領域を上記動き領域から除去する
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 上記領域検知部は、あるフレームで上記動き領域を検知するとき、続く複数のフレームで上記動き領域を検知しない場合であっても、上記あるフレームで検知される上記動き領域を上記重要領域とする
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 上記領域検知部は、上記入力画像データを処理することで、上記重要領域として不動体領域を検出する
    ことを特徴とする請求項1に記載の画像処理装置。
  7. 上記領域検知部は、
    画像の一または複数画素毎に、該一または複数の画素の輝度が、複数個の輝度分布のいずれに属するかを判定し、属すると判定された輝度分布についての重みを漸増すると共に、その他の輝度分布についての重みを漸減するようにして、上記複数個の輝度分布の重みを算出する算出部と、
    上記算出部で算出された輝度分布の重みに基づいて、上記一または複数の画素の輝度の時間的な変化状態を、上記一または複数の画素の輝度が所定の範囲内で安定している安定クラス、上記一または複数の画素の輝度が上記複数個の輝度分布のいずれに属するかが確定できない不安定クラスおよび上記安定クラスと上記不安定クラスとの中間状態である中間クラスを少なくとも含む複数のクラスに分類するクラス分類部と、
    上記一または複数の画素毎に、上記クラス分類部によって分類されたクラスの時間的遷移を判別するクラス遷移判別部と、
    上記一または複数の画素毎の輝度の時間的な変化状態が上記安定クラスにあるとされたときに上記重みが最大である輝度分布の代表輝度値を、上記一または複数の画素の基準輝度値として取得し、時間変化に応じて更新する基準輝度値更新部と、
    上記クラス遷移判別部で判別された上記クラスの時間的遷移が、上記不安定クラスから、上記中間クラスを経由して上記安定クラスになった時点を輝度変化検出タイミングとし、該輝度変化検出タイミングにおいて、上記複数個の輝度分布中の上記重みが最大である輝度分布の代表輝度値と、上記基準輝度値とを比較して、上記一または複数の画素について輝度の変化があったかどうかを検出する輝度変化検出部と、
    上記輝度変化検出部で上記輝度の変化があったと検出されたときに、該変化のあった上記一または複数の画素の上記画像中の位置を識別するための情報と、該変化があった時間の情報とを記憶する変化検出記憶部とを備え、
    上記変化検出記憶部に記憶された情報に基づいて、時間経過に応じて画像中に新たに加わって静止した物体の領域である物体の発生領域または上記画像中から消失した物体の領域である物体の消失領域を検知する
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 上記領域検知部は、上記入力画像データに基づき画像認識処理を行うことで、上記重要領域として所定領域を検知する
    ことを特徴とする請求項1に記載の画像処理装置。
  9. 上記領域検知部は、
    上記重要領域として動き領域を検知する動体検知部と、上記重要領域として不動体領域を検知する不動体検知部と、上記重要領域として画像認識処理により所定領域を検知する画像認識検知部を有し、
    上記各検知部で検知された領域のいずれかまたは上記各検知部で検知された領域の所定の組み合わせを最終的な上記重要領域とする
    ことを特徴とする請求項1に記載の画像処理装置。
  10. 上記重要領域の条件を設定するユーザ操作部をさらに備え、
    上記領域検知部は、上記ユーザ操作部で設定された条件に基づいて、上記入力画像データによる画像から上記重要領域を検知する
    ことを特徴とする請求項1に記載の画像処理装置。
  11. 入力画像データを処理することで、該入力画像データによる画像から重要領域を検知する領域検知ステップと、
    上記入力画像データに対してデータ圧縮処理を行って圧縮画像データを出力する画像データ圧縮ステップを備え、
    上記画像データ圧縮ステップでは、上記領域検知ステップの検知出力に基づいて、上記所定領域のデータ圧縮率を他の領域のデータ圧縮率より低く抑える
    ことを特徴とする画像処理方法。
  12. 被写体を撮像して画像データを得る撮像部と、
    上記撮像部で得られた画像データによる画像から重要領域を検知する領域検知部と、
    上記画像データに対してデータ圧縮処理を行って圧縮画像データを出力する画像データ圧縮部を備え、
    上記画像データ圧縮部は、上記領域検知部の検知出力に基づいて、上記所定領域のデータ圧縮率を他の領域のデータ圧縮率より低く抑える
    ことを特徴とする監視カメラ。
JP2006223007A 2006-08-18 2006-08-18 画像処理装置、画像処理方法および監視カメラ Pending JP2008048243A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006223007A JP2008048243A (ja) 2006-08-18 2006-08-18 画像処理装置、画像処理方法および監視カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006223007A JP2008048243A (ja) 2006-08-18 2006-08-18 画像処理装置、画像処理方法および監視カメラ

Publications (1)

Publication Number Publication Date
JP2008048243A true JP2008048243A (ja) 2008-02-28

Family

ID=39181535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006223007A Pending JP2008048243A (ja) 2006-08-18 2006-08-18 画像処理装置、画像処理方法および監視カメラ

Country Status (1)

Country Link
JP (1) JP2008048243A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010206618A (ja) * 2009-03-04 2010-09-16 Seiko Epson Corp 画像供給装置、画像供給システム、画像供給方法、及び画像供給用プログラム
JP2013508710A (ja) * 2009-10-22 2013-03-07 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 複数の角度から反射された信号を使用するサブミリ波レーダー
JP2013508709A (ja) * 2009-10-22 2013-03-07 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 位相情報を用いたサブミリ波レーダー
JP2013229666A (ja) * 2012-04-24 2013-11-07 Toshiba Corp 異常点検装置および遠隔監視点検システム
JP2014186524A (ja) * 2013-03-22 2014-10-02 Mega Chips Corp 人物検出装置
KR20150088164A (ko) * 2014-01-23 2015-07-31 삼성전자주식회사 영상 데이터 처리 방법 및 디바이스
US9491410B2 (en) 2008-04-28 2016-11-08 Sony Corporation Apparatus and method for information processing and program
US9641789B2 (en) 2014-01-16 2017-05-02 Hanwha Techwin Co., Ltd. Surveillance camera and digital video recorder
JP2018014030A (ja) * 2016-07-22 2018-01-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2018037890A1 (ja) * 2016-08-23 2018-03-01 日本電気株式会社 映像処理装置、映像処理方法及びプログラムを記憶する記憶媒体
JP2020078031A (ja) * 2018-11-09 2020-05-21 キヤノン株式会社 画像処理装置、画像処理方法
US20210279889A1 (en) * 2020-03-06 2021-09-09 Sony Europe B.V. Device, computer program and method
US11983887B2 (en) * 2020-03-06 2024-05-14 Sony Europe B.V. Device, computer program and method

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10044923B2 (en) 2008-04-28 2018-08-07 Sony Corporation Apparatus and method for information processing and program
US9491410B2 (en) 2008-04-28 2016-11-08 Sony Corporation Apparatus and method for information processing and program
US9509955B2 (en) 2008-04-28 2016-11-29 Sony Corporation Apparatus and method for information processing and program
JP2010206618A (ja) * 2009-03-04 2010-09-16 Seiko Epson Corp 画像供給装置、画像供給システム、画像供給方法、及び画像供給用プログラム
JP2013508709A (ja) * 2009-10-22 2013-03-07 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 位相情報を用いたサブミリ波レーダー
US8912946B2 (en) 2009-10-22 2014-12-16 Toyota Motor Europe Nv/Sa Submillimeter radar using signals reflected from multiple angles
JP2015179089A (ja) * 2009-10-22 2015-10-08 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 位相情報を用いたサブミリ波レーダー
US8836573B2 (en) 2009-10-22 2014-09-16 Toyota Motor Europe Nv/Sa Submillimeter radar using phase information
JP2013508710A (ja) * 2009-10-22 2013-03-07 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 複数の角度から反射された信号を使用するサブミリ波レーダー
JP2013229666A (ja) * 2012-04-24 2013-11-07 Toshiba Corp 異常点検装置および遠隔監視点検システム
JP2014186524A (ja) * 2013-03-22 2014-10-02 Mega Chips Corp 人物検出装置
US9641789B2 (en) 2014-01-16 2017-05-02 Hanwha Techwin Co., Ltd. Surveillance camera and digital video recorder
KR20150088164A (ko) * 2014-01-23 2015-07-31 삼성전자주식회사 영상 데이터 처리 방법 및 디바이스
KR101603268B1 (ko) 2014-01-23 2016-03-14 삼성전자주식회사 영상 데이터 처리 방법 및 디바이스
JP2018014030A (ja) * 2016-07-22 2018-01-25 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JPWO2018037890A1 (ja) * 2016-08-23 2019-06-20 日本電気株式会社 映像処理装置、映像処理方法及びプログラム
WO2018037890A1 (ja) * 2016-08-23 2018-03-01 日本電気株式会社 映像処理装置、映像処理方法及びプログラムを記憶する記憶媒体
US10771745B2 (en) 2016-08-23 2020-09-08 Nec Corporation Image processing apparatus, image processing method, and storage medium having program stored therein
JP7056564B2 (ja) 2016-08-23 2022-04-19 日本電気株式会社 映像処理装置、映像処理方法及びプログラム
JP2020078031A (ja) * 2018-11-09 2020-05-21 キヤノン株式会社 画像処理装置、画像処理方法
JP7213662B2 (ja) 2018-11-09 2023-01-27 キヤノン株式会社 画像処理装置、画像処理方法
US20210279889A1 (en) * 2020-03-06 2021-09-09 Sony Europe B.V. Device, computer program and method
US11983887B2 (en) * 2020-03-06 2024-05-14 Sony Europe B.V. Device, computer program and method

Similar Documents

Publication Publication Date Title
JP2008048243A (ja) 画像処理装置、画像処理方法および監視カメラ
US20220312021A1 (en) Analytics-modulated coding of surveillance video
US10582196B2 (en) Generating heat maps using dynamic vision sensor events
US9402034B2 (en) Adaptive auto exposure adjustment
AU2012211249B2 (en) Encoding of video stream based on scene type
Gao et al. The IEEE 1857 standard: Empowering smart video surveillance systems
US20060013495A1 (en) Method and apparatus for processing image data
WO2010095207A1 (ja) 動画撮像装置
JP5766877B2 (ja) 類似度、視覚的品質、および関心に基づくフレーム符号化選択
US9854167B2 (en) Signal processing device and moving image capturing device
KR100426174B1 (ko) 영상압축 알고리즘을 이용한 카메라 제어방법
US10165274B2 (en) Encoding of video stream based on scene type
US11928843B2 (en) Signal processing apparatus and signal processing method
US11263261B2 (en) Method and system for characteristic-based video processing
CN114157870A (zh) 编码方法、介质及电子设备
US20110129012A1 (en) Video Data Compression
US9654775B2 (en) Video encoder with weighted prediction and methods for use therewith
JP2001069510A (ja) 映像監視装置
US20140198845A1 (en) Video Compression Technique
JP2009087323A (ja) 画像処理装置、及び、特定領域検出方法
US20200252637A1 (en) Moving image processor, moving image processing system, and moving image processing method
KR20070056229A (ko) 영상 부호기 및 이의 관심 영역 검출방법
JP5296765B2 (ja) Jpeg圧縮装置
JP2019205054A (ja) 予測符号化法決定装置、動画像符号化装置、及び動画像復号装置、並びにプログラム
JP2005086495A (ja) 圧縮画像伝送装置