JP2009246836A - 画像処理システム、画像処理方法、およびプログラム - Google Patents

画像処理システム、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2009246836A
JP2009246836A JP2008093320A JP2008093320A JP2009246836A JP 2009246836 A JP2009246836 A JP 2009246836A JP 2008093320 A JP2008093320 A JP 2008093320A JP 2008093320 A JP2008093320 A JP 2008093320A JP 2009246836 A JP2009246836 A JP 2009246836A
Authority
JP
Japan
Prior art keywords
image
captured
feature
feature region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008093320A
Other languages
English (en)
Other versions
JP5034116B2 (ja
Inventor
Makoto Yonaha
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008093320A priority Critical patent/JP5034116B2/ja
Publication of JP2009246836A publication Critical patent/JP2009246836A/ja
Application granted granted Critical
Publication of JP5034116B2 publication Critical patent/JP5034116B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】画像における特徴的な領域を速やかに特定することができる画像処理システムを提供すること。
【解決手段】画像処理システムは、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけて出力する出力部とを備える。
【選択図】図2

Description

本発明は、画像処理システム、画像処理方法、およびプログラムに関する。本発明は、特に、画像を処理する画像処理システムおよび画像処理方法、ならびに画像処理システム用のプログラムに関する。
顔画像を取得する顔画像抽出装置において、入力映像を時間方向に間引いてフレームレートを変換して、フレームレートが変換された入力画像から人物の顔を抽出する顔画像抽出装置が知られている(例えば、特許文献1参照。)。この装置では、最も高い顔画像の評価値が得られると考えられる範囲の再生を指示する。また、ROI領域を特定するための情報を符号化して、符号化した画像と、符号化した上記情報を明示的に含めて、符号化ストリームを生成する画像符号化装置が知られている(例えば、特許文献2参照。)。
特開2006−303897号公報 特開2006−129249号公報
上記特許文献に記載されたように、フレームを間引いて顔領域などのROI領域を特定すると、間引かれて失われたフレームのROI領域に関する情報を残すことができない。このため、ROI領域を検出し損ねた場合には、正確なROI領域を後で特定することできなくなる場合がある。
上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけて出力する出力部とを備える。
本発明の第2の形態によると、画像処理方法であって、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけて出力する出力段階とを備える。
本発明の第3の形態によると、画像処理システム用のプログラムであって、コンピュータを、異なるタイミングで撮像された複数の撮像画像を取得する画像取得部、複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部、複数の撮像画像の中から、一部の撮像画像を選択する画像選択部、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけて出力する出力部として機能させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態に係わる画像処理システム10の一例を示す。画像処理システム10は、画像における特徴的な領域の画質を維持しながら画像の符号量を削減することを目的とする。なお、画像処理システム10は、以下に説明するように、監視システムとして機能することができる。
画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a−d(以下、撮像装置100と総称する。)、撮像装置100により撮像された撮像画像を処理する複数の画像処理装置120aおよび画像処理装置120b(以下、画像処理装置120と総称する。)、通信ネットワーク110、画像処理装置170、画像DB175、および複数の表示装置180a−d(以下、表示装置180と総称する。)を備える。
なお、画像処理装置120aは、撮像装置100aおよび撮像装置100bに接続されており、画像処理装置120bは、撮像装置100cおよび撮像装置100dに接続されている。なお、画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。
撮像装置100aは、撮像部102aおよび撮像動画圧縮部104aを有している。撮像部102aは、異なるタイミングで連続して監視対象空間150を撮像することによって複数の撮像画像を撮像する。撮像部102aは、複数の撮像画像を含む撮像動画を生成する。撮像動画圧縮部104aは、撮像部102aにより撮像された撮像動画をMPEG符号化等により圧縮して、撮像動画データを生成する。このように、撮像装置100aは、監視対象空間150を撮像して得られた撮像動画を符号化して撮像動画データを生成する。撮像装置100aは、当該撮像動画データを、撮像装置100aが接続されている画像処理装置120aに出力する。
なお、撮像装置100b、撮像装置100c、および撮像装置100dは、それぞれ撮像装置100aと同様の構成を有するので、撮像装置100b、撮像装置100c、および撮像装置100dの各構成要素の説明を省略する。なお、撮像装置100bは、生成した撮像動画データを撮像装置100bが接続されている画像処理装置120aに出力する。また、撮像装置100cおよび撮像装置100dは、生成した撮像動画データを、画像処理装置120bに出力する。このようにして、画像処理装置120は、撮像装置100により生成された撮像動画データを、それぞれが接続された撮像装置100から取得する。
そして、画像処理装置120は、撮像装置100から取得した撮像動画データを復号して撮像動画を取得する。画像処理装置120は、取得した撮像動画に含まれる複数の撮像画像のそれぞれから、人物130が撮像された領域、車輌等の移動体140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、画像処理装置170に送信すべき撮像画像を選択して、選択した撮像画像を圧縮した圧縮動画データを生成する。
また、画像処理装置120は、送信すべき撮像画像として選択された撮像画像から検出された特徴領域を特定する情報と、当該送信すべき撮像画像として選択されていない撮像画像から検出された特徴領域を特定する情報とを含む特徴領域情報を生成する。そして、画像処理装置120は、特徴領域情報を圧縮動画データに付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。
画像処理装置170は、特徴領域情報が対応づけられた圧縮動画データを画像処理装置120から受信する。そして、画像処理装置170は、受信した圧縮動画データを、対応づけられている特徴領域情報を用いて伸張して表示用動画を生成して、生成した表示用動画を表示装置180に供給する。表示装置180は、画像処理装置170から供給された表示用動画を表示する。
また、画像処理装置170は、圧縮動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データを画像DB175に記録してもよい。そして、画像処理装置170は、表示装置180からの要求に応じて、画像DB175から圧縮動画データおよび特徴領域情報を読み出して、読み出した圧縮動画データを特徴領域情報を利用して伸張して表示用動画を生成して、表示装置180に供給してもよい。
なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たす撮像画像を特定する。そして、画像処理装置170は、特定した撮像画像を復号して、表示装置180に提供してよい。
このように、画像処理システム10によると、特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合する撮像画像だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。
また、画像処理システム10によると、撮像画像を間引いて圧縮動画データを生成するので、通信ネットワーク110に送出する圧縮動画データのデータ量を低減することができる。一方で、画像処理システム10によると、間引かれた撮像画像から検出された特徴領域の情報も圧縮動画データに付帯して画像処理装置170に送信するので、画像処理装置170において特徴領域の位置をより精密に検出し直したり、特徴領域の画像をより詳細に解析したりすることが容易になる。
図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、画像取得部250および画像処理部200を備える。画像取得部250は、圧縮動画取得部201および圧縮動画伸張部202を有する。
圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。このように、画像取得部250は、異なるタイミングで撮像された複数の撮像画像を取得する。
画像処理部200は、圧縮動画伸張部202により生成された複数の撮像画像を含む撮像動画から特徴領域を検出して、検出した特徴領域の特徴に応じて当該撮像動画に圧縮処理を施して、画像処理装置170に出力する。以下に、画像処理部200の動作の一例を説明する。
画像処理部200は、特徴領域検出部203、圧縮制御部210、画像選択部220、重要度算出部240、圧縮部230、対応付け処理部206、および出力部207を有する。特徴領域検出部203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像画像のそれぞれから特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。
例えば、特徴領域検出部203は、動く物体を示すオブジェクトを含む領域を特徴領域として検出してよい。なお、特徴領域検出部203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。
例えば、特徴領域検出部203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。
特徴領域検出部203は、検出した特徴領域を示す情報を、画像選択部220、圧縮制御部210、および重要度算出部240に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、特徴領域が検出された撮像動画を識別する情報、および特徴領域の検出信頼度を含む。
画像選択部220は、複数の撮像画像の中から、一部の撮像画像を選択する。具体的には、画像選択部220は、画像処理装置170に送信すべき一部の撮像画像を選択する。例えば、画像選択部220は、複数の撮像画像の中から、撮像画像の撮像時刻に応じて一部の撮像画像を選択してよい。例えば、画像選択部220は、予め定められた時間間隔で撮像された一部の撮像画像を選択してよい。
他にも、画像選択部220は、複数の撮像画像の中から、予め定められた条件に適合する一部の撮像画像を選択してよい。また、画像選択部220は、特徴領域検出部203が検出した特徴領域の画像内容が予め定められた条件に適合する一部の撮像画像を選択してよい。また、画像選択部220は、特徴領域検出部203が検出した特徴領域の数が予め定められた値より多い一部の撮像画像を選択してよい。
重要度算出部240は、特徴領域検出部203が検出した複数の特徴領域のそれぞれの検出信頼度に基づいて、一部の撮像画像における複数の画像領域毎に、重要度を算出する。なお、重要度算出部240による重要度の算出方法については後に説明する。重要度算出部240は、算出した各画像領域の重要度を示す情報を圧縮制御部210に供給する。
圧縮制御部210は、特徴領域検出部203から取得した特徴領域を示す情報および重要度算出部240から取得した重要度を示す情報に基づいて、特徴領域に応じて圧縮部230による動画の圧縮処理を制御する。圧縮部230は、特徴領域検出部203により検出された特徴領域以外の領域、または重要度が予め定められた値より大きい領域以外の領域の画質を低減することによって、画像選択部220によって選択された一部の撮像画像を圧縮する。なお、圧縮部230は、圧縮された複数の撮像画像を複数含む圧縮動画を生成する。なお、圧縮部230のより具体的な圧縮動作については、後に説明する。
対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づける。具体的には、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像を動画構成画像として含む圧縮動画に対応づける。なお、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報および一部の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけてよい。
なお、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報を含んでよい。また、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像が撮像されたタイミングを示す情報を含んでよい。また、特徴領域を特定する情報は、一部の撮像画像以外の撮像画像から検出された特徴領域の大きさ(例えば、面積)を示す情報を含んでよい。
出力部207は、対応付け処理部206によって対応付けされた一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報を、画像処理装置170に出力する。このように、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域を特定する情報および一部の撮像画像から検出された特徴領域を特定する情報を、一部の撮像画像に対応づけて出力する。例えば、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報、一部の撮像画像以外の撮像画像が撮像されたタイミングを示す情報、あるいは一部の撮像画像以外の撮像画像から検出された特徴領域の大きさを示す情報を、一部の撮像画像に対応づけて出力することができる。
なお、対応付け処理部206による対応付け動作の他の例を以下に説明する。対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づける。具体的には、対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像を動画構成画像として含む圧縮動画に対応づける。なお、対応付け処理部206は、複数の撮像画像から検出された複数の特徴領域の少なくとも一部を含む領域を示す情報を、一部の撮像画像に対応づけてよい。
なお、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、複数の撮像画像から検出された複数の特徴領域を包含する領域を示す情報を含んでよい。また、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、複数の撮像画像から検出された複数の特徴領域の集合領域を示す情報を含んでよい。また、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報は、重要度算出部240が算出した重要度が予め定められた値より大きい画像領域を示す情報を含んでよい。
なお、重要度算出部240は、特徴領域検出部203が検出した複数の特徴領域のそれぞれ検出信頼度に基づいて、複数の撮像画像から検出された複数の特徴領域の集合領域における複数の画像領域毎に、重要度を算出する。例えば、重要度算出部240は、集合領域における複数の画像領域毎に当該画像領域を含む特徴領域の検出信頼度を加算した加算値を算出して、当該加算値に基づいて集合領域における複数の画像領域毎に重要度を算出する。例えば、重要度算出部240は、加算値が大きいほどより大きい重要度を算出してよい。また、重要度算出部240は、加算値に応じて予め定められた重要度を、複数の画像領域毎に算出してよい。
このようにして、出力部207は、複数の撮像画像から検出された複数の特徴領域を含む領域を示す情報を、一部の撮像画像に対応づけて出力する。より具体的には、出力部207は、複数の撮像画像から検出された複数の特徴領域を包含する領域を示す情報、複数の撮像画像から検出された複数の特徴領域の集合領域を示す情報、あるいは集合領域を示す情報および重要度算出部240が算出した重要度を、一部の撮像画像に対応づけて出力することができる。
なお、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域の特徴の種類を示す情報を、一部の撮像画像に対応づけてもよい。また、対応付け処理部206は、一部の撮像画像以外の撮像画像から検出された特徴領域に含まれるオブジェクトの種類を示す情報を、一部の撮像画像に対応づけてもよい。このようにして、出力部207は、一部の撮像画像以外の撮像画像から検出された特徴領域の特徴の種類を示す情報、または一部の撮像画像以外の撮像画像から検出された特徴領域に含まれるオブジェクトの種類を示す情報を、一部の撮像画像に対応づけて出力することができる。
図3は、圧縮部230のブロック構成の一例を示す。圧縮部230は、画像分割部232、複数の固定値化部234a−c(以下、固定値化部234と総称する場合がある。)、および複数の圧縮処理部236a−d(以下、圧縮処理部236と総称する場合がある。)を有する。圧縮部230は、以下に説明するように、特徴領域と特徴領域以外の領域とを異なる画質で圧縮する。
なお、図3、図4、および図6の説明における"複数の撮像画像"は、圧縮部230による圧縮対象の撮像動画として、画像選択部220から圧縮部230に供給された撮像画像であってよい。つまり、本図の以下の説明における"複数の撮像画像"は、画像選択部220によって選択された一部の撮像画像であってよい。また、以下の説明における"特徴領域"は、画像選択部220によって選択された一部の撮像画像から検出された特徴領域と、当該一部の撮像画像以外の撮像画像から検出された特徴領域とを含む領域であってよい。例えば、以下の説明における"特徴領域"は、上述した包含領域または集合領域であってよい。
画像分割部232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。より具体的には、画像分割部232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。そして、圧縮処理部236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。
具体的には、画像分割部232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部234は、特徴領域以外の領域の画素値を予め定められた画素値にする。そして、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。
固定値化部234a、固定値化部234b、および固定値化部234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。そして、圧縮処理部236a、圧縮処理部236b、および圧縮処理部236cは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を圧縮する。
なお、圧縮処理部236a−cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。
なお、圧縮処理部236dは、背景領域動画を圧縮する。なお、圧縮処理部236dは、圧縮処理部236a−cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部206に供給される。
なお、特徴領域以外の領域が固定値化部234によって固定値化されているので、圧縮処理部236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。
図4は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、圧縮画像取得部301、対応付け解析部302、伸張制御部310、伸張部320、合成部330、特徴領域処理部350、および出力部340を備える。圧縮画像取得部301は、圧縮部230により圧縮された撮像画像を含む圧縮動画を取得する。具体的には、圧縮画像取得部301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、圧縮画像取得部301は、特徴領域情報が付帯された圧縮動画を取得する。
そして、対応付け解析部302は、複数の特徴領域動画および背景領域動画と特徴領域情報とに分離して、複数の特徴領域動画および背景領域動画を伸張部320に供給する。また、対応付け解析部302は、特徴領域情報を解析して、特徴領域の位置および特徴の種類を伸張制御部310および特徴領域処理部350に供給する。伸張制御部310は、対応付け解析部302から取得した特徴領域の位置および特徴の種類に応じて、伸張部320による伸張処理を制御する。例えば、伸張制御部310は、特徴領域の位置および特徴の種類に応じて圧縮部230が動画の各領域を圧縮した圧縮方式に応じて、伸張部320に圧縮動画が示す動画の各領域を伸張させる。
以下に、伸張部320が有する各構成要素の動作を説明する。伸張部320は、復号器322a−d(以下、復号器322と総称する。)、合成部330、および出力部340を有する。復号器322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器322a、復号器322b、復号器322c、および復号器322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。
合成部330は、伸張部320によって伸張された複数の特徴領域動画および背景領域動画を合成して、1つの表示動画を生成する。具体的には、合成部330は、背景領域動画に含まれる撮像画像に、複数の特徴領域動画に含まれる撮像画像上の特徴領域の画像を合成することによって、1つの表示動画を生成する。合成部330によって生成された表示動画は、特徴領域処理部350に供給される。
特徴領域処理部350は、表示動画において、特徴領域に関連する画像処理または特徴領域の画像を解析する。特徴領域処理部350により処理された表示動画は、出力部340に供給される。出力部340は、対応付け解析部302から取得した特徴領域情報および表示動画を表示装置180または画像DB175に出力する。なお、画像DB175は、特徴領域情報が示す特徴領域の位置、特徴領域の特徴の種類、特徴領域の数を、表示動画に含まれる撮像画像を識別する情報に対応づけて、ハードディスク等の不揮発性の記録媒体に記録してよい。
図5は、特徴領域処理部350のブロック構成の一例を示す。特徴領域処理部350は、特徴領域画像選択部352、特徴領域特定部354、信頼度算出部356、関連性算出部358、および画像処理部360を有する。
特徴領域画像選択部352は、合成部330から供給された表示動画に含まれる複数の撮像画像を取得する。このように、特徴領域画像選択部352は、一部の撮像画像以外の撮像画像から検出された特徴領域を示す情報が対応づけて出力された一部の撮像画像を、特徴領域を有する撮像画像として選択する。このように、特徴領域画像選択部352により一部の撮像画像以外の撮像画像から特徴領域が検出されている撮像画像を選択される。以後の処理においては、それらの特徴領域の情報を用いて、表示動画に対して処理が施される。
特徴領域特定部354、信頼度算出部356、および関連性算出部358は、特徴領域画像選択部352によって選択された撮像画像および対応付け解析部302から供給される特徴領域の情報を取得する。特徴領域特定部354は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定する。例えば、特徴領域特定部354は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置の近傍の領域から、当該一部の撮像画像における特徴領域を特定してよい。
このように、特徴領域特定部354は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定することができる。これにより、画像処理装置170は、より高い精度で特徴領域を検出し直すことができる。
なお、特徴領域特定部354は、対応付け解析部302から集合領域を示す情報を取得して、一部の撮像画像における当該集合領域内から特徴領域を検出し直してもよい。このように、特徴領域特定部354は、一部の撮像画像に対応づけて出力された集合領域を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定することができる。このように、画像処理装置170は、一部の撮像画像以外の領域から検出された特徴領域が示す画像領域からも、特徴領域を特定することができる。このため、画像処理システム10によると、一部の撮像画像から特徴領域を検出し損ねる確率を低減しつつ、画像処理装置170における特徴領域を特定する特定対象領域を狭めることができる。このため、画像処理装置170は、高速かつ高精度で特徴領域を特定することができる。
信頼度算出部356は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、一部の撮像画像における特徴領域の検出信頼度を算出する。例えば、信頼度算出部356は、一部の撮像画像以外の撮像画像から検出された特徴領域の位置との間の位置の差が予め定められた値より小さい一部の撮像画像における特徴領域の検出信頼度を、より高く算出してよい。
例えば、信頼度算出部356は、一部の撮像画像以外の撮像画像から検出された特徴領域との間で、予め定められた値より高い位置の相関性を有する位置に検出されている一部の撮像画像における特徴領域の検出信頼度を、より高く算出してよい。このように、信頼度算出部356は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、一部の撮像画像における特徴領域の検出信頼度を算出することができる。これにより、画像処理装置170は、一部の撮像画像において検出された特徴領域の確からしさを再確認することができる。
関連性算出部358は、特徴領域画像選択部352によって選択された撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、異なる一部の撮像画像から検出された特徴領域の関連性を算出する。例えば、関連性算出部358は、異なる一部の撮像画像に対応づけて出力された特徴領域の位置の連続性がより高い場合に、より高い特徴領域の関連性を算出する。また、関連性算出部358は、異なる一部の撮像画像の間において、当該異なる一部の撮像画像に対応づけて出力された特徴領域の位置が示す特徴領域の移動方向の一致度が予め定められた値より大きい場合に、より高い特徴領域の関連性を算出してよい。
このように、関連性算出部358は、出力部207から一部の撮像画像に対応づけて出力された一部の撮像画像以外の撮像画像から検出された特徴領域の位置を示す情報に基づいて、異なる一部の撮像画像から検出された特徴領域の関連性を算出する。このため、画像処理装置170は、表示動画に含まれる異なる撮像画像において同じ移動体が検出されている特徴領域を、より高い精度で特定することができる。
画像処理部360は、特徴領域特定部354が特定した特徴領域の情報、信頼度算出部356が算出した検出信頼度、および関連性算出部358が算出した関連性を取得する。画像処理部360は、特徴領域特定部354が特定した特徴領域を強調する画像処理を表示動画に施してよい。例えば、画像処理部360は、特徴領域特定部354が特定した特徴領域を示す枠などのマーカを、表示動画に重畳してよい。なお、画像処理部360は、特徴領域特定部354が特定した特徴領域を、信頼度算出部356が算出した検出信頼度がより高いほどより強調する画像処理を、表示動画に施してよい。
また、画像処理部360は、関連性算出部358が算出した関連性が予め定められた値より高い特徴領域の組と、他の特徴領域の組とを視覚的に区別することができる上記マーカを、表示動画に重畳してよい。例えば、画像処理部360は、関連性が予め定められた値より高い特徴領域の組を示すマーカとしての同色のマーカを、表示動画に重畳させてよい。また、画像処理部360は、異なる特徴領域の組を示すマーカとしての異なる色のマーカを、表示動画に重畳してよい。画像処理部360は、画像処理を施した表示動画を出力部340に供給する。
図6は、圧縮部230の他のブロック構成の一例を示す。本構成における圧縮部230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。
本構成における圧縮部230は、画質変換部510、差分処理部520、および符号化部530を有する。差分処理部520は、複数の階層間差分処理部522a−d(以下、階層間差分処理部522と総称する。)を含む。符号化部530は、複数の符号器532a−d(以下、符号器532と総称する。)を含む。
画質変換部510は、画像選択部220から複数の撮像画像を取得する。また、画質変換部510は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。
例えば、画質変換部510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。
そして、画質変換部510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部522d、階層間差分処理部522a、階層間差分処理部522b、および階層間差分処理部522cに供給する。なお、画質変換部510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部522のそれぞれに動画を供給する。
なお、画質変換部510は、特徴領域の特徴の種類に応じて、階層間差分処理部522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部510は、階層間差分処理部522aに供給する動画より低いフレームレートの動画を階層間差分処理部522dに供給してよい。また、画質変換部510は、階層間差分処理部522bに供給する動画より低いフレームレートの動画を階層間差分処理部522aに供給してよく、階層間差分処理部522cに供給する動画より低いフレームレートの動画を階層間差分処理部522bに供給してよい。なお、画質変換部510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部522に供給する動画のフレームレートを変換してよい。
階層間差分処理部522dおよび符号器532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。
また、階層間差分処理部522aは、画質変換部510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部522bおよび階層間差分処理部522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部522aおよび符号器532aの具体的な動作について説明する。
階層間差分処理部522aは、符号器532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部522aは、背景領域における差分値を0にする。そして、符号器532aは、差分画像を符号器532dと同様に符号化する。なお、階層間差分処理部522aおよび符号器532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。
なお、階層間差分処理部522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。
なお、階層間差分処理部522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部522aに供給される。階層間差分処理部522aは、階層間差分処理部522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。
なお、階層間差分処理部522bおよび符号器532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522bおよび符号器532bの動作は階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部522cおよび符号器532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。
以上説明したように、画質変換部510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。
また、画質変換部510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。
以上説明したように、圧縮部230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。
図7は、撮像装置100によって撮像された撮像画像700の一例を示す。複数の撮像画像700−1〜20(以後、撮像画像700と総称する。)は、撮像装置100によって撮像された撮像画像を示す。撮像装置100は、予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。例えば、撮像部102は、表示装置180が表示することができる表示レートより高いレートの撮像レートで被写体を撮影してよい。他にも、撮像部102は、監視対象である監視対象物の動き速度に応じて予め定められた基準撮像レートより高い撮像レートで被写体を連続的に撮像してよい。
なお、特徴領域検出部203は、撮像画像700のそれぞれから、特徴領域710−1〜20(以後、特徴領域710と総称する。)および特徴領域720−1〜20(以後、特徴領域720と総称する。)を検出している。そして、画像選択部220は、撮像画像700のうち、連続して撮像された予め定められた数の撮像画像700の中から1つずつ、画像処理装置170に出力すべき撮像画像700を選択する。
本図では、画像選択部220は、一例として連続する十個の撮像画像700を含む組のそれぞれから、出力すべき撮像画像700を1つずつ選択している。具体的には、画像選択部220は、撮像画像700−1〜10の中から、撮像画像700−5を選択しており、撮像画像700−11〜20の中から、撮像画像700−15を選択している。
対応付け処理部206は、特徴領域710−1〜10の位置および特徴領域の種類を示す情報、特徴領域720−1〜10の位置および特徴領域の種類を示す情報、およびそれらの特徴領域710−1〜10および特徴領域720−1〜10が検出された撮像画像700−1〜10が撮像された撮像タイミングを示す情報を、撮像画像700−5を識別する情報に付帯する。なお、撮像画像700−5を識別する情報は、撮像画像700を含む撮像動画において撮像画像700−5を識別するフレームIDであってよく、画像処理装置170に出力される撮像画像700の中で撮像画像700−5を識別するフレームIDであってもよい。同様に、対応付け処理部206は、特徴領域710−11〜20の位置および特徴領域の種類を示す情報、特徴領域720−11〜20の位置および特徴領域の種類を示す情報、およびそれらの特徴領域710−11〜20および特徴領域720−11〜20が検出された撮像画像700−11〜20が撮像された撮像タイミングを示す情報を、撮像画像700−15を識別する情報に付帯する。
図8は、撮像画像700−5に付帯された情報の一例を示す。対応付け処理部206は、特徴領域710−5および特徴領域720−5の位置を示す情報の一例として、特徴領域710−5および特徴領域720−5の位置を示す座標を付帯する。具体的には、対応付け処理部206は、特徴領域710−5および特徴領域720−5が矩形である場合、当該矩形の対角の頂点P1、P2、P3、P4の座標を付帯する。なお、これらの矩形の対角を示す情報により、矩形の特徴領域の形および大きさも同時に規定される。
また、対応付け処理部206は、特徴の種別を識別する識別番号を付帯してよい。例えば、対応付け処理部206は、特徴領域710−5の識別番号としてtype=2を示す情報を、特徴領域720−5の識別番号としてtype=1を示す情報を付帯する。また、対応付け処理部206は、撮像画像700−5が撮像された時刻t=xxxを付帯する。なお、上記の説明では、対応付け処理部206が撮像画像700−5から検出された特徴領域の情報を付帯する場合を例に挙げて、対応付け処理部206の動作を説明したが、対応付け処理部206は、撮像画像700−5に対応づけられる他の撮像画像700から検出された特徴領域の情報についても、同様の情報を付帯する。
図9は、特徴領域特定部354が特徴領域を特定する画像領域を示す。特徴領域特定部354は、画像選択部220により選択された撮像画像900に付帯された特徴領域の位置情報を対応付け解析部302から取得する。なお、以後の説明では、撮像画像900に付帯された特徴領域の矩形の対角の頂点の座標から算出された特徴領域の重心位置901、重心位置902、重心位置904、および重心位置905を用いて、特徴領域特定部354の動作を説明する。
なお、本図の例では、特徴領域検出部203は撮像画像900から特徴領域を検出できなかったとする。つまり、重心位置901、重心位置902、重心位置904、および重心位置905は、画像選択部220により選択されなかった撮像画像から検出された特徴領域の重心位置を示す。特徴領域特定部354は、上記の撮像タイミングを示す情報から、特徴領域の重心が重心位置901、重心位置902、重心位置904、および重心位置905の順で時間的に移動していることを検出する。したがって、特徴領域特定部354は、重心位置902および重心位置904の間に存在する点を含む画像領域910から、特徴領域を特定する。
なお、特徴領域特定部354は、重心位置901、重心位置902、重心位置904、および重心位置905の座標から、撮像画像900が撮像されたタイミングにおける特徴領域の重心位置の座標を特定してよい。そして、特徴領域特定部354は、当該特定した座標が示す点を含む画像領域910から、特徴領域を特定してもよい。
なお、特徴領域特定部354は、撮像画像900に付帯された特徴領域の矩形の対角の頂点の座標から、特徴領域の大きさおよび形を推定することができる。そして、特徴領域特定部354は、特定した特徴領域の大きさがより大きい場合に、より大きい画像領域910から特徴領域を特定してよい。例えば、特徴領域特定部354は、複数の特徴領域の大きさの最大値または平均値がより大きい場合に、より大きい画像領域910から特徴領域を特定してよい。また、特徴領域特定部354は、特定した特徴領域の形状と相似する形状の画像領域910から、特徴領域を特定してもよい。
以上説明したように、特徴領域特定部354は、特徴領域を特定する領域を限定することができる。このため、特徴領域特定部354は、高速に特徴領域を特定することができる。
図10は、撮像画像1000に付帯された特徴領域の位置から算出された重心位置の他の一例を示す。重心位置1001、重心位置1002、重心位置1004、および重心位置1005は、画像選択部220により選択されなかった撮像画像から検出された特徴領域の重心位置を示す。そして、重心位置1003は、撮像画像1000において検出された特徴領域の重心位置を示す。
この場合、信頼度算出部356は、撮像画像1000に付帯された特徴領域の重心位置の差に基づいて、撮像画像1000から検出された特徴領域の検出信頼度を算出する。信頼度算出部356は、重心位置1001、重心位置1002、重心位置1004、および重心位置1005から推定される特徴領域の移動方向から、撮像画像1000から検出されるべき特徴領域の位置を推定して、推定された特徴領域の重心位置と重心位置1003の位置の差を算出する。信頼度算出部356は、当該位置の差の大きさがより大きい場合に、撮像画像1000から検出された特徴領域の検出信頼度をより高く算出する。
このようにして、信頼度算出部356は、検出信頼度を容易に算出することができる。このため、画像処理部360は、検出信頼度に応じた適切な画像処理を施すことができる。なお、特徴領域特定部354は、信頼度算出部356が検出した検出信頼度が予め定められた値より低い場合には、撮像画像1000におけるより広い画像領域から特徴領域を特定してもよい。これにより、特徴領域特定部354が特徴領域を特定し損ねてしまう確率を低減することができる。
図11は、撮像画像に付帯された複数種類の特徴領域のそれぞれの位置から算出された重心位置の一例を示す。撮像画像1101、撮像画像1102、および撮像画像1103は、画像選択部220によって選択された撮像画像であるとする。撮像画像1101から検出された第1種類の特徴領域の重心位置は重心位置1111であり、撮像画像1101から検出された第2種類の特徴領域の重心位置は重心位置1121であるとする。
また、撮像画像1102から検出された第1種類の特徴領域の重心位置は重心位置1112であり、撮像画像1102から検出された第2種類の特徴領域の重心位置は重心位置1122であるとする。また、撮像画像1103から検出された第1種類の特徴領域の重心位置は重心位置1113であり、撮像画像1103から検出された第2種類の特徴領域の重心位置は重心位置1123であるとする。
なお、関連性算出部358は、撮像画像1101、撮像画像1102、および撮像画像1103に対応づけられた、画像選択部220によって選択されなかった撮像画像から検出された特徴領域の位置から、それらの重心位置を算出することができる。本図においては、符号が付されていない×印によりそれらの重心位置が示されている。
関連性算出部358は、算出された重心位置の連続性から、これら撮像画像1101、撮像画像1102、および撮像画像1103から検出された特徴領域の関連性を算出する。本図の例では、重心位置1111、重心位置1112、および重心位置1113を結ぶ線の近傍には、より多くの重心位置が並ぶ。このような場合、関連性算出部358は、重心位置1111、重心位置1112、および重心位置1113に重心位置がある複数の特徴領域の間の関連性をより高く算出する。同様にして、関連性算出部358は、重心位置1121、重心位置1122、および重心位置1123に重心位置がある複数の特徴領域の間の関連性をより高く算出する。
このように、関連性算出部358により、複数の撮像画像における特徴領域の関連性を適切に算出することができる。このため、画像処理部360は、例えば人物と車両が交錯するような動画が送られてきた場合であっても、両者を速やかに区別することができる。場合によっては、画像処理部360は、画像認識をすることなく、両者を区別することができる。また、画像処理部360は、関連性が低い特徴領域を一目で区別することができるようなマーキング処理を撮像画像に施したりすることができる。
図12は、撮像画像1200における集合領域の一例を示す。本図において、特徴領域1210、特徴領域1220、および特徴領域1230は、画像選択部220により選択されなかった撮像画像および画像選択部220により選択された撮像画像のいずれかから、特徴領域検出部203によって検出された特徴領域を示す。なお、特徴領域1210の検出信頼度はp1であり、特徴領域1220の検出信頼度はp2であり、特徴領域1230の検出信頼度はp3であるとする。なお、検出信頼度は、その大きさが大きいほど信頼度が高いとする。
重要度算出部240は、特徴領域1210、特徴領域1220、および特徴領域1230に異なる含まれ方で含まれる領域毎に、重要度を算出する。例えば、重要度算出部240は、特徴領域1210、特徴領域1220、および特徴領域1230の集合領域を、他の特徴領域に含まれない特徴領域1210内の第1領域と、他の特徴領域に含まれない特徴領域1220内の第2領域と、他の特徴領域に含まれない特徴領域1230内の第3領域と、特徴領域1210および特徴領域1220にだけ含まれる第4領域と、特徴領域1210および特徴領域1230にだけ含まれる第5領域と、特徴領域1220および特徴領域1230にだけ含まれる第6領域と、特徴領域1210、特徴領域1220、および特徴領域1230に含まれる第7領域に分ける。
そして、重要度算出部240は、上記7個の領域のそれぞれについて、重要度を算出する。具体的には、重要度算出部240は、上記7個の領域のそれぞれについて、それぞれの領域が含まれる特徴領域の検出信頼度を合計した合計値を算出する。重要度算出部240は、当該合計値が大きいほど、より大きい重要度を算出する。
そして、対応付け処理部206は、予め定められた値より大きい重要度が算出された領域を示す情報を、画像選択部220によって選択された撮像画像1200に対応づけてよい。例えば、対応付け処理部206は、集合領域のうち、本図において斜線で示した第4領域、第6領域、および第7領域を示す情報を、当該選択された撮像画像1200に対応づけてよい。また、圧縮部230は、予め定められた値より大きい重要度が算出された領域を、図3または図6で説明した特徴領域として扱うことによって、当該領域の画質が他の領域より高い圧縮動画を生成してよい。
このように、重要度算出部240が算出した重要度が予め定められた値より大きい領域を撮像画像に対応づけて出力するので、画像処理装置170において特徴領域を特定すべく画像認識をする対象領域をより狭めることができる。このため、画像処理装置170においてより高速に特徴領域を特定することができる。
図13は、他の実施形態に係る画像処理システム20の一例を示す。本実施形態における画像処理システム20の構成は、撮像装置100a−dがそれぞれ画像処理部804a−d(以下、画像処理部804と総称する。)を有する点を除いて、図1で説明した画像処理システム10の構成と同じとなっている。
画像処理部804は、それぞれ画像処理部200と同一の構成を有している。そして、画像処理部804に含まれる各構成要素の機能および動作は、画像処理部200に含まれる各構成要素が圧縮動画伸張部202による伸張処理によって得られた撮像動画を処理することに替えて、撮像部102によって撮像された撮像動画を処理するという点を除いて、画像処理部200に含まれる各構成要素の機能および動作と略同一であってよい。このような構成の画像処理システム20においても、図1から図13にかけて画像処理システム10に関連して説明した効果と略同一の効果が得ることができる。
図14は、画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。画像処理装置120および画像処理装置170は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。
ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理装置120および画像処理装置170が起動するときに実行するブート・プログラム、あるいは画像処理装置120および画像処理装置170のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理装置120を、図1から図13に関連して説明した画像処理装置120が有する各構成要素として機能させ、画像処理装置170を、図1から図14に関連して説明した、画像処理装置170が有する各構成要素として機能させる。
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理装置120および画像処理装置170に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理装置120および画像処理装置170として機能する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
一実施形態に係わる画像処理システム10の一例を示す図である。 画像処理装置120のブロック構成の一例を示す図である。 圧縮部230のブロック構成の一例を示す図である。 画像処理装置170のブロック構成の一例を示す図である。 特徴領域処理部350のブロック構成の一例を示す図である。 圧縮部230の他のブロック構成の一例を示す図である。 撮像装置100によって撮像された撮像画像700の一例を示す図である。 撮像画像700−5に付帯される情報の一例を示す図である。 特徴領域特定部354が特徴領域を特定する画像領域を示す図である。 特徴領域の位置から算出された重心位置の他の一例を示す図である。 複数種類の特徴領域のそれぞれの位置から算出された重心位置の一例を示す図である。 撮像画像における集合領域の一例を示す図である。 他の実施形態に係る画像処理システム20の一例を示す図である。 画像処理装置120および画像処理装置170のハードウェア構成の一例を示す図である。
符号の説明
10 画像処理システム
20 画像処理システム
100 撮像装置
102 撮像部
104 撮像動画圧縮部
110 通信ネットワーク
120 画像処理装置
130 人物
140 移動体
150 監視対象空間
160 空間
170 画像処理装置
175 画像DB
180 表示装置
200 画像処理部
201 圧縮動画取得部
202 圧縮動画伸張部
203 特徴領域検出部
206 対応付け処理部
207 出力部
210 圧縮制御部
220 画像選択部
230 圧縮部
232 画像分割部
234 固定値化部
236 圧縮処理部
240 重要度算出部
250 画像取得部
301 圧縮画像取得部
302 対応付け解析部
310 伸張制御部
320 伸張部
322 復号器
330 合成部
340 出力部
350 特徴領域処理部
352 特徴領域画像選択部
354 特徴領域特定部
356 信頼度算出部
358 関連性算出部
360 画像処理部
510 画質変換部
520 差分処理部
522 階層間差分処理部
530 符号化部
532 符号器
700 撮像画像
710 特徴領域
720 特徴領域
804 画像処理部
900 撮像画像
901 重心位置
902 重心位置
904 重心位置
905 重心位置
1000 撮像画像
1000 撮像画像
1001 重心位置
1002 重心位置
1003 重心位置
1004 重心位置
1005 重心位置
1101 撮像画像
1102 撮像画像
1103 撮像画像
1111 重心位置
1112 重心位置
1121 重心位置
1122 重心位置
1113 重心位置
1123 重心位置
1200 撮像画像
1210 特徴領域
1220 特徴領域
1230 特徴領域
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示デバイス
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
1598 ネットワーク通信装置

Claims (20)

  1. 異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、
    前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、
    前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、
    前記一部の撮像画像以外の撮像画像から検出された前記特徴領域を特定する情報を、前記一部の撮像画像に対応づけて出力する出力部と
    を備える画像処理システム。
  2. 前記出力部は、前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の位置を示す情報を、前記一部の撮像画像に対応づけて出力する
    請求項1に記載の画像処理システム。
  3. 前記出力部は、前記一部の撮像画像以外の撮像画像が撮像されたタイミングを示す情報を、前記一部の撮像画像に対応づけて出力する
    請求項2に記載の画像処理システム。
  4. 前記出力部は、前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の大きさを示す情報を、前記一部の撮像画像に対応づけて出力する
    請求項3に記載の画像処理システム。
  5. 前記特徴領域検出部は、前記複数の撮像画像から、特徴の種類が異なる複数の特徴領域を検出し、
    前記出力部は、前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の特徴の種類を示す情報を、前記一部の撮像画像に対応づけて出力する
    請求項4に記載の画像処理システム。
  6. 前記特徴領域検出部は、前記複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出し、
    前記出力部は、前記一部の撮像画像以外の撮像画像から検出された前記特徴領域に含まれるオブジェクトの種類を示す情報を、前記一部の撮像画像に対応づけて出力する
    請求項5に記載の画像処理システム。
  7. 前記特徴領域検出部は、動く物体を示すオブジェクトを含む領域を、前記特徴領域として検出する
    請求項6に記載の画像処理システム。
  8. 前記画像選択部は、前記複数の撮像画像の中から、予め定められた条件に適合する前記一部の撮像画像を選択する
    請求項7に記載の画像処理システム。
  9. 前記画像選択部は、前記特徴領域検出部が検出した特徴領域の画像内容が予め定められた条件に適合する前記一部の撮像画像を選択する
    請求項8に記載の画像処理システム。
  10. 前記画像選択部は、前記特徴領域検出部が検出した特徴領域の数が予め定められた値より多い前記一部の撮像画像を選択する
    請求項8に記載の画像処理システム。
  11. 前記一部の撮像画像以外の撮像画像から検出された前記特徴領域を示す情報が対応づけて出力された前記一部の撮像画像を、特徴領域を有する撮像画像として選択する特徴領域画像選択部
    をさらに備える請求項1に記載の画像処理システム。
  12. 前記出力部から前記一部の撮像画像に対応づけて出力された前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の位置を示す情報に基づいて、当該一部の撮像画像から特徴領域を特定する特徴領域特定部
    をさらに備える請求項2に記載の画像処理システム。
  13. 前記特徴領域特定部は、前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の位置の近傍の領域から、当該一部の撮像画像における特徴領域を特定する
    請求項12に記載の画像処理システム。
  14. 前記出力部から前記一部の撮像画像に対応づけて出力された前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の位置を示す情報に基づいて、前記一部の撮像画像における前記特徴領域の検出信頼度を算出する信頼度算出部
    をさらに備える請求項2に記載の画像処理システム。
  15. 前記信頼度算出部は、前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の位置との間の位置の差が予め定められた値より小さい前記一部の撮像画像における前記特徴領域の検出信頼度をより高く算出する
    請求項14に記載の画像処理システム。
  16. 前記出力部から前記一部の撮像画像に対応づけて出力された前記一部の撮像画像以外の撮像画像から検出された前記特徴領域の位置を示す情報に基づいて、異なる前記一部の撮像画像から検出された前記特徴領域の関連性を算出する関連性算出部
    をさらに備える請求項2に記載の画像処理システム。
  17. 前記関連性算出部は、異なる前記一部の撮像画像に対応づけて出力された前記特徴領域の位置の連続性がより高い場合に、より高い前記特徴領域の関連性を算出する
    備える請求項16に記載の画像処理システム。
  18. 前記関連性算出部は、異なる前記一部の撮像画像の間において、当該異なる一部の撮像画像に対応づけて出力された前記特徴領域の位置が示す前記特徴領域の移動方向の一致度が予め定められた値より大きい場合に、より高い前記特徴領域の関連性を算出する
    備える請求項17に記載の画像処理システム。
  19. 異なるタイミングで撮像された複数の撮像画像を取得する画像取得部と、
    前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部と、
    前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択部と、
    前記一部の撮像画像以外の撮像画像から検出された前記特徴領域を特定する情報を、前記一部の撮像画像に対応づけて出力する出力段階と
    を備える画像処理方法。
  20. 画像処理システム用のプログラムであって、コンピュータを、
    異なるタイミングで撮像された複数の撮像画像を取得する画像取得部、
    前記複数の撮像画像のそれぞれから特徴領域を検出する特徴領域検出部、
    前記複数の撮像画像の中から、一部の撮像画像を選択する画像選択部、
    前記一部の撮像画像以外の撮像画像から検出された前記特徴領域を特定する情報を、前記一部の撮像画像に対応づけて出力する出力部
    として機能させるプログラム。
JP2008093320A 2008-03-31 2008-03-31 画像処理システム、画像処理方法、およびプログラム Expired - Fee Related JP5034116B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008093320A JP5034116B2 (ja) 2008-03-31 2008-03-31 画像処理システム、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008093320A JP5034116B2 (ja) 2008-03-31 2008-03-31 画像処理システム、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2009246836A true JP2009246836A (ja) 2009-10-22
JP5034116B2 JP5034116B2 (ja) 2012-09-26

Family

ID=41308245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008093320A Expired - Fee Related JP5034116B2 (ja) 2008-03-31 2008-03-31 画像処理システム、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP5034116B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288789A (ja) * 1994-04-15 1995-10-31 Hitachi Ltd 知的符号化装置及び画像通信装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288789A (ja) * 1994-04-15 1995-10-31 Hitachi Ltd 知的符号化装置及び画像通信装置

Also Published As

Publication number Publication date
JP5034116B2 (ja) 2012-09-26

Similar Documents

Publication Publication Date Title
JP6263830B2 (ja) 圧縮ビデオデータにおいて複数の関心領域の指標を含めるための技術
JP4895042B2 (ja) 画像圧縮装置、画像圧縮方法、及びプログラム
US8462226B2 (en) Image processing system
US9860537B2 (en) Multi-focus image data compression
JP5181294B2 (ja) 撮像システム、撮像方法、およびプログラム
JP4897600B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US8503810B2 (en) Image compression using partial region determination
US20110019741A1 (en) Image processing system
JP5337970B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP5082134B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5156982B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP2012085350A (ja) 画像処理装置、画像処理方法、及びプログラム
JP5117424B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP2009273116A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5034116B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP4905723B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP4895041B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5136172B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP4961582B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP2009253581A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5082141B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP4873488B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5105179B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP2009071389A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2009232070A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120615

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees