JP6833558B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6833558B2
JP6833558B2 JP2017031340A JP2017031340A JP6833558B2 JP 6833558 B2 JP6833558 B2 JP 6833558B2 JP 2017031340 A JP2017031340 A JP 2017031340A JP 2017031340 A JP2017031340 A JP 2017031340A JP 6833558 B2 JP6833558 B2 JP 6833558B2
Authority
JP
Japan
Prior art keywords
image
analysis
moving object
images
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017031340A
Other languages
English (en)
Other versions
JP2018137638A5 (ja
JP2018137638A (ja
Inventor
直宏 山本
直宏 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017031340A priority Critical patent/JP6833558B2/ja
Publication of JP2018137638A publication Critical patent/JP2018137638A/ja
Publication of JP2018137638A5 publication Critical patent/JP2018137638A5/ja
Application granted granted Critical
Publication of JP6833558B2 publication Critical patent/JP6833558B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
ネットワークカメラシステムは、例えば、公共の建物や場所、銀行、スーパ等の店舗、ダム、基地、飛行場等における立入り禁止区域等への侵入者あるいは侵入物体を監視する目的で、数多く用いられている。撮像装置であるネットワークカメラ(以下、単に「カメラ」という。)によって撮像された画像は、ネットワークを介してサーバに保存される。サーバは、保存された画像をもとに画像解析処理を行い、画像中に上記の侵入者や侵入物体が存在するか否かを解析する。その際、サーバは、画像中の動体を検知する動体検知を行い、検知された動体について人体であるかの解析を行い、所定領域に人体が侵入したかどうかを検知する侵入検知を行う。
サーバへ配信される画像のフレームレートが高ければ、映像解析の精度も高まる。しかしながら、その場合、サーバ側に配信される画像のデータサイズがより大きくなり、ネットワークの負荷が増大する。また、サーバ側の処理負荷が増大するとともに、記憶媒体の容量増大も必要となる。特許文献1には、画像内の特定の被写体が映っている特定領域の符号量を制御することで、カメラからサーバへ配信する画像のデータサイズを低減する方法が開示されている。
特開2012−239085号公報
しかしながら、サーバがカメラから配信された画像を処理するフレームレートは、カメラが画像を処理するフレームレートとは異なる場合がある。サーバ側のフレームレートがカメラ側のフレームレートよりも低い場合、サーバは、カメラが配信可能なすべての画像を受信することはできないおそれがある。つまり、サーバは、カメラによって処理された画像のうち、間引いた形で画像を受信し、処理することになる。そのため、カメラが高フレームレートで画像を処理しサーバへ配信しても、サーバ側での動体検知の精度を必ずしも高めることはできないおそれがある。
上記特許文献1に記載の技術では、カメラが配信する画像のデータサイズを低減することができるため、ネットワークの負荷を増大することなくカメラから高フレームレートで画像を配信することができる。しかしながら、サーバ側のフレームレートがカメラ側のフレームレートよりも低い場合を考慮する必要がある。
そこで、本発明は、画像の配信先の装置における解析処理の高精度化を実現することを目的としている。
上記課題を解決するために、本発明に係る画像処理装置の一態様は、画像を解析する解析処理を実行する画像解析装置に、ネットワークを介して画像を配信する画像処理装置であって、撮像手段により撮像された複数の画像について、それぞれ解析処理を行う解析手段と、前記画像解析装置における前記解析処理において処理可能なフレームレートと、前記解析手段による解析処理の処理結果に応じて、前記複数の画像のうち、ネットワークを介して前記画像解析装置へ配信する画像を選択する選択手段と、前記選択手段により選択された画像を、前記画像解析装置へ配信する配信手段と、を備える。
本発明によれば、画像の配信先の装置における解析処理の高精度化を実現することができる。
画像処理システムの一例を示すネットワーク接続構成図である。 カメラの機能ブロック図である。 カメラのハードウェア構成の一例を示す図である。 カメラからの映像配信を説明する図である。 カメラからの映像配信を説明する図である。 画像と動きベクトル量との関係を示す図である。 カメラが実行する制御処理を説明する図である。 動体検知の方法を説明する図である。 動きベクトル量の評価方法を説明する図である。 第二の実施形態における動体検知の方法を説明する図である。 第二の実施形態における動きベクトル量の評価方法を説明する図である。 第二の実施形態のカメラが実行する制御処理を説明する図である。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における画像処理システムの動作環境の一例を示したネットワーク接続構成図である。本実施形態では、画像処理システムをネットワークカメラシステムに適用する。
ネットワークカメラシステム1000は、複数のネットワークカメラ(以下、「カメラ装置」という。)100と、サーバ装置200と、を備える。カメラ装置100およびサーバ装置200は、ネットワーク300によって接続されている。ネットワーク300は、例えばLAN(Local Area Network)である。
なお、ネットワーク300はLANに限定されるものではなく、インターネットやWAN(Wide Area Network)などであってもよい。また、ネットワーク300への物理的な接続形態は、有線であってもよいし、無線であってもよい。さらに、図1においては、3台のカメラ装置100がネットワーク300に接続されているが、少なくとも1台のカメラ装置100が接続されていればよく、接続台数は図1に示す数に限定されない。
カメラ装置100は、被写体を撮像する監視カメラ等の撮像装置である。カメラ装置100は、撮像した映像(画像)を、ネットワーク300上へ配信可能であり、サーバ装置200は、ネットワーク300を介してカメラ装置100から画像を取得し、解析処理を行う。本実施形態では、カメラ装置100は、サーバ装置200の処理能力に応じたフレームレートで、解析処理の処理結果に応じた映像配信を行うように構成されている。また、本実施形態では、カメラ装置100が画像処理装置として機能する場合について説明する。
サーバ装置200は、例えばパーソナルコンピューター(PC)などにより構成される画像解析装置とすることができる。このサーバ装置200は、ユーザ(例えば、監視員)が操作可能であってもよい。サーバ装置200が実行する解析処理は、動体検知処理、動体追尾処理、人体検知処理、顔検知処理、顔認識処理、顔認証処理、通過検知処理、侵入検知処理、混雑検知処理の少なくとも1つを含むことができる。本実施形態では、サーバ装置200が、解析処理として、画像中の動体を検知する動体検知処理を行う場合について説明する。
なお、サーバ装置200は、カメラ装置100から配信される画像や、解析処理の結果を表示部に表示させるための表示制御機能を有していてもよい。さらに、サーバ装置200は、解析処理に関する各種設定のための操作をユーザが行うための入力機能を有していてもよい。
図2は、カメラ装置100の機能ブロック図である。カメラ装置100は、撮像センサ部101、A/D変換処理部102、現像処理部103、画像形成部104、データ記憶部105、動体判断部106、配信データ判断部107および配信部108を備える。
撮像センサ部101は、ズームレンズや撮像素子を備える撮像部15(図3)からアナログ画像信号を取得し、A/D変換処理部102に出力する。A/D変換処理部102は、撮像センサ部101から入力されたアナログ画像信号をディジタル画像信号に変換する。ここで、ディジタル画像信号は、映像(動画像)を構成する各フレーム(画像)のディジタル画像信号とすることができる。
現像処理部103は、A/D変換処理部102から出力されたディジタル画像信号に対して現像処理を行うことで、1枚の画像を生成する。この画像は、全方位360°を撮像した環状の全方位画像とすることができる。現像処理部103において現像処理された画像は、画像形成部104に出力される。画像形成部104は、現像処理部103から取得した画像に対して画像処理を行い、サーバ装置200へ配信可能な画像を形成する。そして、画像形成部104は、処理後の画像をデータ記憶部105と動体判断部106とに出力する。
データ記憶部105は、SDカードなどの記憶媒体に、画像形成部104によって処理された画像を複数フレーム分保持する。動体判断部106は、画像形成部104によって処理された画像に対して、解析処理として動体検知処理を行って画像内に動体が存在するか否かを判断し、その処理結果を配信データ判断部107に出力する。本実施形態では、動体判断部106は、時系列上連続する2つの画像の差分に基づいて動体判断を行う。配信データ判断部107は、動体判断部106から入力された処理結果に基づき、データ記憶部105に記憶された画像のうち、どの画像をサーバ装置200へ配信するかを判断する。そして、配信データ判断部107は、データ記憶部105により記憶された画像から、サーバ装置200へ配信すると判断した画像を選択し、配信部108へ送出する。配信部108は、配信データ判断部107により判断された画像を、ネットワーク300を介してサーバ装置200へ配信する。
また、カメラ装置100は、サーバ装置200からネットワーク300を介して、ズームなどのカメラ制御用のコマンドを受信することができる。このようなカメラ制御用のコマンドは、まず配信部108が受信する。そして、配信部108が受信したカメラ制御用のコマンドがズームを指示する制御コマンドである場合には、配信部108はズームレンズに上記制御コマンドを送出する。ズームレンズは、配信部108から送出された制御コマンドに応じたズーム処理を行うことができる。
図3は、カメラ装置100のハードウェア構成を示す図である。
カメラ装置100は、CPU11と、ROM12と、RAM13と、外部メモリ14と、撮像部15と、通信I/F16と、システムバス17とを備える。
CPU11は、カメラ装置100における動作を統括的に制御するものであり、システムバス17を介して、各構成部(12〜16)を制御する。ROM12は、CPU11が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、上記プログラムは、外部メモリ14や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM13は、CPU11の主メモリ、ワークエリアとして機能する。すなわち、CPU11は、処理の実行に際してROM12から必要なプログラムをRAM13にロードし、ロードしたプログラムを実行することで各種の機能動作を実現する。
外部メモリ14は、CPU11がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、外部メモリ14には、CPU11がプログラムを用いた処理を行うことにより得られる各種データや各種情報が記憶される。撮像部15は、被写体の撮像を行うための構成であり、ズームレンズと撮像素子とを備える。ズームレンズは、入射光を結像するための光学レンズを備え、光を撮像素子に集光させる。撮像素子は、光に応じて画像電気信号に変換する素子であり、CCDセンサやCMOSセンサにより構成することができる。この撮像素子は、ズームレンズを介して入光した光をアナログ画像信号に変換する。
通信I/F16は、外部装置(本実施形態では、サーバ装置200)と通信するためのインタフェースである。通信I/F16は、例えばLANインタフェースである。システムバス17は、CPU11、ROM12、RAM13、外部メモリ14、撮像部15および通信I/F16を通信可能に接続する。
図2に示すカメラ装置100の各部の機能は、CPU11がプログラムを実行することで実現することができる。ただし、図2に示すカメラ装置100の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU11の制御に基づいて動作する。
図4は、カメラ装置100が配信可能な画像と、サーバ装置200が処理可能な画像との関係の一例を示す図である。図4において、上段は、カメラ装置100が配信可能な画像40、下段は、サーバ装置200が処理可能な画像40Aを示している。この図4は、カメラ装置100における画像を撮像し配信できる性能と、サーバ装置200における画像を受信し処理できる性能とが異なる場合の例である。ここでは、カメラ装置100は、ネットワーク300を介してフレームレート10fpsで画像40を配信可能であり、サーバ装置200は、ネットワーク300を介してフレームレート5fpsで画像40Aを受信し処理可能であるものとする。
このように、サーバ装置200において画像を処理可能なフレームレートは、カメラ装置100において画像を配信可能なフレームレートよりも低い場合、カメラ装置100が撮像処理した画像のうち、配信されない画像が存在することになる。図4に示す例では、カメラ装置100が撮像処理した画像のうち半分はサーバ装置200へ配信されない。そのため、カメラ装置100によって撮像された画像内に動体を含む画像が存在する場合であっても、その動体を含む画像がサーバ装置200へ配信されない場合がある。その場合、サーバ装置200において動体検知、人体検知、人物認識などの解析を適切に行うことができない。
つまり、サーバ装置200における動体の検知精度は、サーバ装置200が画像を受信し処理できるフレームレートによって決まる。一方、カメラ装置100が動体検知機能を有する場合、カメラ装置100における動体の検知精度は、カメラ装置100が画像を処理できるフレームレートによって決まる。そのため、サーバ装置200の処理フレームレートが、カメラ装置100での処理フレームレートよりも低い場合、カメラ装置100において検知できた動体が、サーバ装置200では検知できないといったことが発生する。
例えば、図5(a)に示すように、カメラ装置100が一定期間に撮像処理したフレーム1からフレーム10までの複数の画像40のうち、フレーム4の画像中に動体が存在している場合について説明する。この場合、カメラ装置100は、フレーム1からフレーム10までの複数の画像40について、それぞれ解析処理(動体検知処理)を行うことで、フレーム4の画像中に動体が存在していると判断する。つまり、カメラ装置100は、フレーム3とフレーム4との間の画像差分と、フレーム4とフレーム5との間の画像差分とに基づいて、フレーム4において画像中に動体が存在していると判断する。
ところが、カメラ装置100が、フレーム1、フレーム3、フレーム5、フレーム7、フレーム9の画像40をサーバ装置200へ配信してしまうと、サーバ装置200が取得する画像40Aには、フレーム4に対応する画像が含まれない。サーバ装置200は、フレーム1、フレーム3、フレーム5、フレーム7、フレーム9にそれぞれ対応するフレーム1A〜フレーム5Aの画像40Aに基づいて動体検知を行うため、フレーム4に含まれる動体を適切に検知することができないおそれがある。
そこで、本実施形態では、カメラ装置100は、自装置において撮像処理した画像のうち、配信先であるサーバ装置200において動体を検知しやすい画像(解析処理の精度が向上する画像)を配信するようにする。具体的には、カメラ装置100は、フレーム1からフレーム10までの画像40に対して動体検知処理を行い、動体が検知された画像を優先的にサーバ装置200へ配信するようにする。これにより、サーバ装置200においても適切に画像の解析を行うことができる。ここで、サーバ装置200へどの画像を配信するかは、カメラ装置100の配信データ判断部107(図1)が判断する。
図5(b)は、カメラ装置100において動体が検知された場合にサーバ装置200へ配信する画像の例である。図5は、カメラ装置100がフレーム4で動体を検知した場合、サーバ装置200へ、フレーム4を含むフレーム1、フレーム3、フレーム4、フレーム5、フレーム9の画像40を配信する場合について示している。例えば、サーバ装置200は、フレーム1、フレーム3、フレーム4、フレーム5、フレーム9にそれぞれ対応するフレーム1A〜フレーム5Aの画像40Aをもとに動体検知を行うことになる。そのため、サーバ装置200は、フレーム3とフレーム4との間の画像差分と、フレーム4とフレーム5との間の画像差分とに基づいて、フレーム4に含まれる動体を適切に検知することができる。そして、高精度で人体の検知および人物の認識を行うことも可能となる。
配信データ判断部107は、画像中の動体に関する情報に基づいて、サーバ装置200へどの画像を配信するかを判断する。ここで、動体に関する情報は、動体の移動情報とすることができ、動体の移動情報は、動体の移動量および移動方向の少なくとも一方を含むことができる。本実施形態では、動体の移動情報として、動体の移動量および移動方向を示す動きベクトルを用いる場合について説明する。図6は、図5(a)および図5(b)に示したフレーム1〜フレーム10にそれぞれ関連付けられた動きベクトルの量(動きベクトル量)の例である。動きベクトル量は、カメラ装置100の動体判断部106(図1)によって算出される。
動体判断部106は、時系列上連続して撮像された複数の画像について、それぞれ画像中の動体を検知する動体検知処理を行い、検知された動体の動きベクトル量を取得し、画像と関連付ける。このとき、動体判断部106は、画像中に複数の動体を検知した場合には、それぞれについて動きベクトル量を取得し、これら複数の動きベクトル量の統計をとるなどして画像に関連付ける。
配信データ判断部107は、動体判断部106によって各画像に関連付けられた動きベクトル量を比較し、動きベクトル量が大きい画像ほど動体の動きが大きいために画像差分が大きく、動体検知の度合いが高い(動体を検知しやすい)と判断する。そして、配信データ判断部107は、データ記憶部105に記憶された一定期間に撮像処理された複数の画像から、動きベクトル量の大きな画像から優先的に配信画像として選択する。ここで、上記一定期間は、予め決められた時間を元にすることができ、図6の例では、カメラ装置100が10フレーム分の画像を処理する時間としている。
図6に示す例では、フレーム4、フレーム5、フレーム3、フレーム9、フレーム1の順に動きベクトル量が大きい。したがって、この場合、配信データ判断部107は、上記の動きベクトル量が大きいフレームを配信画像として選択する。このとき、配信データ判断部107は、上記一定期間内に配信する画像の数を、画像の配信先であるサーバ装置200における処理のフレームレートに応じて一定に保つ。つまり、カメラ装置100の処理のフレームレートが10fpsであり、サーバ装置200の処理のフレームレートが5fpsである場合、カメラ装置100は、一定期間(1秒間)に撮像処理した10枚の画像のうち、5枚の画像をサーバ装置200に配信する。
次に、カメラ装置100の動作について、図7を参照しながら説明する。図7に示す処理は、例えばユーザによる撮像開始指示の入力に応じて開始される。ただし、図7の処理の開始タイミングは、上記のタイミングに限らない。カメラ装置100は、CPU11が必要なプログラムを読み出して実行することにより、図7に示す処理を実現することができる。
ただし、上述したように、図2に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図7の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU11の制御に基づいて動作する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、カメラ装置100の撮像センサ部101、A/D変換処理部102、現像処理部103および画像形成部104は、撮像処理を行い、画像を形成する。S2では、データ記憶部105は、S1において撮像処理された画像を記憶媒体に保持する。S3では、動体判断部106は、S1において撮像処理された画像に対して、動体が画像中に存在するか否かを判断する。次に、S4では、動体判断部106は、S3において判断された動体に関する情報として、動体の動きの量を示す動きベクトル量を算出し、算出した動きベクトル量を、データ記憶部105によって記憶媒体に記憶された画像に関連付ける。動きベクトル量の算出方法については後述する。
S5では、配信データ判断部107は、サーバ装置200へ配信する画像の候補となる一定期間の画像がデータ記憶部105によって保持されたか否かを判断する。ここで、上記一定期間は、上述したようにデータ記憶部105内に保持しておくことができる。配信データ判断部107は、S5において、一定期間の画像が保持されていないと判断した場合、S1に戻り、S1〜S5の処理を繰り返す。この処理を繰り返すことで、一定期間内に撮像処理された画像と、当該画像について算出された動きベクトル量とが保持される。
そして、配信データ判断部107は、S5において一定期間の画像が保持されたと判断すると、S6に移行し、一定期間に撮像処理された画像のうちどの画像をサーバ装置200へ配信するかを、動きベクトル量の算出結果に基づいて判断する。また、配信データ判断部107は、サーバ装置200へ配信すると判断した画像を、データ記憶部105によって記憶媒体に記憶された一定期間の画像の中から選択する。
S7では、配信部108は、S6において配信データ判断部107によって配信すると判断された画像を、ネットワーク300を介してサーバ装置200へ配信する。S8では、カメラ装置100は、撮像を終了するか否かを判定する。例えば、カメラ装置100は、ユーザによる撮像終了指示を入力した場合に撮像を終了すると判定し、図7の処理を終了する。一方、このS8において、カメラ装置100が撮像を継続すると判定した場合にはS1に戻り、S1〜S8の処理を繰り返す。
以下、動体判断部106における動きベクトル量の算出方法について説明する。ここでは、図8(a)に示す画像シーケンスについて、第1フレームの画像41と第2フレームの画像42との差分をもとに、画像41と画像42との間における動体ベクトル量を算出する場合について説明する。図8(a)において、画像41内には、人物51および物体52が存在し、画像42内には、人物51´および物体52´が存在している。ここで、人物51と人物51´とは同一人物であり、物体52と物体52´とは同一物体である。
動きベクトル量の算出に際し、動体判断部106は、まず画像41および画像42に対して、それぞれ特徴点の抽出処理を行う。図8(b)に、画像41および画像42における特徴点の抽出例を示す。図8(b)中における×印で示している箇所が抽出された特徴点である。ここで、人物51の特徴点61に対応する人物51´の特徴点は、画像42における特徴点61´である。また、物体52の特徴点62に対応する物体52´の特徴点は、画像42における特徴点62´である。動体判断部106は、これらの画像間において対応する特徴点について、それぞれ画像内位置の差を判断する。
図9は、画像41と画像42とを重ねて表示した図である。特徴点61と特徴点61´とに着目すると、特徴点の画像内位置に差があることがわかる。一方、特徴点62と特徴点62´とに着目すると、特徴点の位置の差は見られない。動体判断部106は、対応する特徴点の位置の差の大きさを動きの量として取り扱い、動体の動きベクトル量として評価する。つまり、図9の例では、特徴点の位置の差がある人物51(51´)が動体であり、その動きベクトルは、矢印71で表現できることになる。また、動体の動きベクトル量は、動きベクトル71の大きさ(長さ)で表現できる。このように、画像間において対応する特徴点の位置の差が大きい場合は、動きベクトル量が大きく、動体の動きが大きいと判断することができる。
動体判断部106は、画像中の各特徴点の動きベクトルを算出し、これらを統計して画像間の全体の動体の動きベクトル(移動量と移動方向)を判断する。これにより、配信データ判断部107は、動体判断部106により判断された画像間の動体の移動量をもとに、どの画像をサーバ装置200へ配信するとサーバ装置200側での動体検知率を上げることができるかを判断することができる。
以上のように、本実施形態におけるカメラ装置100は、自装置において撮像処理した複数の画像についてそれぞれ解析処理を行う。そして、カメラ装置100は、その解析処理の処理結果に応じて、複数の画像のうち、ネットワーク300を介して画像解析装置であるサーバ装置200へ配信する画像を判断し、サーバ装置200へ配信する。具体的には、カメラ装置100は、撮像処理した複数の画像のうち、サーバ装置200における解析処理の精度が向上する画像を優先的に配信する。したがって、画像の配信先であるサーバ装置200において実施される解析処理の高精度化を実現することができる。
ここで、上記解析処理は、画像中の動体を検知する動体検知処理とすることができる。つまり、カメラ装置100は、サーバ装置200側の動体検知処理においてもカメラ装置100と同様に動体を検知できる画像を選択して配信する。したがって、サーバ装置200側での動体検知率を適切に高めることができる。
カメラ装置100とサーバ装置200とにおいて、それぞれ同様の動体検知処理を行った場合、カメラ装置100において検知される動体が、サーバ装置200側では検知できない場合がある。これは、サーバ装置200側の解析処理のフレームレートに依存する。上述した図5(a)に示すように、カメラ装置100が処理可能な画像のフレームレートに比べ、サーバ装置200が処理可能な画像のフレームレートが低い場合、サーバ装置200は、カメラ装置100が配信可能な画像をすべて受信できない。そのため、カメラ装置100からサーバ装置200へ配信される画像によっては、サーバ装置200での動体検知精度は、カメラ装置100での動体検知精度より低くなってしまう。
これに対して、本実施形態では、カメラ装置100は、サーバ装置200へ配信可能なすべての画像に対して動体検知の評価を行い、その結果をもとにサーバ装置200へ配信する画像を判断する。そのため、サーバ装置200側での動体検知の精度を高めることができる。したがって、ネットワーク300への配信負荷を増大させることなく、また、サーバ装置200側での処理負荷および記憶媒体への負荷を増大させることなく、サーバ装置200における動体検知精度を向上させることができる。
具体的には、カメラ装置100は、サーバ装置200へ配信する画像の判断に際し、撮像処理した画像をもとに動体を検知し、検知された動体に関する情報を取得する。ここで、動体に関する情報は、動体の移動量を示す移動情報とすることができ、移動情報としては、動体の移動量および移動方向を示す動きベクトルを用いることができる。そして、カメラ装置200は、動体の移動量を示す動きベクトル量に基づいて、サーバ装置200へ配信する画像を判断する。このとき、カメラ装置200は、動体の移動量が大きいほど、当該動体が含まれる画像を優先的にサーバ装置200へ配信する画像として判断する。
このように、カメラ装置100は、画像中に存在する動体の動きが大きいほど、その画像は動体を検知するために必要な画像であると判断し、優先的にサーバ装置200へ配信する。つまり、カメラ装置100は、動体の検知度合いが大きい画像を優先した配信制御を行うことができる。したがって、サーバ装置200側での動体検知率を確実に向上させることができる。
また、カメラ装置100は、一定期間にサーバ装置200へ配信する画像の数が、サーバ装置200における解析処理のフレームレートに応じた一定の数となるように、当該サーバ装置200へ配信する画像を判断する。このように、カメラ装置100は、一定期間にサーバ装置200へ配信する画像の数を一定に保つので、一定期間におけるサーバ装置200側の処理負荷や容量負荷を一定に保つことができる。また、カメラ装置100は、一定期間にサーバ装置200へ配信する画像の数を、サーバ装置200における解析処理のフレームレートに応じた数、つまり、サーバ装置200が一定期間に処理可能な数とすることができる。したがって、サーバ装置200は、カメラ装置100から配信されたすべての画像について解析処理を行うことができ、適切に動体を検知することができる。
さらに、カメラ装置100のデータ記憶部105は、撮像処理された複数の画像を記憶媒体に記憶し、配信データ判断部107は、記憶媒体に記憶された複数の画像から、サーバ装置200へ配信すると判断された画像を選択して配信部108により配信する。このように、カメラ装置100は、撮像処理された複数の画像を記憶媒体に記憶するので、サーバ装置200から別の画像(追加の画像)の配信要求を受けた場合に、適切に配信対応することができる。
以上説明したように、本実施形態における画像処理システム1000は、画像処理装置として機能するカメラ装置100と、画像解析装置として機能するサーバ装置200とがネットワーク300を介して接続されている。また、カメラ装置100における撮像処理のフレームレートは、サーバ装置200における解析処理のフレームレートよりも高い。本実施形態では、このような画像処理システム1000において、ネットワークの負荷を増大することなく、また、サーバ装置200側の処理負荷や容量負荷を増大することなく、サーバ装置200における解析処理の精度を向上させることができる。
(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、動体の動きベクトル量のみに基づいて配信画像を選択する場合について説明した。この第二の実施形態では、さらに動体の位置情報を考慮して、配信画像を選択する場合について説明する。
図10は、画像43と当該画像43に続くフレームである画像44とを含む画像シーケンスの一例である。ここで、画像43内には、人物53、人物54および物体55が存在し、画像44内には、人物53´、人物54´および物体55´が存在している。ここで、人物53と人物53´、人物54と人物54´はそれぞれ同一人物であり、物体55と物体55´とは同一物体である。また、画像43内の人物53および54はそれぞれ動体であり、人物53は、画像44内において人物53´の位置に移動し、人物54は、画像44内において人物54´の位置に移動している。
人物53から人物53´への移動量と、人物54から人物54´への移動量とを比べた図を図11に示す。図11中の矢印72は、人物53から人物53´への動きベクトルであり、人物53から人物53´への移動量とその移動方向とを表している。同様に、矢印73は、人物54から人物54´への動きベクトルであり、人物54から人物54´への移動量とその移動方向とを表している。この図11からも明らかなように、矢印72の方が矢印73よりも大きい。したがって、人物53から人物53´への移動量の方が、人物54から人物54´への移動量よりも大きいことがわかる。
しかしながら、人物54および54´は、画像中において画角の端に対応する領域(画像端に近い領域)に位置している。そのため、移動量が小さくても、画角を外れて画像の外に出てしまう可能性が高い。つまり、画像端に近い位置に存在する動体は、画像内に存在している期間が少ない可能性が高く、フレームレートによっては、うまく動体として検知できない可能性が高い。
そこで、本実施形態では、動体判断部106は、動体の動きベクトル量だけでなく、動体の画像内における位置に関する情報である位置情報も取得する。そして、配信データ判断部107は、動体の動きベクトル量と位置情報とに基づいて、サーバ装置200へどの画像を配信するかを判断する。具体的には、配信データ判断部107は、動体判断部106から取得された位置情報をもとに動体の画像内位置を判断し、画像端に近い位置に動体が存在すると判断した場合、その画像を優先的にサーバ装置200へ配信するよう判断する。
図12は、本実施形態におけるカメラ装置100の動作を説明するフローチャートである。この図12において、図7と同一処理を行う部分には図7と同一ステップ番号を付し、以下、処理の異なる部分を中心に説明する。
S3において、動体判断部106が、画像中に動体が存在するか否かを判断した後、S11において、動体判断部106は、S3において判断された動体の画像内における位置情報を取得し、画像に関連付けて保持してからS4に移行する。
そして、S4において、動体判断部106が動体の動きベクトル量を算出し、画像に関連付けて保持した後、S12において、配信データ判断部107は、動体の動きベクトル量と位置情報とに基づいて画像に重み付けをする。ここで、配信データ判断部107は、動体の動きベクトル量が大きいほど、また、動体の画像内位置が画像端に近いほど、サーバ装置200への配信画像として選択しやすくなるように重み付けする。
このように、カメラ装置100は、画像中の動体に関する情報として、動体の移動量を示す移動情報と動体の位置を示す位置情報とを取得し、これらの情報を考慮して、サーバ装置200へどの画像を配信するかを判断する。したがって、サーバ装置200側における動体検知率をより適切に高めることができる。
(変形例)
上記実施形態においては、動体の動きベクトル量(移動量)や位置情報に基づいて配信画像を判断する場合について説明した。しかしながら、配信画像の判断方法は上記に限定されるものではなく、動体の移動方向を用いてもよい。この場合、動体の移動方向が画像端に向かう方向である場合、動体が画角を外れて画像の外に出てしまう可能性が高いと判断し、その画像を優先的に配信画像として判断するようにしてもよい。つまり、動体の移動量、移動方向および位置の少なくとも1つに基づいて配信画像を判断することができる。
また、上記実施形態においては、解析処理として動体検知処理を行う場合について説明した。しかしながら、上述したように、解析処理は動体検知処理に限定されない。例えば、解析処理として認識処理を行う場合、認識対象が隠れていない画像を優先的に配信画像として判断してもよい。この場合、サーバ装置200側では、適切に対象となるオブジェクトを認識することができ、さらにその認識結果をもとに、例えば特定のオブジェクトを識別する処理を行うこともできる。
さらに、上記実施形態においては、カメラ装置100が画像処理装置として機能する場合について説明した。しかしながら、カメラ装置100によって撮像された画像を記憶する記憶部を備え、サーバ装置200へネットワーク300を介して画像を配信可能な映像配信装置が画像処理装置として機能してもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1000…ネットワークカメラシステム、100…ネットワークカメラ(カメラ装置)、106…動体判断部、107…配信データ判断部、108…配信部、200…サーバ装置、300…ネットワーク

Claims (11)

  1. 画像を解析する解析処理を実行する画像解析装置に、ネットワークを介して画像を配信する画像処理装置であって、
    撮像手段により撮像された複数の画像について、それぞれ解析処理を行う解析手段と、
    前記画像解析装置における前記解析処理において処理可能なフレームレートと、前記解析手段による解析処理の処理結果に応じて、前記複数の画像のうち、ネットワークを介して前記画像解析装置へ配信する画像を選択する選択手段と、
    前記選択手段により選択された画像を、前記画像解析装置へ配信する配信手段と、を備えることを特徴とする画像処理装置。
  2. 前記選択手段は、
    前記複数の画像のうち、前記画像解析装置における解析処理の精度が向上する画像を前記配信する画像として選択することを特徴とする請求項1に記載の画像処理装置。
  3. 前記解析手段による前記解析処理は、画像中の動体を検知する動体検知処理であり、
    前記解析手段により検知された動体に関する情報を取得する取得手段をさらに備え、
    前記選択手段は、前記取得手段により取得された情報に基づいて、前記配信する画像を選択することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記取得手段は、前記解析手段により検知された動体の画像内における移動量を示す移動情報を取得し、
    前記選択手段は、前記動体の前記移動量が大きいほど、当該動体が含まれる画像を優先的に前記配信する画像として選択することを特徴とする請求項3に記載の画像処理装置。
  5. 前記取得手段は、前記解析手段により検知された動体の画像内における位置を示す位置情報を取得し、
    前記選択手段は、前記動体の前記位置が画像端に近いほど、当該動体が含まれる画像を優先的に前記配信する画像として選択することを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記選択手段は、一定期間に前記画像解析装置へ配信する画像の数が、前記画像解析装置における前記解析処理において処理可能な前記フレームレートに応じた一定の数となるように、前記配信する画像を選択することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記撮像手段により撮像された前記複数の画像を記憶する記憶手段と、
    前記記憶手段により記憶された前記複数の画像から、前記選択手段により選択された画像を、前記配信手段により配信する画像として選択する選択手段と、をさらに備えることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 請求項1から7のいずれか1項に記載の画像処理装置と、
    前記複数の画像を撮像する前記撮像手段と、を備えることを特徴とする撮像装置。
  9. 請求項8に記載の撮像装置と、前記画像解析装置とがネットワークを介して接続されており、
    前記撮像装置における撮像処理のフレームレートが、前記画像解析装置における前記解析処理において処理可能な前記フレームレートよりも高いことを特徴とする画像処理システム。
  10. 画像を解析する解析処理を実行する画像解析装置に、ネットワークを介して画像を配信する画像処理方法であって、
    撮像手段により撮像された複数の画像について、それぞれ解析処理を行うステップと、
    前記画像解析装置における前記解析処理において処理可能なフレームレートと、前記解析処理の処理結果に応じて、前記複数の画像のうち、ネットワークを介して前記画像解析装置へ配信する画像を選択するステップと、
    選択された画像を、前記画像解析装置へ配信するステップと、を含むことを特徴とする画像処理方法。
  11. コンピュータを、請求項1から7のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017031340A 2017-02-22 2017-02-22 画像処理装置、画像処理方法およびプログラム Active JP6833558B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017031340A JP6833558B2 (ja) 2017-02-22 2017-02-22 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017031340A JP6833558B2 (ja) 2017-02-22 2017-02-22 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2018137638A JP2018137638A (ja) 2018-08-30
JP2018137638A5 JP2018137638A5 (ja) 2020-02-06
JP6833558B2 true JP6833558B2 (ja) 2021-02-24

Family

ID=63367164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017031340A Active JP6833558B2 (ja) 2017-02-22 2017-02-22 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6833558B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2919211B2 (ja) * 1992-12-25 1999-07-12 日本電気株式会社 動画像のフレーム内挿方式及び符号化復号化方式
JPH10164503A (ja) * 1996-11-26 1998-06-19 Matsushita Electric Ind Co Ltd 映像処理装置及び方法
JP2003308277A (ja) * 2002-04-17 2003-10-31 Sony Corp 端末装置、データ送信装置、データ送受信システム及びデータ送受信方法
JP5115345B2 (ja) * 2008-06-11 2013-01-09 ソニー株式会社 記憶再生装置、記憶装置及び記憶再生方法
JP2012186567A (ja) * 2011-03-03 2012-09-27 Panasonic Corp 監視システム

Also Published As

Publication number Publication date
JP2018137638A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
JP6532217B2 (ja) 画像処理装置、画像処理方法、及び画像処理システム
EP2058777A1 (en) Suspicious behavior detection system and method
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20110034545A (ko) 화상 처리 장치 및 화상 처리 방법
EP3425590B1 (en) Image processing apparatus, image processing method, and storage medium
KR101530255B1 (ko) 객체 자동 추적 장치가 구비된 cctv 시스템
US10127424B2 (en) Image processing apparatus, image processing method, and image processing system
CN110199316B (zh) 相机和相机的图像处理方法
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
US11521413B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
US8923552B2 (en) Object detection apparatus and object detection method
KR20190016900A (ko) 정보 처리장치, 정보 처리방법 및 기억매체
JP7222231B2 (ja) 行動認識装置、行動認識方法及びプログラム
US10762355B2 (en) Information processing apparatus, information processing method, and storage medium to estimate queue waiting time
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
TWI671707B (zh) 影像分析方法、電子系統以及非暫態電腦可讀取記錄媒體
JP6336935B2 (ja) 移動物体追跡装置
JP6700706B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6833558B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2002027449A (ja) 移動物体識別方法および移動物体識別装置
JP2013179614A (ja) 撮像装置
JP4724888B2 (ja) 移動体検知装置、移動体撮像システム、移動体撮像方法、および移動体検知プログラム
JP5947588B2 (ja) 監視装置
JPH10255058A (ja) 動作検出装置および動作検出方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151