WO2017221643A1 - 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、画像処理システム、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2017221643A1
WO2017221643A1 PCT/JP2017/020052 JP2017020052W WO2017221643A1 WO 2017221643 A1 WO2017221643 A1 WO 2017221643A1 JP 2017020052 W JP2017020052 W JP 2017020052W WO 2017221643 A1 WO2017221643 A1 WO 2017221643A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
image
human
candidate point
detection frame
Prior art date
Application number
PCT/JP2017/020052
Other languages
English (en)
French (fr)
Inventor
和博 嶋内
小橋 貴志
正和 海老原
優嗣 小野
秀敏 永野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/307,743 priority Critical patent/US10867166B2/en
Priority to CN201780037053.2A priority patent/CN109313805A/zh
Priority to JP2018523634A priority patent/JP6904346B2/ja
Publication of WO2017221643A1 publication Critical patent/WO2017221643A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

画像からの人検出処理を軽量な演算で高精度に実行する装置、方法を提供する。画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内画像が人であるか否かを判定し、人と判定したウィンドウに人候補点1を設定する。さらに、人候補点1、またはその周辺画素を含む人判定検出枠を設定し、人判定検出枠内の画像特徴量に基づく人判定処理を実行し、人であると判定した場合、人判定検出枠内に人候補点2を設定する。さらに、人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、人判定検出枠内の画像が人であるか否かを最終判定する。

Description

画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、画像処理システム、および画像処理方法、並びにプログラムに関する。さらに詳細には、画像からの人検出処理を実行する画像処理装置、画像処理システム、および画像処理方法、並びにプログラムに関する。
 昨今、駅、ビル、公道、その他の様々な場所に監視カメラが設置されている。これら監視カメラの撮影画像は、例えばネットワークを介してサーバに送信され、データベース等の記憶手段に記憶され、サーバ、あるいはネットワーク接続された情報端末を適用した様々なデータ処理に利用される。
 サーバや情報端末が実行するデータ処理は、例えば、特定人物の検索、追跡処理等である。
 このような監視カメラを用いた監視システムでは、撮影画像データから人物等の特定オブジェクトを検出するための処理として、動体検出や、顔検出、あるいは人検出等、様々な種類の検出処理を組み合わせて実行する。
 カメラ撮影画像からの人等の検出、追跡処理は、例えば、様々な事件の不審者や犯人捜査に活用されている。
 画像から人を検出する処理は、一般的に演算量が多く監視カメラ内で実行することが困難である。多くの現行の監視システムでは、監視カメラの撮影画像を、ネットワークを介してサーバに送信し、サーバ側で蓄積した画像を利用して人検出処理を実行する構成となっている。
 例えば、特許文献1(特開2011-209794号公報)では、複数台のカメラと、温度検出センサ等のセンサがネットワークを介して接続され、これらの各機器から得られた画像やセンサ情報をサーバに集約し、人体検出処理を行う構成を開示している。
 しかし、多台数の監視カメラの映像を集中的に処理することはサーバにとっても負荷が大きく、映像解析コストが膨大になり、大規模なシステムを用いる必要性が発生し、結果として、例えば、犯人検出に要する処理時間が長引くといった問題を発生させる。
 特許文献2(特許第5179132号公報)は、このようなサーバ負荷の増大を解決する一つの構成例を開示している。
 具体的には、各監視カメラの撮影画像に基づいて、各監視カメラ内で人検出処理を実行し、その結果のみをサーバに送信する。サーバは各監視カメラから受信する人検出結果のみを用いて、例えば特定の服装等、特定の特徴を持つ人物を抽出するといった分散処理型システムである。
 しかし、各監視カメラ内で実行可能なデータ処理量には限界がある。特許文献2に記載の構成は、各監視カメラにおいて、動体が所定数の複数フレームで連続検出された場合に人とみなす人検出処理を行なう構成としている。
 しかし、このような人検出処理では、車や動物等、人でない動体についても、全て人とみなす誤検出が多発してしまう。
 この結果、多くの誤検出結果がサーバに集積し、サーバは、正しい人の検出結果データと誤検出結果データとの判別処理を実行しなければならなくなるという新たな負荷が発生する。
 さらに、特許文献3(特開2010-062942号公報)は、各監視カメラにおいて、動体検出と顔検出を組み合わせた人検出を実行し、この組み合わせ処理によって人が検出された場合に、ネットワーク接続されたサーバ側に異常検知信号を出力する構成を開示している。
 しかし、この特許文献3に記載の構成では、人検出の判断に、顔検出がなされることが条件であり、この結果、人の後ろ向きの画像等、顔が含まれない画像の場合、その画像に人が含まれていても人検出ができないという問題がある。
 なお、特許文献3では、顔検出回路を人体検出回路に置き換えてもよいとしているが、その場合の具体的な人検出構成についての言及はない。
特開2011-209794号公報 特許第5179132号公報 特開2010-062942号公報
 本開示は、例えば、上述の問題点に鑑みてなされたものであり、演算量を削減した高精度な人検出処理を実現する画像処理装置、画像処理システム、および画像処理方法、並びにプログラムを提供する。
 本開示の一実施例においては、例えばサーバとネットワーク接続された監視カメラ各々において、演算量を削減した高精度な人検出処理を実行し、その人検出結果をサーバ等に送信可能とした画像処理装置、画像処理システム、および画像処理方法、並びにプログラムを提供する。
 本開示の第1の側面は、
 画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行する画像処理装置にある。
 さらに、本開示の第2の側面は、
 画像を撮影するカメラと、
 前記カメラとネットワーク接続されたサーバを有する画像処理システムであり、
 前記カメラは、
 撮影画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 撮影画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行し、
 前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して前記サーバに送信する画像処理システムにある。
 さらに、本開示の第3の側面は、
 画像を撮影するカメラと、
 前記カメラとネットワーク接続されたサーバと情報端末を有する画像処理システムであり、
 前記カメラは、
 撮影画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 撮影画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行し、
 前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して、撮影画像に併せて前記サーバに送信し、
 前記サーバは、前記カメラから受信する撮影画像とメタデータを記憶部に格納し、
 前記情報端末からの処理要求に応じて、記憶部に格納した撮影画像とメタデータを適用したオブジェクト検索または追跡処理を実行する画像処理システムにある。
 さらに、本開示の第4の側面は、
 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行する画像処理方法にある。
 さらに、本開示の第5の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、画像からの人検出処理を実行するデータ処理部を有し、
 前記プログラムは、前記データ処理部に、
 画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1と、
 前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、画像からの人検出処理を軽量な演算で高精度に実行する装置、方法が実現される。
 具体的には、画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内画像が人であるか否かを判定し、人と判定したウィンドウに人候補点1を設定する。さらに、人候補点1、またはその周辺画素を含む人判定検出枠を設定し、人判定検出枠内の画像特徴量に基づく人判定処理を実行し、人であると判定した場合、人判定検出枠内に人候補点2を設定する。さらに、人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、人判定検出枠内の画像が人であるか否かを最終判定する。
 本構成により、画像からの人検出処理を軽量な演算で高精度に実行する装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の画像処理が適用可能な画像処理システムの一例について説明する図である。 画像処理装置(カメラ)の生成するメタデータについて説明する図である。 画像処理システムの実行する処理シーケンスについて説明するフローチャートを示す図である。 画像処理システムの実行する処理シーケンスについて説明するフローチャートを示す図である。 画像処理装置(カメラ)の構成例について説明する図である。 画像処理装置の実行する処理の処理シーケンスについて説明するフローチャートを示す図である。 動体検出処理例について説明する図である。 画像処理装置の実行する処理の処理シーケンスについて説明するフローチャートを示す図である。 分割小領域設定ウィンドウを適用した人検出処理例について説明する図である。 分割小領域設定ウィンドウを適用した人検出処理例について説明する図である。 分割小領域設定ウィンドウを適用した人検出処理例について説明する図である。 分割小領域設定ウィンドウを適用した人検出処理例について説明する図である。 分割小領域設定ウィンドウを適用した人検出処理例について説明する図である。 分割小領域設定ウィンドウを適用した人検出処理例について説明する図である。 人候補点1リストの例について説明する図である。 人候補点1リストの例について説明する図である。 画像処理装置の実行する処理の処理シーケンスについて説明するフローチャートを示す図である。 人判定検出枠を適用した人判定処理例について説明する図である。 人判定検出枠を適用した人判定処理例について説明する図である。 人判定検出枠を適用した人判定処理例について説明する図である。 人判定検出枠を適用した人判定処理例について説明する図である。 人判定検出枠を適用した人判定処理例について説明する図である。 人候補点2リストの例について説明する図である。 人判定検出枠や人候補点2のマージ処理例について説明する図である。 画像処理装置の実行する処理の処理シーケンスについて説明するフローチャートを示す図である。 画像処理装置の実行する人判定の最終検証処理の一例について説明する図である。 画像処理装置の実行する人判定の最終検証処理の一例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、画像処理システム、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の処理の適用可能な画像処理システムの構成例について
 2.画像処理装置の構成例について
 3.画像処理装置の実行する具体的な処理について
 4.画像処理装置の実行する人検出処理1の詳細について
 5.画像処理装置の実行する人検出処理2の詳細について
 6.画像処理装置の実行する最終検証処理とメタデータ生成処理の詳細について
 7.その他の実施例について
 8.本開示の構成のまとめ
  [1.本開示の処理の適用可能な画像処理システムの構成例について]
 まず、本開示の処理の適用可能な画像処理システムの構成例について説明する。
 図1は本開示の処理の適用可能な画像処理システムの一構成例を示す図である。
 図1に示す画像処理システムは、少なくとも1台以上のカメラ10-1~nとサーバ20、情報端末30がネットワーク40を介して接続されている。
 各カメラ10-1~nは、映像の撮影・記録・解析を行い、ネットワーク40を介して、映像データと映像の解析結果として得られる情報(メタデータ)を生成して出力する。
 サーバ20は、ネットワーク40を介して、各カメラ10から撮影画像(映像)と、画像対応メタデータを受信し、記憶部(データベース)に蓄積するとともに、情報端末30からの検索要求等のユーザ指示を、入力し、データ処理を行なう。
 サーバ20は、例えば、情報端末30から入力するユーザ指示に応じて、各カメラ10-1~nから受信した撮影画像とメタデータを用いて、画像内の特定のオブジェクト、例えば特定の人物の検索処理や、追跡処理等のデータ処理を実行する。
 情報端末30は、ユーザからの指示、例えば特定人物の検索要求等の指示情報を入力し、入力した指示情報を、ネットワーク40を介してサーバ20へ送信する。また、サーバ20からの検索結果や追跡結果としての画像や検索・追跡結果情報等を受信し、ディスプレイへ出力する処理などを実行する。
 なお、図1では、サーバ20と、情報端末30を個別の構成とした例を示しているが、情報端末30とサーバ20の機能を持つ1つの情報処理装置を設定した構成としてもよい。
 また、図1では、サーバ20、情報端末30を各々1台のみ示しているが、これらの機器を、複数、ネットワーク40に接続し、各サーバ、各情報端末において、様々な情報処理を実行し、処理結果を相互に送受信する構成とするなど、様々な構成が可能である。
 次に、図2を参照して、カメラ10-1~n各々が、サーバ20に送信するデータの例について説明する。
 なお、、カメラ10-1~nは、サーバ20に限らず、情報端末30に対してデータ送信を行うことも可能である。
 図2に示すように、カメラ10は、メタデータと画像データを送信する。
 画像データは、カメラ10の撮影する画像、具体的には、動画像を構成する画像フレームである。メタデータは、各画像フレーム対応のデータであり、画像フレーム単位で設定される。
 メタデータは、対応付けられた画像フレームに関する様々な情報によって構成される。
 図2に示すように、メタデータは、先頭にヘッダが記録され、その後に画像フレームからの検出情報、具体的には、人やその他の動体オブジェクトに関する情報等を記録したペイロードが設定される。
 図2に示すように、ヘッダには、画像から検出されたオブジェクトデータを読み込むために必要な情報、例えば、記録されているオブジェクトの数や、すべてのオブジェクトに共通の情報、例えば、記録時刻情報等が含まれる。
 また、メタデータのペイロードには、図2に示すように、メタデータに対応付けられた画像フレームから検出された検出オブジェクト単位のデータ、具体的には、例えば、以下のオブジェクト対応データが記録される。
 (1)オブジェクトの種類(人、人以外)
 (2)オブジェクト位置(x,y座標情報)
 (3)オブジェクトサイズ(width、height)
 例えば、これらのオブジェクト情報が、画像フレームから検出されたオブジェクト単位で記録される。
 本開示の画像処理装置の一例であるカメラ10は、画像を撮影し、図2に示すような撮影画像に関するメタデータを生成して、画像とともにサーバ等に送信する処理を行なう。
 すなわち、本開示の画像処理システムでは、画像を撮影するカメラ各々が、撮影画像に関する画像解析を実行し、解析結果に基づくメタデータを生成して送信する。
 なお、カメラ10の実行する画像解析処理は、以下の各処理を含む解析処理である。
 (a)撮影画像に動体が含まれるか否かの動体検出処理
 (b)検出動体が人であるか、人以外(例えば車等)であるかを判別する人判別処理、
 これらの具体的な処理例については、後段で説明する。
 図3に示すフローチャートは、図1に示す画像処理システムの実行する処理の処理シーケンスの一例を説明するフローチャートである。
 各ステップの処理について説明する。
  (ステップS11)
 まず、ネットワーク40に接続されたカメラ10-1~nの各々が、画像を撮影し、撮影画像の解析処理を実行する。
 上述したように、例えば以下の画像解析処理を実行する。
 (a)撮影画像に動体が含まれるか否かの動体検出処理
 (b)検出動体が人であるか人以外(例えば車等)であるかを判別する人判別処理、
  (ステップS12)
 さらに、カメラ10-1~nは、カメラ撮影画像と、撮影画像に基づく解析結果を含むメタデータを、ネットワーク40を介してサーバ20に送信する。
  (ステップS13)
 サーバ20は、カメラ10-1~nから受信した画像データ、および画像に対応付けられたメタデータをサーバ20内の記憶部に格納する。
  (ステップS14)
 次に、情報端末30は、サーバ20に蓄積された画像、および画像解析結果を含むメタデータを取得し、表示部に表示する。
 具体的には、例えばカメラの撮影画像の表示に合わせて、表示画像に含まれる各オブジェクトについて、動体であるか否かの識別情報、さらに、オブジェクトが動体である場合、その動体オブジェクトが人であるか否かを識別可能とした表示情報の表示処理が実行される。
 なお、サーバ20や、情報端末30も必要に応じて画像とメタデータの解析を行うことが可能である。例えば、各カメラ10で行われなかった解析処理や各カメラ10で実施した解析を補う処理、ユーザにとって有用な情報の抽出、あるいは画像にメタデータの情報を可視化して重畳させて表示するといった処理を行なう構成としてもよい。例えば、オブジェクト種別が人であるオブジェクトに枠を重畳するといった表示処理等である。
 また、サーバ20は、記憶部に蓄積した画像や、解析結果としてのオブジェクト種別等の情報を可視化して画像に重畳した表示データを、ネットワーク40を介して情報端末30に送信する構成としてもよい。
 情報端末30は、これらサーバ20から受信するデータを選択的に、または、すべて取得して描画し、ディスプレイ等へ出力することが可能である。
 情報端末30は、メタデータやユーザにとって有用な情報、例えば撮影時刻や解析結果の統計情報などをサーバ20から選択的に、または、すべて受け取って、情報端末で必要な加工・処理を行い、ディスプレイに出力することが可能である。
 図4に示すフローチャートは、情報端末30からサーバ20に処理要求を送信してサーバにおいてデータ処理を実行する処理の一処理例を説明するフローチャートである。
 各ステップの処理について説明する。
  (ステップS21)
 ステップS21において、情報端末30は、サーバ20から取得した画像と、画像解析結果に基づいて、特定オブジェクト、例えば特定の人物の検索、あるいは追跡処理要求をサーバ20に送信する。
  (ステップS22)
 情報端末30からの処理要求を受信したサーバ20は、ステップS22において、特定オブジェクト、例えば特定の人物の検索、あるいは追跡処理を実行し、その処理結果を情報端末30に送信する。
  (ステップS23)
 サーバ情報20から処理結果を受信した情報端末30は、ステップS23において、処理結果として取得した特定オブジェクト、例えば特定の人物の検索、あるいは追跡処理結果をディスプレイに表示する。
 例えば追跡対象とした特定人物のみに識別枠を設定した画像の表示処理を実行する。
  [2.画像処理装置の構成例について]
 次に、図5を参照して、本開示の画像処理装置の一例であるカメラの構成例について説明する。
 図5は、本開示の画像処理装置(カメラ)100の一構成例を示すブロック図である。画像処理装置(カメラ)100は、図1に示すカメラ10に相当する。
 図5に示すように、画像処理装置(カメラ)100は、レンズ101、イメージセンサ102、画像処理部103、センサ104、メモリ105、通信部106、駆動部107、CPU108、GPU109、DSP110を有する。
 撮影画像は、レンズ101を介してイメージセンサ102に撮り込まれる。
 イメージセンサ102は、例えばCCD(Charge Coupled Devices)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどである。
 画像処理部103は、イメージセンサ102から出力される画像データ(RAW画像)を入力し、入力したRAW画像に含まれるノイズを低減するノイズ低減処理の他、RAW画像の各画素位置にRGBの全色に対応する画素値を設定するデモザイク処理や、ホワイトバランス(WB)調整、ガンマ補正等、一般的なカメラにおける信号処理を実行する。
 センサ104は、画像撮影を最適な設定で行うためのセンサ、例えば輝度センサ等であり、センサ104の検出情報に応じて画像撮影の撮影態様が制御される。
 メモリ106は、撮影画像の格納、画像処理装置100において実行する処理プログラム、各種パラメータ等の格納領域として利用されるRAM,ROM等によって構成されるメモリである。
 通信部106は、図1に示すサーバ20や、情報端末30とのネットワーク40を介した通信処理に利用する通信部である。
 駆動部107は、画像撮影のためのレンズ駆動、絞り制御等、画像撮影に必要となる様々な駆動処理を行なう。この駆動処理は、例えばセンサ104の検出情報を用いて、CPU108の制御の下に実行される。
 CPU108は、画像処理装置(カメラ)100の実行する画像撮影、画像解析、メタデータ生成、通信処理等の様々な処理の制御を実行する。メモリ105に格納されたデータ処理プログラムに従って様々な処理を実行するデータ処理部として機能する。
 GPU(グラフィックプロセッサユニツト)109、および、DSP(デジタルシグナルプロセッサ)110は、例えば撮影画像に対する画像処理等を実行するプロセッサであり、撮影画像の解析処理等に利用される。CPU108と同様、メモリ105に格納されたデータ処理プログラムに従って様々な画像処理を実行するデータ処理部として機能する。
 なお、本開示の画像処理装置(カメラ)100は、撮影画像からの動体検出処理や人検出処理を行なう。
 これらのデータ処理は、データ処理部として機能する画像処理部103、CPU108、GPU109、DSP110等を適用して実行される。このデータ処理に適用する処理プログラムはメモリ105に格納される。
 なお、例えば、画像処理部103内に専用のハードウェア回路を実装し、専用ハードウェアを適用して動体検出や人検出処理を実行する構成としてもよい。
 さらに、専用ハードウェアによる処理とプログラムに従ったソフトウェア適用処理を適宜、組み合わせて処理を実行する構成としてもよい。
  [3.画像処理装置の実行する具体的な処理について]
 次に、画像処理装置(カメラ)の実行する具体的な処理について説明する。
 図6は、画像処理装置(カメラ)の実行する撮影画像からの人検出処理の処理シーケンスを示すフローチャートである。
 本開示の人検出処理は、データ処理機能の高いPC等の情報処理装置でなく、比較的、データ処理機能が低いカメラ等でも、画像の解析による人検出を可能とするため、人検出処理に必要となる演算量の大幅な削減を実現している。
 例えばカメラの撮影画像から人検出を行なおうとする場合、従来の一般的な処理においては、画像を構成する各画素について、特徴量を算出し、算出した特徴量と、人の画像の特徴データを登録した学習辞書との照合処理を行なう。
 この特徴量算出処理と辞書照合処理は、画像内のすべての画素、または、動体が検出された画素すべてに対して行うのが一般的であり、処理負荷が増大する要因となっている。
 さらに、撮影画像には、カメラからの距離に応じて異なる大きさの人が撮影されている。これらの様々なサイズの人の画像領域を検出するためには、画像を複数の異なる解像度の画像に変換し、異なる解像度の画像各々について、階層的に辞書との照合処理を行なわなければならない。
 これらの処理により、特徴量算出処理、辞書照合処理も複数回、行なう必要があり、さらに処理負荷が増大してしまう。
 このような従来の人検出処理の過大な処理負荷を軽減するため、本開示の処理においては、予め、演算量の少ない簡易な「人検出処理1」を実行し、撮影画像から人と推定される画素領域、すなわち人候補点1を絞り込む処理を行なう。
 その後、その人候補点1と周辺の画素領域のみを処理対象とした特徴量算出と辞書照合処理を「人検出処理2」として実行する。
 このような2段階の処理を行なうことで、従来の人検出処理よりも必要とする処理量を低減し、さらに、誤検出についも低減可能とした構成を実現している。
 以下、本開示の人検出処理の詳細について説明する。
 図6は、本開示の画像処理装置(カメラ)の実行する撮影画像からの人検出処理の全体シーケンスを示すフローチャートである。
 以下、フローの各ステップの処理について説明する。
  (ステップS101)
 画像処理装置(カメラ)は、まず、ステップS101において、撮影画像からの動体検出処理を実行し、動体と背景の分離処理を行なう。
 動体検出には、例えば背景差分方式など、従来から知られる一般的な技術が適用可能である。画像に対する動体検出処理を実行した結果のデータ例を図7に示す。
 動体検出処理の結果として、図7に示すように、画素単位での動体のシルエットを得ることができる。
 また、動体に外接する枠、すなわち動体検出枠も得ることができる。
 図7には、4個の動体検出枠1,141~動体検出枠4,144を示している。
 ここで、これらの動体はあくまで動く何らかのオブジェクトであって、人であったり、車であったり、草木の揺れの誤検出であったりし、その種別までは特定できない。
 また、複数の動体が隣接、または、重なり合ってシルエットがつながり、ひとつの動体オブジェクトとみなされることもある。
  (ステップS102)
 ステップS101における動体検出処理の後、ステップS102において、動体検出結果を用いて、「人検出処理1」を実行する。
 前述の通り、従来の人検出処理の過大な処理負荷を軽減するため、本開示の処理においては、予め、演算量の少ない簡易な「人検出処理1」を実行し、撮影画像から人と推定される画素領域、すなわち「人候補点1」を絞り込む処理を行なう。
 その後、その「人候補点1」と周辺の画素領域のみを処理対象とした特徴量算出と辞書照合処理を「人検出処理2」として実行する。
 ステップS102の人検出処理1は、上記の人候補点絞り込み処理に相当する。
 ステップS103の人検出処理2が、候補点と周辺の画素領域のみを処理対象とした特徴量算出と辞書照合処理に対応する。
 ステップS102で実行する人検出処理1は、ステップS103において実行する人検出処理2よりも軽量な演算によって実行することが可能である。
 なお、この人検出処理1の詳細については、後段で説明する。
 ステップS102では、人検出処理1を実行し、人の候補となる点(人候補点1)が、1つ以上検出された場合、検出された「人候補点1」の座標位置情報等を記録した「人候補点1リスト」を生成する。
 このリストの詳細については後述する。
  (ステップS103)
 ステップS101における動体検出処理、ステップS102における「人検出処理1」の後、ステップS103において、「人検出処理2」を実行する。
 この処理は、ステップS102で検出した「人候補点1」に対応する画素と、その周辺の画素領域のみを処理対象とした特徴量算出と、算出した特徴量と、辞書に登録された人画像の登録特徴量とを比較照合する辞書照合処理である。
 ステップS103で実行する「人検出処理2」は、一般的な辞書ベースの人検出方法を用いればよい。
 なお、この「人検出処理2」の詳細についても、後段で説明する。
 このステップS103における「人検出処理2」は、前述の通り、「人候補点1とその周辺画素」のみを処理対象として、特徴量算出と辞書照合処理を実行するものであり、画像全体の画素を処理対象とする従来の処理に比較すると、処理量を大きく削減することができる。
 「人検出処理2」を実行し、人の候補となる点(人候補点2)が、1つ以上検出された場合、検出された「人候補点2」の座標位置情報等を記録した「人候補点2リスト」を生成する。
  (ステップS104)
 最後に、ステップS101で実行した動体検出処理の結果得られた動体検出枠と、ステップS103における「人検出処理2」の結果として得られた「人候補点2」の各情報を用いて最終検証処理と、メタデータ生成処理を実行する。
 この最終検証処理は、ステップS103における「人検出処理2」の結果として得られた「人候補点2」が設定された動体が本当に「人」であるか否かを再検証する処理であり、例えば、誤検出データの検出および除去処理や、前後の撮影画像フレームを用いた検証処理を行なう。
 監視カメラの設置状況は、人検出にとって必ずしも好条件であるとは限らない。例えば、暗所や日照・天候変化のある場所で人の姿がクリアに撮影できない環境であることがある。また、人とカメラの間に障害物が映り込み、カメラの撮影できないオクルージョン領域が発生することもある。カメラの俯角、人の映る向きなど、人の判別が困難になる状況が多々、発生する。
 これらの外的要因により、ステップS103における「人検出処理2」の結果として得られた「人候補点2」には、実際は人ではない誤検出点が含まれることがある。また、本来、人候補点2として検出されるべき点が未検出となったりすることがある。
 そこで、ステップS104において、ステップS103で検出した「人候補点2」の再検証を行い、最終的に動体検出枠内のオブジェクトが人であるか否かを最終判断する処理を行なう。
 この最終判断の結果として得られた結果に基づいて、メタデータ、すなわち、先に図2を参照して説明したメタデータに、オブジェクト種類として「人」、または「人以外」のデータを記録する。
  [4.画像処理装置の実行する人検出処理1の詳細について]
 次に、図6のフローチャートを参照して説明したステップS102の「人検出処理1」の詳細について、図8以下を参照して説明する。
 図8は、図6のフローチャートを参照して説明したステップS102の「人検出処理1」の詳細シーケンスについて説明するフローチャートである。
 以下、図8に示すフローの各ステップの処理について、順次、説明する。
  (ステップS201)
 まず、画像処理装置(カメラ)は、ステップS201において、撮影画像の画像フレームから処理対象とする動体検出枠を選択する。
 動体検出枠は、先に説明した図6に示すフローのステップS101において検出した動体検出枠である。
 図6に示すフローのステップS101において、例えば、図7に示すように、画像に複数の動体検出枠が設定される。
 ステップS201では、まず、処理対象とする1つの動体検出枠を選択する。
  (ステップS202)
 次に、処理対象として選択した動体検出枠を処理領域として、動体検出枠内に、分割小領域設定ウィンドウを移動させて、小領域単位の動体画素数をカウントする処理を実行する。
 この処理の詳細について、図9を参照して説明する。
 図9には、ステップS202の処理において適用する「分割小領域設定ウィンドウ151」と、2つの動体検出枠に対するウィンドウの設定、移動例を示している。
 分割小領域設定ウィンドウ151は、例えば、図9に示すように、複数の矩形型の小領域に分割された矩形型のウィンドウである。
 図9に示す例において、小領域はa~hの8つの小領域によって構成される。
 これらの小領域に分割されたウィンドウを、動体検出枠内に設定し、その設定位置において、ウィンドウ内の小領域a~g各々に含まれる動体画素数をカウントする。
 なお、ウィンドウ151は、動体検出枠内のすべての設定可能な位置に設定して、各位置において小領域単位の動体画素数のカウント処理を実行する。
 例えば、図9(a)には、図7に示す動体検出枠3,143に対応する動体検出枠の図を示している。
 図9(a)に示す動体検出枠3,143内の白で示す画素領域が動体画素である。黒で示す領域は、動きのない画素、すなわち非動体画素である。
 分割小領域設定ウィンドウ151は、まず、図9(a)に示す動体検出枠3,143の左上端に設定される。図9に示すウィンドウ開始位置152Sである。
 この位置において、分割小領域設定ウィンドウ151内の各小領域a~g各々について、各小領域に含まれる動体画素数(=白で示す領域の画素数)をカウントする。
 この図9に示すウィンドウ開始位置152Sにおいて、小領域a~gの動体画素数のカウントが終了すると、そのカウント値をメモリに記憶し、分割小領域設定ウィンドウ151を右に1画素移動させる。
 この移動位置において、同様に、小領域a~gの動体画素数のカウントを実行してカウント値をメモリに格納する。
 さらに、右に1画素移動させて同様の処理を実行する。ウィンドウが動体検出枠の右端に到達したら、次に、ウィンドウを下に1画素ずらして、同様の処理を実行し、次に、ウィンドウを左に1画素、ずらして同様の処理を実行する。
 このようにウィンドウの移動処理と小領域単位の動画素カウント処理を、繰り返し実行し、分割小領域設定ウィンドウ151が、図9(a)に示す動体検出枠3,143の右下端のウィンドウ終了位置152Eに到達して、動体画素数カウント処理が終了すると、この1つの動体検出枠に対する小領域単位の動体画素数カウント処理を終了する。
 図9(b)は、図7に示す動体検出枠4,144に対する分割小領域設定ウィンドウ151を適用した小領域単位の動体画素数カウント処理例を示す図である。
 図9(b)に示す例では、ウィンドウの横幅が、動体検出枠4,144の横幅に一致しているため、ウィンドウ151は、動体検出枠の上端をウィンドウ開始位置153Sとして、小領域単位の動体画素数のカウントを開始し、カウント終了後、ウィンドウ151を下に1画素ずらして、その位置でのカウント処理を行なう。
 その後、ウィンドウを順次、1画素ずつ下にずらして、小領域単位の動体画素数カウント処理を繰り返し、図9(b)に示すように、分割小領域設定ウィンドウ151が、図9(b)に示す動体検出枠の下端のウィンドウ終了位置153Eに到達して、動体画素数カウント処理が終了すると、この1つの動体検出枠に対する小領域単位の動体画素数カウント処理を終了する。
 なお、図9(a),(b)に示す例においては、いずれも、分割小領域設定ウィンドウの開始位置と終了位置を動体検出枠に内接する設定としているが、これは一例であり、分割小領域設定ウィンドウの開始位置と終了位置は様々な設定が可能である。例えば、動体検出枠の外側領域に一部はみ出した位置に分割小領域設定ウィンドウの開始位置と終了位置を設定するなど、様々な設定が可能である。
  (ステップS203)
 次に、ステップS203において、各ウィンドウ設定位置における小領域単位の動体画素数のカウント値を用いて、その動体検出枠の動体が人であるか否かを判定する処理を行なう。
 各小領域単位の動体画素比率と、あらかじめ規定した小領域単位のしきい値とを比較し、比較結果に基づいて、ウィンドウを設定した動体検出枠内の動体が人であるか否かを判定する。
 この具体的処理例について、図10を参照して説明する。
 図10には、図9(b)を参照して説明した動体検出枠4,144と同様の図と、動体検出枠4,144の上端に設定した小領域設定ウィンドウ151を示している。
 図10に示すように、分割小領域設定ウィンドウ  151は、8つの小領域a~gに分割されている。ステップS202において、これら分割小領域の動体画素数(=白画素領域)がカウント済みであり、カウントデータが、例えば、図10(1)分割小領域単位動体画素数としてメモリに格納されている。
 分割小領域設定ウィンドウ151に設定される分割小領域の各々については、予めしきい値が設定され、メモリに格納されている。
 このしきい値は、ウィンドウ内の画像が人であるか人でないかを判別するためのしきい値である。
 図10(2)にこのしきい値の一例を示す。
 図10(2)分割小領域単位動体画像比率しきい値は、分割小領域設定ウィンドウ151に設定される分割小領域の各々について予め規定されたしきい値の例である。
 各小領域の総画素数中、何%の画素が動体画素であれば人であると判定するかを規定したしきい値である。
 この図10(2)に示すしきい値は、ウィンドウ内の動体画素が、人の上半身(頭から胸)領域に相当するか否かを判定するためのしきい値の例である。
 図10(2)に示す例では、以下のようなしきい値が設定されている。
 小領域a,dのしきい値は、動体画素比率0~5%、
 小領域b,cのしきい値は、動体画素比率40~60%、
 小領域e,hのしきい値は、動体画素比率5~25%、
 小領域f,gのしきい値は、動体画素比率60~100%、
 図10(1)に示すウィンドウ151を設定してカウントされた動体画素数を適用して算出した各小領域単位の動体画素-比率と、図10(2)に示す予め規定されたしきい値とを比較して、ウィンドウ151内の動体が人であるか否かを判定する。
 具体的な判定処理例を図11に示す。
 図11には、動体検出枠4,144の上端に設定した分割小領域設定ウィンドウ151を用いて算出されるデータ等、以下の各データを示している。
 (1)小領域単位の動体画素カウント数
 (2)小領域単位の動体画素比率
 (3)小領域単位の動体画素比率しきい値
 (4)判定結果(小領域単位の動体画素比率が、しきい値範囲内にあるか否かの判定結果)
 なお、図11に示す例は、各小領域の総画素数=5000とした例である。
 この図11に示す例において、図11(2)に記載のウィンドウ内の小領域a~hの動体画素比率と、図11(3)に記載のしきい値と比較すると、小領域a~hの動体画素比率は、すべてしきい値の範囲内にあり、(4)の判定結果はすべて「Yes」と判定されている。
 このような場合は、ウィンドウの設定された動体検出枠内の動体は人であると判定する。
 なお、図11に示す例は、小領域a~gの動体画素比率が、すべてがしきい値内にあり、すべての小領域の判定結果が「Yes」と判定された例であるが、
 動体検出枠内の動体が人であると判定する条件は、様々な設定が可能であり、小領域の動体画素比率が、すべてがしきい値内にあることを必須とするものではない。
 例えば、小領域a~gの動体画素比率の2/3以上が、しきい値内にあれば、人であると判定する等、様々な設定が可能である。
 また、図9~図11に示す分割小領域設定ウィンドウ151は、各小領域の動体画素に基づいて、ウィンドウ設定領域の動体が、人の上半身(顔~胸)に相当するか否かを判定するための8分割型ウィンドウであるが、このウィンドウの設定や分割数は、人判定に用いる1つの代表例を示すものである。
 この図9~図11に示す分割小領域設定ウィンドウ151以外にも、例えば頭から足先までをカバーするウィンドウ等、様々なタイプのウィンドウが設定可能であり、また、各ウィンドウタイプに応じた様々な分割小領域の設定が可能である。
 図8のフローチャートに戻り、図6のフローのステップS102の「人検出処理1」の詳細シーケンスについての説明を続ける。
 図8に示すフローチャートのステップS203では、図9~図11を参照して説明したように、各ウィンドウ設定位置における小領域単位の動体画素数のカウント値を用いて、その動体検出枠の動体が人であるか否かを判定する。すなわち、図11に示すように、各小領域単位の動体画素比率と、あらかじめ規定した小領域単位のしきい値とを比較し、比較結果に基づいて、ウィンドウを設定した動体検出枠内の動体が人であるか否かを判定する。
  (ステップS204)
 ステップS204は、ステップS203の判定処理においてウィンドウ内の動体を人であると判定したか否かに応じた分岐処理である。
 ステップS203の判定処理においてウィンドウ内の動体を人であると判定した場合は、ステップS204の判定が(Yes)となり、ステップS205に進む。
 一方、ステップS203の判定処理においてウィンドウ内の動体を人でないと判定した場合は、ステップS204の判定が(No)となり、ステップS206に進む。
  (ステップS205)
 ステップS205の処理は、ステップS203の判定処理においてウィンドウ内の動体を人であると判定した場合に実行される処理である。
 この場合、ステップS205において、ウィンドウ内に「人候補点1」を設定し、人候補点1リストに「人候補点1」の座標情報等を記録する。
 この処理について、図12を参照して説明する。
 図12には、図9~図11を参照して説明したと同様、動体検出枠4,144と、動体検出枠4,144の上端に設定された分割小領域設定ウィンドウ151を示している。
 分割小領域設定ウィンドウ151が、動体検出枠4,144の上端に設定された位置で、このウィンドウ内の動体が人であると判定されたものとする。
 この場合、ステップS205において、ウィンドウ内に「人候補点1」を設定し、人候補点リストに座標情報等を記録する。
 図12に示すように人候補点1,161を設定し、この人候補点1,161の座標情報(x,y)等を「人候補点1リスト」に登録する。
 なお、人候補点1,161は、例えば人と判定された位置の分割小領域設定ウィンドウ151の中心位置に設定する。
  (ステップS206)
 ステップS205において、「人候補点1」の設定と、リスト登録処理が完了した場合、あるいは、ステップS204において、ウィンドウ内の動体が人と判定されなかった場合は、ステップS206に進む。
 ステップS206では、処理対象としている画像フレーム内の動体検出枠に対する処理がすべて完了したか否かを判定する。
 処理が完了している場合は、ステップS207に進む。
 処理が完了していない場合は、ステップS201に戻り、未処理の動体検出枠に対する処理を実行する。
  (ステップS207~S208)
 ステップS206において、処理対象としている画像フレーム内の動体検出枠に対する処理がすべて完了したと判定した場合は、次に、ステップS207において、規定階層の縮小画像適用処理を全て完了したか否かを判定する。
 全て完了したと判定した場合は、処理を終了する。
 規定階層の縮小画像適用処理が完了していないと判定した場合は、ステップS208に進み、画像の縮小処理を実行して、ステップS201に戻り、縮小画像を適用したステップS201以下の処理を実行する。
 このステップS207~S208の処理例について、図13、図14を参照して説明する。
 ステップS207~S208において実行する画像縮小処理は、ステップS202~S203における分割小領域設定ウィンドウに基づく動体画素カウント処理を、縮小画像を利用して実行させるための処理である。
 例えば、図13に示すように、画像Rを縮小処理の施されていないオリジナル画像の画像サイズとする。
 図8に示すフローチャートのステップS201~S205の処理は、まず、このオリジナル画像Rを用いて実行する。すなわち、分割小領域設定ウィンドウに基づく動体画素カウント処理をオリジナル画像Rを用いて実行する。
 このオリジナル画像Rに対する処理が完了すると、ステップS208において、オリジナル画像Rの画像縮小処理を実行する。例えば、縦、横の長さを1/2に設定した縮小画像Rを生成する。
 この縮小画像Rを用いて、図8に示すフローチャートのステップS201~S205の処理を繰り返し実行する。
 以下、同様に、縮小画像R~Rを、順次、生成し、縮小画像R~Rを用いて、図8に示すフローチャートのステップS201~S205の処理を繰り返し実行する。
 なお、これらの繰り返し処理において、分割縮小領域設定ウィンドウのサイズは縮小することなく、元のサイズのままとする。
 このように、複数の縮小画像を用いた処理を繰り返し実行する理由について、図14を参照して説明する。
 図14には、オリジナルサイズの画像Rと、縮小画像Rを用いて、同一サイズの分割縮小領域設定ウィンドウを用いた小領域単位の動画素数カウント処理例を示している。
 画像を縮小することで、動体検出枠内の画像も縮小される。
 画像に撮り込まれている人物のサイズは、カメラに近ければ大きくなり、カメラから遠い場合は、小さいサイズとなる。
 すなわち、画像に撮り込まれている人物のサイズは、様々なサイズとなる。
 このような様々なサイズの人物に対して、図9~図11を参照して説明した分割小領域設定ウィンドウ151を適用した人検出を行うと、ウィンドウサイズに適応したサイズの人物領域は検出できるが、適応しないサイズの人物は検出できない。
 このようなサイズの不適合による検出ミスを防止するため、複数の縮小画像を生成し、同一サイズウィンドウを適用して人検出処理を行なう。
 このように、複数の縮小画像を適用して人検出処理を繰り返し、実行することで、様々なサイズの人領域を検出することが可能となる。
 図8に示すフローチャートのステップS207~S208の縮小画像生成処理は、このように、画像フレームに含まれる様々なサイズの人を検出可能とするための処理である。
 例えば、図13~図14に示すように、画像R~画像Rまで、複数の異なる縮小率の画像を生成し、これらの複数の画像を用いて、ステップS201以下の処理を繰り返し行う。
 図8に示すフローチャートのステップS207において、すべての規定した縮小画像を用いた処理が完了したと判定すると、処理を終了する。
 この図8に示すフローチャートに従って実行されるステップS205において、人と判定された人候補点1のリストが生成される。
 人候補点1リストの具体例について、図15、図16を参照して説明する。
 図15には、人候補点1リストの一例を示している。
 図15に示す人候補点1リストには、識別子0~4の5エントリが登録されている。
 これらの5つの登録データ(エントリ)は、図8に示すフローを実行して得られた人と判定された動体に対して設定された「人候補点1」に対応する登録データである。
 具体的には、たとえば図12に示すような人候補点1,161の各々に対応する登録データ(エントリ)である。
 なお、「人候補点1」は、分割小領域設定ウィンドウの1つの設定位置に対応して1つ検出され、「人候補点1」の設定された1つのウィンドウに隣接する多数のウィンドウにも「人候補点1」が設定される。
 これらは、いずれも画像から検出される1人の人に対応する検出点と判断され、これら近接位置の「人候補点1」は、1つのデータにマージしてリストに登録する構成としてもよい。
 なお、近接する座標位置にある複数の点を1つの点にマージするためのマージ手法としては、従来から知られるマージ手法を適用する。
 具体的には、例えば「MeanShift法」を用いて、近接領域にある複数の人候補点1を探索し、次に、「Nearest Neighbor法」を適用して、ユークリッド距離が規定しきい値以下の人候補点1のマージ処理、すなわち複数点を1つの代表点に集約するマージ処理を実行する。
 リストには、このマージ結果として得られる代表点のみの情報を登録する設定としもよい。
 図15に示す「人候補点1リスト」の例は、登録データとして、人候補点1識別子(ID)に対応付けた以下のデータを記録した例である。
 (1)x,y座標
 (2)ウィンドウの幅と高さ
 これらの各データは、縮小処理の施されていないオリジナルサイズの画像、すなわち、図13、図14に示すオリジナル画像Rにおける座標と、ウィンドウサイズとして記録する。
 なお、図15に示す例では、ウィンドウサイズは、
 40×40(画素)
 である。これは、オリジナル画像Rにおけるウィンドウサイズである。
 図15に示す人候補点識別子0,2,3は、登録データ中のウィンドウの幅と高さが40×40であり、これらのエントリは、いずれもオリジナル画像Rを用いて検出された「人候補点1」であると判断される。
 一方、図15に示す人候補点識別子1は、登録データ中のウィンドウの幅と高さが80×80であり、このエントリは、オリジナル画像Rを、縦、横とも1/2に設定した縮小画像Rを用いて検出された「人候補点1」であると判断される。
 また、図15に示す人候補点識別子4は、登録データ中のウィンドウの幅と高さが160×160であり、このエントリは、オリジナル画像Rを、縦、横とも1/4に設定した縮小画像Rを用いて検出された「人候補点1」であると判断される。
 このように、人候補点1リストには、人候補点の設定座標位置と、その「人候補点1」を検出した際に用いられたウィンドウのサイズが、いずれも縮小なしのオリジナル画像Rに対応する換算値として登録される。
 図16には、図15に示す例とは異なるデータ設定を持つ「人候補点1リスト」のもう1つの例を示している。
 図16に示す人候補点1リストにも、識別子0~4の5エントリが登録されている。
 これらの5つの登録データ(エントリ)は、図8に示すフローを実行して、得られた人と判定された動体に対して設定された「人候補点1」に対応する登録データである。
 具体的には、たとえば図12に示すような人候補点1,161の各々に対応する登録データ(エントリ)である。
 図16に示す例では、各登録データは、人候補点1識別子(ID)に対応付けられた以下の各データを記録している。
 (1)x,y座標
 (2)検出した階層画像(R~R
 x,y座標は、縮小処理の施されていないオリジナルサイズの画像、すなわち、図13、図14に示すオリジナル画像Rにおける座標として記録される。
 図16に示す例は、図15に示すリストに登録されていたウィンドウサイズの代わりに、人候補点1を検出した階層画像、すなわち、図13、図14に示す画像R~Rのいずれにおいて人候補点1が検出されたかを示す人候補点1検出階層画像情報を登録する設定としている。
 図16に示す人候補点識別子0,2,3は、いずれもオリジナル画像Rを用いて検出された「人候補点1」であることが記録される。
 一方、図16に示す人候補点識別子1は、縮小画像Rを用いて検出された「人候補点1」であることが記録される。
 さらに、図16に示す人候補点識別子4は、縮小画像Rを用いて検出された「人候補点1」であることが記録される。
 このように、図16に示す人候補点1リストは、人候補点の設定座標位置と、その「人候補点1」を検出した際に用いられた画像の識別情報を登録した例である。
 なお、図15、図16を参照して説明した人候補点1リストの他にも、様々な登録情報を設定したリストを利用可能である。
 ただし、「人候補点1」の設定位置を示す座標情報は不可欠であり、縮小なしのオリジナル画像における座標位置が算出可能なデータが必要である。
  [5.画像処理装置の実行する人検出処理2の詳細について]
 次に、先に図6のフローチャートを参照して説明したステップS103の「人検出処理2」の詳細について、図17以下を参照して説明する。
 図6のフローにおけるステップS103の「人検出処理2」は、先に説明したように、ステップS102で検出した「人候補点1」に対応する画素と、その周辺の画素領域のみを処理対象とした特徴量算出と辞書照合処理である。
 図17は、図6のフローチャートを参照して説明したステップS103の「人検出処理2」の詳細シーケンスについて説明するフローチャートである。
 以下、図17に示すフローの各ステップの処理について、順次、説明する。
  (ステップS301)
 まず、画像処理装置(カメラ)は、ステップS301において、撮影画像フレームから処理対象とする人候補点1を選択する。
 人候補点1は、先に図15、図16を参照して説明した人候補点1リストに登録され、メモリに格納されている。
 画像処理装置(カメラ)は、ステップS301において、人候補点1リストに登録された登録データ(エントリ)を1つ選択し、これを処理対象とする。さらに、リストに登録された座標データに基づいて、画像フレームから処理対象とする人候補点1の座標位置を決定する。
  (ステップS302)
 次に、ステップS302において、処理対象とした「人候補点1」を含む人判定検出枠を設定し、設定した人検出枠の枠内画像から人判定用特徴量を抽出する。
 「人候補点1」を含む人判定検出枠の設定例について、図18以下を参照して説明する。
 図18には、先説明した図8に示すフローに従って検出された人候補点1,161を含む動体検出枠4,144を示している。
 人候補点1,161は、人候補点1リストに登録された座標位置(x,y)の位置に設定されている。
 人判定検出枠は、この人候補点1,161、またはその周囲画素を含む所定面積を持つ枠として、1つ以上、設定し、各設定枠の各々について、特徴量抽出処理を行う。
 図18に示す例では、人候補点1,161を含むn個の人判定検出枠171-1~nを示している。
 人候補点1またはその周囲画素を含む複数の人判定検出枠の具体的設定例について図19を参照して説明する。
 図19は、人候補点1またはその周囲画素を含む9個の人判定検出枠の具体的設定例を説明する図である。
 図19の例は、人候補点1,180を中心とする3×3画素領域181を構成する9個の画素を中心とした9個のN×N画像を設定して、これらの人判定検出枠185-1~9をそれぞれ特徴量抽出領域とした処理を行なう例である。
 図19(1)に示す人判定検出枠設定例1は、
 人候補点1,180を中心とする3×3画素領域181を構成する9画素中の中心画素を中心とするN×N画素領域からなる人判定検出枠185-1を示している。
 図19(2)に示す人判定検出枠設定例2は、
 人候補点1,180を中心とする3×3画素領域181を構成する9画素中の左上画素を中心とするN×N画素領域からなる人判定検出枠185-2を示している。
 図19(9)に示す人判定検出枠設定例2は、
 人候補点1,180を中心とする3×3画素領域181を構成する9画素中の右下画素を中心とするN×N画素領域からなる人判定検出枠185-9を示している。
 図19には、180を中心とする3×3画素領域181を構成する9画素中の3画素を利用して、これらの画素を中心とするN×N画素の人判定検出枠185-1,2,9を示しているが、これらの他、3×3画素領域181を構成する9画素各々を中心とするN×N画素の人判定検出枠185-1~9を順次、設定し、これら9個の人判定検出枠185-1~9の各々から人判定用の特徴量抽出を行う。
 図20は、図19を参照して説明した人判定検出枠の設定例と異なる人判定検出枠195-1~mの設定例を示す図である。
 図20に示す人判定検出枠の設定例は、人候補点1,180を中心とする所定範囲の領域、例えば半径Rの画素領域191を設定し、この画素領域からm個の画素を選択し、選択したm個の画素の各々を中心とするN×Nのm個の画素領域を人判定検出枠195-1~mとして設定した例である。
 これらm個の人判定検出枠195-1~mの各々から人判定用の特徴量抽出を行う。
 図17のフローのステップS302では、例えば図19、図20を参照して説明したように、人候補点1を含む人判定用検出枠を設定して、その設定検出枠から、人判定用特徴量を抽出する。
 なお、特徴量は、例えば、人の顔の特徴を示す眼、鼻、口等の画像特徴量、人体形状を示す特徴量であり、画像からの人検出処理に適用される既存の様々な特徴量が利用可能である。
 なお、画像から抽出された特徴量は、画像処理装置の記憶部であるメモリに登録された辞書登録特徴量と比較され、近似度が高いと判定されると人と判定される。
  (ステップS303~S304)
 次に、ステップS303~S304において、人判定検出枠内画像から抽出した人判定用特徴量と、人判定特徴量を登録した辞書の登録データとの照合処理に基づく人判定処理を実行する。
 図18~図20を参照して説明した人判定検出枠内の画素値に基づいて抽出された特徴量と、画像処理装置の記憶部であるメモリに登録された辞書登録特徴量との比較照合処理をし実行し、抽出特徴量が辞書登録特徴量に一致、または類似度が高いと判定した場合は、人検出枠に撮り込まれた画像が人であると判定する。
 この場合、ステップS304の判定が(Yes)となり、ステップS305に進む。
 一方、抽出特徴量が辞書登録特徴量に一致せず、類似度が低いと判定した場合は、人検出枠に撮り込まれた画像が人でないと判定する。
 この場合、ステップS304の判定が(No)となり、ステップS306に進む。
  (ステップS305)
 ステップS305の処理は、ステップS303の判定処理において人判定検出枠内の動体を人であると判定した場合に実行される処理である。
 この場合、ステップS305において、人判定検出枠内に人候補点2を設定し、人候補点2リストに座標情報等を記録する。
 この処理について、図21を参照して説明する。
 図21には、図18を参照して説明したと同様、動体検出枠4,144と、動体検出枠4,144に設定された人候補点1,161と、人候補点1,161を含む複数の人判定検出枠201-1,2、および、人判定検出枠201-1,2の各々に対して設定された人候補点2,211-1~2を示している。
 なお、「人候補点2」は、1つの人判定検出枠に対応して1つ設定される。例えば、人判定検出枠の中心位置に「人候補点2」を設定する。
 図18~図20を参照して説明したように、1つの「人候補点1」に対して複数の人判定検出枠を設定して、各枠から特徴量抽出、辞書照合を実行して各枠対応の「人候補点2」を設定する処理を実行するので、設定した人判定検出枠の数に応じた複数の「人候補点2」が設定される場合がある。
 近接位置の複数の「人候補点2」は、画像から検出される1人の人に対応する検出点と判断され、これら近接位置の「人候補点2」は、1つのデータにマージしてリストに登録する設定としてもよい。
 「人候補点2」のマージ処理と人候補点2リストの具体例については後述する。
  (ステップS306)
 ステップS305において、「人候補点2」の設定と、リスト登録処理が完了した場合、あるいは、ステップS304において、人判定検出枠内の動体が人と判定されなかった場合は、ステップS306に進む。
 ステップS306では、処理対象としている画像フレーム内の全ての人候補点1に対する処理がすべて完了したか否かを判定する。
 処理が完了している場合は、ステップS307に進む。
 処理が完了していない場合は、ステップS301に戻り、未処理の人候補点1に対する処理を実行する。
  (ステップS307~S308)
 ステップS306において、処理対象としている画像フレーム内の全ての「人候補点1」に対する処理がすべて完了したと判定した場合は、次に、ステップS307において、規定階層の縮小画像適用処理を全て完了したか否かを判定する。
 全て完了したと判定した場合は、処理を終了する。
 規定階層の縮小画像適用処理が完了していないと判定した場合は、ステップS308に進み、画像の縮小処理を実行して、ステップS301に戻り、縮小画像を適用したステップS301以下の処理を実行する。
 このステップS307~S308の処理例について、図22を参照して説明する。
 ステップS307~S308において実行する画像縮小処理は、先に図8を参照して説明したステップS207~S208の処理と同様の処理である。
 すなわち、ステップS302~S303における人判定検出枠を利用した特徴量抽出と辞書照合処理を、縮小画像を利用して実行させるための処理である。
 例えば、図22に示すように、画像Rをオリジナル画像の画像サイズとする。
 図17に示すフローチャートのステップS301~S305の処理は、まず、このオリジナル画像Rを用いて実行する。すなわち、人判定検出枠を利用した特徴量抽出と辞書照合処理を、縮小されていないオリジナル画像Rを用いて実行する。
 このオリジナル画像Rに対する処理が完了すると、ステップS308において、オリジナル画像Rの画像縮小処理を実行する。例えば、縦、横の長さを1/2に設定した縮小画像Rを生成する。
 この縮小画像Rを用いて、図17に示すフローチャートのステップS301~S305の処理を繰り返し実行する。
 以下、同様に、縮小画像R~Rを、順次、生成し、縮小画像R~Rを用いて、図17に示すフローチャートのステップS301~S305の処理を繰り返し実行する。
 なお、これらの繰り返し処理において、人判定検出枠のサイズは縮小することなく、元のサイズのままとする。
 このように、複数の縮小画像を用いた処理を繰り返し実行する理由は、画像に撮り込まれている人物のサイズに適応した人検出処理を行なうためである。
 前述したように、画像内の人のサイズは、カメラに近ければ大きくなり、カメラから遠い場合は、小さいサイズとなる。
 このような様々なサイズの人物に対して、人判定検出枠を適用した特徴量抽出を行うと、人判定検出枠サイズに適応したサイズの人領域は検出できるが、適応しないサイズの人物は検出できない。
 このようなサイズの不適合による検出ミスを防止するため、複数の縮小画像を生成し、同一サイズ人判定検出枠を適用して人検出処理を行なう。
 このように、複数の縮小画像を適用して人検出処理を繰り返し、実行することで、様々なサイズの人画像領域を検出することが可能となる。
 図17に示すフローチャートのステップS307~S308の縮小画像生成処理は、このように、画像フレームに含まれる様々なサイズの人を検出可能とするための処理である。
 例えば、図22に示すように、画像R~画像Rまで、複数の縮小画像を生成し、これらの複数の縮小画像を用いて、ステップS301以下の処理を繰り返し行う。
 図17に示すフローチャートのステップS307において、すべての規定した縮小画像を用いた処理が完了したと判定すると、処理を終了する。
 この図17に示すフローチャートに従って実行されるステップS305において、人と判定された「人候補点2」のリストが生成される。
 人候補点2リストの具体例について、図23を参照して説明する。
 図23には、人候補点2リストの一例を示している。
 図23に示す人候補点2リストには、識別子0~4の5エントリが登録されている。
 これらの5つの登録データ(エントリ)は、図17に示すフローを実行して、得られた人と判定された動体に対して設定された「人候補点2」に対応する登録データである。
 なお、「人候補点2」は、前述したように、1つの人判定検出枠に対応して1つ設定され、複数の近接する人判定検出枠に対して、複数の近接する「人候補点2」が設定される場合がある。
 近接位置の複数の「人候補点2」は、画像から検出される1人の人に対応する検出点と判断され、これら近接位置の「人候補点2」は、1つのデータにマージしてリストに登録する設定としてもよい。
 近接座標位置にある複数の点を1つの点にマージするためのマージ手法としては、従来から知られるマージ手法を適用する。適用するマージ手法は、前述したマージ手法と同様である。
 例えば「MeanShift法」を用いて、近接領域にある複数の「人候補点2」を探索し、次に、「Nearest Neighbor法」を適用して、ユークリッド距離が規定しきい値以下の「人候補点2の」マージ処理、すなわち複数点を1つの代表点に集約するマージ処理を実行する。
 図24は、マージ処理によって複数の人判定検出枠201-1~nと、これらの複数枠に対応して設定された「人候補点2」を1つの人判定検出枠251と、1つの人候補点2,271に集約した処理例を示す図である。
 図23に示す人候補点2リストには、例えばこのマージ処理によってえられたマージ結果のみを登録する。
 図23に示す例では、各登録データは、人候補点2識別子(ID)に対応付けられた以下の各データを記録している。
 (1)x,y座標
 (2)検出した階層画像(R~R
 x,y座標は、縮小処理の施されていないオリジナルサイズの画像、すなわち、図22に示すオリジナル画像Rにおける座標として記録される。
 さらに、「人候補点2」を検出した階層画像、すなわち、図22に示す画像R~Rのいずれにおいて「人候補点2」が検出されたかを示す人候補点2検出階層画像情報を登録する設定としている。
 図23に示す人候補点識別子0,2,3は、いずれもオリジナル画像Rを用いて検出された「人候補点2」であることが記録される。
 一方、図23に示す人候補点識別子1は、縮小画像Rを用いて検出された「人候補点2」であることが記録される。
 さらに、図23に示す人候補点識別子4は、縮小画像Rを用いて検出された「人候補点2」であることが記録される。
 このように、図23に示す人候補点2リストは、人候補点の設定座標位置と、その「人候補点2」を検出した際に用いられた画像の識別情報を登録した例である。
 なお、図23を参照して説明した人候補点2リストの他にも、様々な登録情報を設定したリストを利用可能である。
 ただし、「人候補点2」の設定位置を示す座標情報は不可欠であり、縮小なしのオリジナル画像における座標位置が算出可能なデータが必要である。
  [6.画像処理装置の実行する最終検証処理とメタデータ生成処理の詳細について]
 次に、先に図6のフローチャートを参照して説明したステップS104の「最終検証処理とメタデータ生成処理」の詳細について、図25以下を参照して説明する。
 図6のフローにおけるステップS104の「最終検証処理とメタデータ生成処理」は、先に説明したように、ステップS103における人検出処理2の結果として得られた「人候補点2」が設定された動体が本当に人であるか否かを再検証する処理であり、例えば、前後の撮影画像フレームを用いた検証処理が行われる。
 監視カメラの設置状況は、人検出にとって必ずしも好条件であるとは限らない。例えば、暗所や日照・天候変化のある場所で人の姿がクリアに撮影できない環境であることがある。また、人とカメラの間に障害物が映り込み、カメラの撮影できないオクルージョン領域が発生することもある。カメラの俯角、人の映る向きなど、人の判別が困難になる状況が多々、発生する。
 これらの外的要因により、ステップS103における人検出処理2の結果として得られた人候補点2には、実際は人ではない誤検出点が含まれることもあり、また、本来、人候補点2として検出されるべき点が未検出となったりすることがある。
 そこで、ステップS104において、ステップS103の検出点等の再検証を行い、最終的に動体検出枠内のオブジェクトが人であるか否かを最終判断する処理を行なう。
 この最終判断の結果として得られた結果に基づいて、メタデータ、すなわち、先に図2を参照して説明したメタデータに、オブジェクト種類として人、または人以外のデータを記録する。
 以下、このステップS104の「最終検証処理とメタデータ生成処理」の詳細について、図25以下を参照して説明する。
 図25は、図6のフローチャートを参照して説明したステップS104の「最終検証処理とメタデータ生成処理」の詳細シーケンスについて説明するフローチャートである。
 以下、図25に示すフローの各ステップの処理について、順次、説明する。
  (ステップS401)
 まず、画像処理装置(カメラ)は、ステップS401において、撮影画像フレームから処理対象とする動体検出枠を選択する。
 動体検出枠は、先に説明した図6に示すフローのステップS101において検出した動体検出枠である。
 図6に示すフローのステップS101において、例えば、図7に示すように、画像に複数の動体検出枠が設定される。
 ステップS401では、まず、処理対象とする1つの動体検出枠を選択する。
  (ステップS402)
 次に、ステップS402において、ステップS401で選択した動体検出枠内に「人候補点2」が設定されているか否かを判定する。
 「人候補点2」は、図6に示すフローのステップS103、すなわち、図17を参照して説明したフローに従って設定される「人候補点2」である。
 この「人候補点2」の座標位置は、先に図23を参照して説明した人候補点2リストに登録され、メモリに格納されている。
 画像処理装置(カメラ)は、ステップS402において、ステップS401で選択した動体検出枠内の座標位置に対応する座標位置情報を持つ登録データ(エントリ)が、人候補点2リストに登録されているか否かを確認する。
 人候補点2リストに登録されている場合は、処理対象とした動体検出枠内に「人候補点2」があると判定し、ステップS403に進む。
 一方、人候補点2リストに登録されていない場合は、処理対象とした動体検出枠内に「人候補点2」がないと判定し、ステップS405に進む。
  (ステップS403~S404)
 ステップS402において、動体検出枠内に「人候補点2」があると判定した場合、ステップS403~S404において、その動体検出枠内の動体が本当に人であるか否かの再検証処理を行なう。
 具体的には、ステップS403において、以下の処理を実行する。
 (a)人候補点2を含む人判定検出枠と、
 (b)人判定検出枠が設定された動体検出枠
 上記(a),(b)2つの検出枠の位置関係を解析する。
 ステップS404では、この解析結果、すなわち、2つの検出枠の位置関係解析結果に基づいて、人候補点2が設定された動体検出枠内の動体が人であるか否かを再判定する。
 このステップS403~S404の処理は、主として、「人候補点2」が誤検出、すなわち、人でない動体を「人候補点2」と判定している誤検出点を除去する処理として実行される。
 この誤検出除去処理の具体例について、図26以下を参照して説明する。
 図26には、「人候補点2」が検出された判定検出枠が設定された複数の動体検出枠の例を示している。
 人判定検出枠は、図6のフローのステップS103の処理、すなわち、図17に示すフローに従って実行される人検出処理2において設定される枠である。図18~図20を参照して説明した人判定検出枠である。
 図26には、先のに図7を参照して説明した画像中の動体検出枠2,142~動体検出枠4,144において「人候補点2」が検出された人判定検出枠を示している。
 なお、これらの人検出枠は、マージ処理前の人判定検出枠である。
 図17に示すフローに従った処理において、「人候補点2」が検出された人判定検出枠は、その動体が人である場合、水平方向に密な複数の枠として設定される可能性が高い。
 一方、動体が人でない場合、「人候補点2」が検出された人判定検出枠は、水平方向に密な複数の枠として設定されず、単独、または少数の枠として出現する可能性が高い。
 これは、動体が人である場合、人であることを示す特徴量が、枠が水平方向にずれた位置でも検出される可能性が高いが、動体が人でない場合、人であることを示す特徴量は、枠が水平方向にずれた位置では検出されにくくなるという現象に基づくものである。
 なお、この現象は、動体枠内に人が一人であっても、複数人であっても同様である。
 図26に示す動体検出枠2,142と、動体検出枠4,144は、動体検出枠内の動体が人である場合の例である。
 動体検出枠2,142には、人候補点2が設定された動体検出枠311-1~nが水平方向に密に設定される。
 同様に、動体検出枠4,144には、人候補点2が設定された動体検出枠321-1~nが水平方向に密に設定される。
 一方、図26に示す動体検出枠3,143は、動体検出枠内の動体が人でない場合の例である。
 動体検出枠3,143には、人候補点2が設定された動体検出枠331-1が1つのみ設定されているが、水平方向に密には設定されていない。
 このように、動体が人である場合、「人候補点2」が検出された動体検出枠は水平方向に密に設定され、動体が人でない場合、「人候補点2」が検出された動体検出枠は水平方向に密に設定されないという違いが発生する。
 ステップS303~S304の誤検出除去処理は、この違いに基づいて、誤検出された「人候補点2」を削除する処理として実行される。
 図27を参照して、この誤検出の検出および削除処理を実現する軽量な演算処理について説明する。
 図27には、処理対象とする動体検出枠350と、「人候補点2」が検出されたと仮定した複数の判定検出枠の例、人判定検出枠p1,371~人判定検出枠p5,375を示している。
 人判定検出枠371~375は、図6のフローのステップS103の処理、すなわち、図17に示すフローに従って実行される人検出処理2において設定される枠である。図18~図20を参照して説明した人判定検出枠である。
 図27に示すように、動体検出枠350上端部より、動体検出枠高さ(height)に対してa%下部の位置からb%の高さの範囲について、人候補点2が設定された人判定検出枠が水平方向に存在するか否かを調べる。
 例えばa%=3~10%、b%=5~60%、これらの値を適用する。
 このような、動体検出枠350のおよそ半分の上部領域に、人候補点2が設定された人判定検出枠が密に存在しているか否かを判定する。
 具体的処理としては、例えば、図27の下部に示すように、動体検出枠横幅(width)に対する上部領域(上端からa%~b%)に存在する人判定検出枠の領域(x+y)占有率を算出する処理を行なう。
 図27に示す例では、上部領域(上端からa%~b%)に存在する人判定検出枠は、人判定検出枠p1,371、人判定検出枠p2,372、および人判定検出枠p3,373である。
 人判定検出枠p1,371と、人判定検出枠p3,373からなる画像領域の水平方向の長さ、例えば画素数をxとする。
 また、人判定検出枠p2,372からなる画像領域の水平方向の長さ、例えば画素数をyとする。
 動体検出枠350の幅の水平方向の長さ、例えば画素数をwidthとする。
 この設定で、動体検出枠横幅(width)に対する上部領域(上端からa%~b%)に存在する人判定検出枠の領域(x+y)占有率を、以下の式(式1)によって算出する。
 人判定検出枠占有率=(x+y)/(width)・・・(式1)
 さらに上記(式1)によって算出した人判定検出枠占有率と、予め設定した占有率しきい値(Th1=c%)とを比較する。しきい値c%は例えば30%等の値を利用する。
 人判定検出枠占有率≧Th1・・・(式2)
 上記(式2)の判定式が成立すれば、人候補点2の設定された人判定検出枠内の動体が人であると判定する。
 一方、上記(式2)の判定式が成立しない場合は、人候補点2の設定された人判定検出枠内の動体が人でないと判定する。すなわち、「人候補点2」は誤検出であったと判定する。
 なお、図27に示す例は、人と判定する人判定検出枠の領域を動体検出枠の高さ方向(a%の高さからb%)に制限する例である。
 これは、先に図18を参照して説明したように、人の上半身を示す特徴量を検出する人検出方法を用いた場合、人候補点2が設定される人判定検出枠は、動体検出枠の上部に現れやすく、下部は誤検知の可能性が高いという理由からである。
 従って、人の全体の特徴量検出処理等、他の人検出手法を用いる場合や、カメラの設置状況(俯角が付くなど)、人の状態(影を伴う場合や自転車に乗っている場合など)によって、上記の占有率を算出するための範囲やしきい値は、変更される。
 具体的には、例えば、人に影が伴う場合や、人が自転車に乗っている場合、動体枠が水平方向に広がる可能性がある。これらを正しく人と判断するために、例えば、影や自転車に乗った人を検出した場合は、しきい値c%の値を比較的低めにする処理や、人判定検出枠の占有率算出範囲を広げたりする調整処理を行なうことが好ましい。
 また、人判定検出枠の占有率算出範囲の規定ラインは、水平方向や斜め方向など、様々な設定が可能であり、その形状、大きさも状況に応じて変更し得る。
 図25に示すフローチャートの説明に戻る。
 ステップS402において、動体検出枠内に「人候補点2」があると判定した場合、ステップS403~S404において、その動体検出枠内の動体が本当に人であるか否かの再検証処理を行なう。
 具体的には、図26、図27を参照して説明したように、ステップS403において、以下の処理を実行する。
 (a)人候補点2を含む人判定検出枠と、
 (b)人判定検出枠が設定された動体検出枠
 上記(a),(b)2つの検出枠の位置関係を解析する。
 ステップS404では、この解析結果、すなわち、2つの検出枠の位置関係解析結果に基づいて、人候補点2が設定された動体検出枠内の動体が人であるか否かを再判定する。
 前述したように、このステップS403~S404の処理は、主として、「人候補点2」が誤検出、すなわち、人でない動体を「人候補点2」と判定している誤検出点を除去する処理として実行される。
 ステップS404において、人候補点2が設定された動体検出枠内の動体が人であると判定した場合は、ステップS406に進む。
 一方、ステップS404において、人候補点2が設定された動体検出枠内の動体が人でないと判定した場合は、ステップS405に進む。
  (ステップS405)
 ステップS402において、動体検出枠内に人候補点2がないと判定した場合、あるいは、ステップS404において、人候補点2が設定された動体検出枠内の動体が人でないと判定した場合は、ステップS405に進む。
 ステップS405では、人候補点2が設定された動体検出枠の動体を人ではないと判定し、メタデータに記録する。
 すなわち、先に図2を参照して説明したメタデータに、人候補点2が設定された動体検出枠のオブジェクトのオブジェクト種別を「人以外」として記録する。
  (ステップS406~S408)
 一方、ステップS404において、「人候補点2」が設定された動体検出枠内の動体が人であると判定した場合は、ステップS406に進む。
 ステップS406では、現処理フレームと、予め規定した前後の複数フレームの処理が完了したか否かを判定する。
 現処理フレームと、予め規定した前後の複数フレームの処理が完了していない場合は、ステップS407において、予め規定した範囲の連続フレームから未処理フレームを取得し、ステップS401以下の処理を未処理フレームについて実行する。
 ステップS406で、現処理フレームと、予め規定した前後の複数フレームの処理が完了したと判定した場合は、ステップS408に進む。
 ステップS408では、規定の連続複数フレームにおいて、「人候補点2」の設定された動体が人である判定したか否かを判定する。
 規定の連続複数フレームにおいて、「人候補点2」の設定された動体が人であると判定した場合は、ステップS409に進む。
 一方、規定の連続複数フレームにおいて、「人候補点2」の設定された動体が人であると判定されなかった場合は、ステップS405に進む。
 これらステップS406~S408の処理は、誤検出除去の従来から知られる一般的な処理の適用である。例えば、連続フレームにおいて、同一の動体オブジェクトに対して共通にすべて人と判定された場合は、そのオブジェクトを人とする最終判定を行なう。
 一方、規定の連続複数フレームにおいて、「人候補点2」の設定された動体が人であるとする共通判定が得られなかった場合は、「人候補点2」の設定オブジェクトは人でないとの最終判定を行なう。
 さらに、これらの処理に加えて、動体や人枠の大きさや位置、オブジェクトの輝度や色、特徴が大きく変動する場合に、誤検知とみなす処理を実行する構成としてもよい。
 ステップS408の判定処理において、規定の連続複数フレームにおいて、「人候補点2」の設定された動体が人であると判定されなかった場合は、ステップS405に進む。
 ステップS405では、前述したように、「人候補点2」が設定された動体検出枠の動体を人ではないと判定し、メタデータに記録する。
 すなわち、先に図2を参照して説明したメタデータに、「人候補点2」が設定された動体検出枠のオブジェクトのオブジェクト種別を「人以外」として記録する。
  (ステップS409)
 一方、ステップS408の判定処理において、規定の連続複数フレームにおいて、人候補点2の設定された動体が人であると判定された場合は、ステップS409に進む。
 ステップS409では、「人候補点2」が設定された動体検出枠の動体を人であると判定し、メタデータに記録する。
 すなわち、先に図2を参照して説明したメタデータに、「人候補点2」が設定された動体検出枠のオブジェクトのオブジェクト種別を「人」として記録する。
  (ステップS410)
 ステップS405、あるいはステップS409のメタデータ記録処理の後、ステップS410に進む。
 ステップS410では、画像フレーム内の全ての動体検出枠についての処理が完了したか否かを判定する。
 未処理の動体検出枠がある場合は、その動体検出枠について、ステップS401以下の処理を繰り返す。
 全ての動体検出枠に対する処理が完了すると処理を終了する。
 これらの処理によって、画像フレームから検出された動体各々について、人であるか人でないかの結果が得られ、この結果に応じたメタデータ、すなわち、図2を参照して説明したオブジェクト情報を記録したメタデータが生成されて画像処理装置(カメラ)からサーバや情報端末に送信される。
  [7.その他の実施例について]
 先に説明した図25に示すフローにおいて、ステップS406~S408の処理は、誤検出除去処理であり、予め既定した範囲の連続フレームにおいて、同一の動体オブジェクトに対して共通にすべて人と判定された場合は、そのオブジェクトを人とする最終判定を行なう処理として説明した。
 上述した実施例では、既定の連続フレームにおいて、全て人と判定されれば、最終判定を人とする判定を行なうとして説明したが、例えば、所定期間内の連続フレームにおいて、人と判断される頻度に応じて、人か否かの最終判断を行う構成としてもよい。
 例えば、n枚のフレームの間でm枚以上のフレームで同一の人が検出されていれば、人らしいと判断する(n≧m)。このことにより、人候補点2が時間方向に断続的にしか検出されなかったとしても未検出が補填される。
 一方、検出頻度が低いものは、誤検出である可能性が高く、人でないとの最終判断を行う。
 パラメータであるnとmの決め方は任意に決めても良いし、自動的に決める設定としてもよい。
 例えば、人を検出しにくい暗所での検出感度を高めるために、映像の輝度レベルが低い時にはnを大きく、mを小さくする、などである。ここで、フレーム間に渡って頻度を計測する対象は、人候補点2や人判定検出枠単位であってもよいし、オブジェクトデータ(動体検出枠単位)であってもよい。
 前者の場合は、フレーム間に渡って人候補点2を任意の方法でトラッキングしておく。例えば、フレーム間で一定範囲内に存在する人候補点2の要素同士を同一とみなす。
 また、後者の場合は、オブジェクトデータのIDを確認することによってフレーム間でのオブジェクトの対応付けが可能である。各フレームで人として検出されたか否かは、オブジェクトデータの種別に人と記録されているか否かを見ればわかる。
 なお、本開示の処理において、図6のステップS102の「人検出処理1」で検出される「人候補点1」は、ある画像領域内に密に検出されることがある。
 これらの点は、前述したように予め規定したルールに基づいて、候補点の間引き、または、候補点同士のマージを行う構成とすることが好ましい。「人候補点1」の数を低減することにより、「人検出処理2」以降の処理負荷をさらに軽減することが可能さなる。「人候補点2」についても同様の間引きやマージを実行することが好ましい。
 上述したように、本開示の処理では、図6に示すフローのステップS102において、軽量な処理として実行可能な「人検出処理1」を実行して「人候補点1」を検出し、その後のステップS103の演算量を必要とする辞書ベースの「人検出処理2」を、ステップS102で検出された「人候補点1」の近傍領域に限定して実行することで、総演算量を大幅に削減することがを実現している。
 これらの処理は、カメラに搭載可能なレベルの演算量で実現できるため、各カメラで人検出処理を分散処理でき、サーバへの集中不可を軽減することができる。すなわち、大規模なシステムを設置するコストを削減でき、例えば、追跡対象とする犯人等のオブジェクトを短い時間で捜査することも可能となる。
 また、図6のフローのステップS102の「人検出処理1」によって人らしいと推定された範囲のみについて、ステップS103で「人検出処理2」を行う構成であるため、「人検出処理2」での誤検出可能性が大きく低減される。
 さらに、「人検出処理2」の後のステップS104で、誤検出データの削除等、最終検証処理を行なう構成としたので、「人検出処理2」の性能が発揮しにくい場面でも安定した検出処理が実現される。
  [8.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行する画像処理装置。
 (2) 前記データ処理部は、
 前記人検出処理2において、人判定検出枠内の画像が人であると判定した場合、前記人判定検出枠内に人候補点2を設定し、
 さらに、前記人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、前記人判定検出枠内の画像が人であるか否かを最終判定する最終判定処理を実行する(1)に記載の画像処理装置。
 (3) 前記データ処理部は、
 前記人検出処理1において、前記分割小領域単位の全画素数に対する動体画素数の比率と、予め規定したしきい値を比較し、比較結果に基づいてウィンドウ内の画像が人であるか否かを判定する(1)または(2)に記載の画像処理装置。
 (4) 前記データ処理部は、
 画像に対して複数の異なる縮小率で縮小した複数の縮小画像を生成し、生成した複数の縮小画像に対して、縮小なしの同一サイズのウィンドウを適用して前記人検出処理1を実行する(1)~(3)いずれかに記載の画像処理装置。
 (5) 前記データ処理部は、
 縮小なしのオリジナル画像、および、複数の異なる縮小率で縮小した複数の縮小画像に対する人検出処理1の結果として得られた人候補点1の位置を示す座標情報を登録した人候補点1リストを生成する(4)に記載の画像処理装置。
 (6) 前記データ処理部は、
 人候補点1の位置を示す座標情報として、縮小なしのオリジナル画像における座標情報と、人候補点1の設定処理を実行した画像の縮小レベルが識別可能な情報を記録した人候補点1リストを生成する(5)に記載の画像処理装置。
 (7) 前記データ処理部は、
 前記人検出処理2において、
 前記人判定検出枠内の画像特徴量を算出し、算出した特徴量と、予め登録された人判定用特徴量との照合処理である辞書照合処理を実行して、照合結果に基づいて人判定検出枠内の画像が人であるか否かを判定する(1)~(6)いずれかに記載の画像処理装置。
 (8) 前記データ処理部は、
 前記人検出処理2において、
 前記人候補点1を中心画素とする所定領域の画素の各々を中心とする複数の人判定検出枠を設定し、各々の人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する(1)~(7)いずれかに記載の画像処理装置。
 (9) 前記データ処理部は、
 画像に対して複数の異なる縮小率で縮小した複数の縮小画像を生成し、生成した複数の縮小画像に対して、縮小なしの同一サイズの人判定検出枠を適用して前記人検出処理2を実行する(1)~(8)いずれかに記載の画像処理装置。
 (10) 前記データ処理部は、
 縮小なしのオリジナル画像、および、複数の異なる縮小率で縮小した複数の縮小画像に対する人検出処理2の結果として得られた人候補点2の位置を示す座標情報を登録した人候補点2リストを生成する(9)に記載の画像処理装置。
 (11) 前記データ処理部は、
 人候補点2の位置を示す座標情報として、縮小なしのオリジナル画像における座標情報と、人候補点2の設定処理を実行した画像の縮小レベルが識別可能な情報を記録した人候補点2リストを生成する(10)に記載の画像処理装置。
 (12) 前記データ処理部は、
 前記最終判定処理において、
 動体検出枠内特定領域における、前記人候補点2の設定された人判定検出枠の占有率を算出し、
 前記占有率がしきい値以上である場合に、前記人判定検出枠内の画像が人であると最終判定する(2)に記載の画像処理装置。
 (13) 前記データ処理部は、
 前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成する(1)~(12)いずれかに記載の画像処理装置。
 (14) 前記画像処理装置は、
 前記データ処理部の生成したメタデータを、通信部を介して送信する(13)に記載の画像処理装置。
 (15) 画像を撮影するカメラと、
 前記カメラとネットワーク接続されたサーバを有する画像処理システムであり、
 前記カメラは、
 撮影画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 撮影画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行し、
 前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して前記サーバに送信する画像処理システム。
 (16) 前記カメラの前記データ処理部は、
 前記人検出処理2において、人判定検出枠内の画像が人であると判定した場合、前記人判定検出枠内に人候補点2を設定し、
 さらに、前記人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、前記人判定検出枠内の画像が人であるか否かを最終判定する最終判定処理を実行し、
 前記最終判定処理の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して前記サーバに送信する(15)に記載の画像処理システム。
 (17) 画像を撮影するカメラと、
 前記カメラとネットワーク接続されたサーバと情報端末を有する画像処理システムであり、
 前記カメラは、
 撮影画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 撮影画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行し、
 前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して、撮影画像に併せて前記サーバに送信し、
 前記サーバは、前記カメラから受信する撮影画像とメタデータを記憶部に格納し、
 前記情報端末からの処理要求に応じて、記憶部に格納した撮影画像とメタデータを適用したオブジェクト検索または追跡処理を実行する画像処理システム。
 (18) 前記カメラの前記データ処理部は、
 前記人検出処理2において、人判定検出枠内の画像が人であると判定した場合、前記人判定検出枠内に人候補点2を設定し、
 さらに、前記人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、前記人判定検出枠内の画像が人であるか否かを最終判定する最終判定処理を実行し、
 前記最終判定処理の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して前記サーバに送信する(17)に記載の画像処理システム。
 (19) 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、画像からの人検出処理を実行するデータ処理部を有し、
 前記データ処理部は、
 画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
 さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行する画像処理方法。
 (20) 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、画像からの人検出処理を実行するデータ処理部を有し、
 前記プログラムは、前記データ処理部に、
 画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1と、
 前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、画像からの人検出処理を軽量な演算で高精度に実行する装置、方法が実現される。
 具体的には、画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内画像が人であるか否かを判定し、人と判定したウィンドウに人候補点1を設定する。さらに、人候補点1、またはその周辺画素を含む人判定検出枠を設定し、人判定検出枠内の画像特徴量に基づく人判定処理を実行し、人であると判定した場合、人判定検出枠内に人候補点2を設定する。さらに、人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、人判定検出枠内の画像が人であるか否かを最終判定する。
 本構成により、画像からの人検出処理を軽量な演算で高精度に実行する装置、方法が実現される。
  10 カメラ
  20 サーバ
  30 情報端末
  40 ネットワーク
 100 画像処理装置(カメラ)
 101 レンズ
 102 イメージセンサ
 103 画像処理部
 104 センサ
 105 メモリ
 106 通信部
 107 駆動部
 108 CPU
 109 GPU
 110 DSP
 141~144 動体検出枠
 151 分割小領域設定ウィンドウ
 161 人候補点1
 171 人判定検出枠
 201 人判定検出枠
 211 人候補点2
 251 人判定検出枠
 271 人候補点2
 350 動体検出枠
 371~375 人判定検出枠

Claims (20)

  1.  画像からの人検出処理を実行するデータ処理部を有し、
     前記データ処理部は、
     画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
     さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行する画像処理装置。
  2.  前記データ処理部は、
     前記人検出処理2において、人判定検出枠内の画像が人であると判定した場合、前記人判定検出枠内に人候補点2を設定し、
     さらに、前記人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、前記人判定検出枠内の画像が人であるか否かを最終判定する最終判定処理を実行する請求項1に記載の画像処理装置。
  3.  前記データ処理部は、
     前記人検出処理1において、前記分割小領域単位の全画素数に対する動体画素数の比率と、予め規定したしきい値を比較し、比較結果に基づいてウィンドウ内の画像が人であるか否かを判定する請求項1に記載の画像処理装置。
  4.  前記データ処理部は、
     画像に対して複数の異なる縮小率で縮小した複数の縮小画像を生成し、生成した複数の縮小画像に対して、縮小なしの同一サイズのウィンドウを適用して前記人検出処理1を実行する請求項1に記載の画像処理装置。
  5.  前記データ処理部は、
     縮小なしのオリジナル画像、および、複数の異なる縮小率で縮小した複数の縮小画像に対する人検出処理1の結果として得られた人候補点1の位置を示す座標情報を登録した人候補点1リストを生成する請求項4に記載の画像処理装置。
  6.  前記データ処理部は、
     人候補点1の位置を示す座標情報として、縮小なしのオリジナル画像における座標情報と、人候補点1の設定処理を実行した画像の縮小レベルが識別可能な情報を記録した人候補点1リストを生成する請求項5に記載の画像処理装置。
  7.  前記データ処理部は、
     前記人検出処理2において、
     前記人判定検出枠内の画像特徴量を算出し、算出した特徴量と、予め登録された人判定用特徴量との照合処理である辞書照合処理を実行して、照合結果に基づいて人判定検出枠内の画像が人であるか否かを判定する請求項1に記載の画像処理装置。
  8.  前記データ処理部は、
     前記人検出処理2において、
     前記人候補点1を中心画素とする所定領域の画素の各々を中心とする複数の人判定検出枠を設定し、各々の人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する請求項1に記載の画像処理装置。
  9.  前記データ処理部は、
     画像に対して複数の異なる縮小率で縮小した複数の縮小画像を生成し、生成した複数の縮小画像に対して、縮小なしの同一サイズの人判定検出枠を適用して前記人検出処理2を実行する請求項1に記載の画像処理装置。
  10.  前記データ処理部は、
     縮小なしのオリジナル画像、および、複数の異なる縮小率で縮小した複数の縮小画像に対する人検出処理2の結果として得られた人候補点2の位置を示す座標情報を登録した人候補点2リストを生成する請求項9に記載の画像処理装置。
  11.  前記データ処理部は、
     人候補点2の位置を示す座標情報として、縮小なしのオリジナル画像における座標情報と、人候補点2の設定処理を実行した画像の縮小レベルが識別可能な情報を記録した人候補点2リストを生成する請求項10に記載の画像処理装置。
  12.  前記データ処理部は、
     前記最終判定処理において、
     動体検出枠内特定領域における、前記人候補点2の設定された人判定検出枠の占有率を算出し、
     前記占有率がしきい値以上である場合に、前記人判定検出枠内の画像が人であると最終判定する請求項2に記載の画像処理装置。
  13.  前記データ処理部は、
     前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成する請求項1に記載の画像処理装置。
  14.  前記画像処理装置は、
     前記データ処理部の生成したメタデータを、通信部を介して送信する請求項13に記載の画像処理装置。
  15.  画像を撮影するカメラと、
     前記カメラとネットワーク接続されたサーバを有する画像処理システムであり、
     前記カメラは、
     撮影画像からの人検出処理を実行するデータ処理部を有し、
     前記データ処理部は、
     撮影画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
     さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行し、
     前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して前記サーバに送信する画像処理システム。
  16.  前記カメラの前記データ処理部は、
     前記人検出処理2において、人判定検出枠内の画像が人であると判定した場合、前記人判定検出枠内に人候補点2を設定し、
     さらに、前記人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、前記人判定検出枠内の画像が人であるか否かを最終判定する最終判定処理を実行し、
     前記最終判定処理の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して前記サーバに送信する請求項15に記載の画像処理システム。
  17.  画像を撮影するカメラと、
     前記カメラとネットワーク接続されたサーバと情報端末を有する画像処理システムであり、
     前記カメラは、
     撮影画像からの人検出処理を実行するデータ処理部を有し、
     前記データ処理部は、
     撮影画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
     さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行し、
     前記人検出処理2の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して、撮影画像に併せて前記サーバに送信し、
     前記サーバは、前記カメラから受信する撮影画像とメタデータを記憶部に格納し、
     前記情報端末からの処理要求に応じて、記憶部に格納した撮影画像とメタデータを適用したオブジェクト検索または追跡処理を実行する画像処理システム。
  18.  前記カメラの前記データ処理部は、
     前記人検出処理2において、人判定検出枠内の画像が人であると判定した場合、前記人判定検出枠内に人候補点2を設定し、
     さらに、前記人候補点2の設定された人判定検出枠の動体検出枠内における分布状況を解析し、解析結果に基づいて、前記人判定検出枠内の画像が人であるか否かを最終判定する最終判定処理を実行し、
     前記最終判定処理の結果として得られる動体が人であるか否かを示すオブジェクト種類情報を記録したメタデータを生成して前記サーバに送信する請求項17に記載の画像処理システム。
  19.  画像処理装置において実行する画像処理方法であり、
     前記画像処理装置は、画像からの人検出処理を実行するデータ処理部を有し、
     前記データ処理部は、
     画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1を実行し、
     さらに、前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行する画像処理方法。
  20.  画像処理装置において画像処理を実行させるプログラムであり、
     前記画像処理装置は、画像からの人検出処理を実行するデータ処理部を有し、
     前記プログラムは、前記データ処理部に、
     画像から検出した動体領域を囲む動体検出枠内に、分割小領域設定ウィンドウを設定し、分割小領域単位の動体画素数に基づいて、ウィンドウ内の画像が人であるか否かを判定し、人であると判定した場合、ウィンドウ内に人候補点1を設定する人検出処理1と、
     前記人候補点1、または人候補点1周辺画素を含む人判定検出枠を設定して、人判定検出枠内の画像特徴量に基づいて、人判定検出枠内の画像が人であるか否かを判定する人検出処理2を実行させるプログラム。
PCT/JP2017/020052 2016-06-22 2017-05-30 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム WO2017221643A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/307,743 US10867166B2 (en) 2016-06-22 2017-05-30 Image processing apparatus, image processing system, and image processing method
CN201780037053.2A CN109313805A (zh) 2016-06-22 2017-05-30 图像处理装置、图像处理系统、图像处理方法和程序
JP2018523634A JP6904346B2 (ja) 2016-06-22 2017-05-30 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-123245 2016-06-22
JP2016123245 2016-06-22

Publications (1)

Publication Number Publication Date
WO2017221643A1 true WO2017221643A1 (ja) 2017-12-28

Family

ID=60784641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020052 WO2017221643A1 (ja) 2016-06-22 2017-05-30 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US10867166B2 (ja)
JP (1) JP6904346B2 (ja)
CN (1) CN109313805A (ja)
WO (1) WO2017221643A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022542789A (ja) * 2019-07-23 2022-10-07 チェジアン シンシェン エレクトロニック テクノロジー カンパニー リミテッド 監視システム及び方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
CN109313806A (zh) * 2016-06-22 2019-02-05 索尼公司 图像处理装置、图像处理系统、图像处理方法和程序
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
TWI686748B (zh) * 2018-12-07 2020-03-01 國立交通大學 人流分析系統及人流分析方法
JP7374632B2 (ja) * 2019-07-09 2023-11-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11031044B1 (en) * 2020-03-16 2021-06-08 Motorola Solutions, Inc. Method, system and computer program product for self-learned and probabilistic-based prediction of inter-camera object movement
CN113408560B (zh) * 2020-03-17 2024-04-16 联合汽车电子有限公司 发动机测试数据分类方法、电子设备和可读存储介质
JP2021163260A (ja) * 2020-03-31 2021-10-11 株式会社小松製作所 検出システムおよび検出方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049979A (ja) * 2003-07-30 2005-02-24 Secom Co Ltd 顔検知装置及びインターホン装置
JP2007016420A (ja) * 2005-07-05 2007-01-25 Yamaha Motor Co Ltd 貸出管理装置
JP2011053915A (ja) * 2009-09-02 2011-03-17 Sony Corp 画像処理装置、画像処理方法、プログラム及び電子機器
WO2013057904A1 (ja) * 2011-10-19 2013-04-25 パナソニック株式会社 蝟集判定装置及び蝟集判定方法
JP2016085487A (ja) * 2014-10-22 2016-05-19 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006039689A (ja) * 2004-07-22 2006-02-09 Nara Institute Of Science & Technology 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
JP3962803B2 (ja) * 2005-12-16 2007-08-22 インターナショナル・ビジネス・マシーンズ・コーポレーション 頭部検出装置、頭部検出方法および頭部検出プログラム
CN101325690A (zh) * 2007-06-12 2008-12-17 上海正电科技发展有限公司 监控视频流中人流分析与人群聚集过程的检测方法及系统
JP5179132B2 (ja) 2007-09-27 2013-04-10 パナソニック株式会社 人体検出装置
JP5425424B2 (ja) * 2008-07-22 2014-02-26 富士フイルム株式会社 フラッシュ発光方法及び装置
JP2010062942A (ja) 2008-09-04 2010-03-18 Sanyo Electric Co Ltd 異常検知装置
JP2011209794A (ja) 2010-03-29 2011-10-20 Hiromitsu Hama 対象物認識システム及び該システムを利用する監視システム、見守りシステム
JP5810296B2 (ja) * 2011-06-07 2015-11-11 パナソニックIpマネジメント株式会社 画像表示装置及び画像表示方法
JP2013030130A (ja) * 2011-07-29 2013-02-07 Sumitomo Electric Ind Ltd 移動体判定情報生成装置、移動体判定情報生成システム、コンピュータプログラム及び移動体判定情報生成方法
JP5362878B2 (ja) * 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
CN102902972B (zh) * 2012-09-14 2015-04-29 成都国科海博信息技术股份有限公司 人体行为特征提取方法、系统及异常行为检测方法和系统
CN103810717B (zh) * 2012-11-09 2016-08-24 浙江大华技术股份有限公司 一种人体行为检测方法及装置
JP6602009B2 (ja) * 2014-12-16 2019-11-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6705496B2 (ja) * 2016-02-23 2020-06-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム
JP2018077190A (ja) * 2016-11-11 2018-05-17 株式会社東芝 撮像装置及び自動制御システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049979A (ja) * 2003-07-30 2005-02-24 Secom Co Ltd 顔検知装置及びインターホン装置
JP2007016420A (ja) * 2005-07-05 2007-01-25 Yamaha Motor Co Ltd 貸出管理装置
JP2011053915A (ja) * 2009-09-02 2011-03-17 Sony Corp 画像処理装置、画像処理方法、プログラム及び電子機器
WO2013057904A1 (ja) * 2011-10-19 2013-04-25 パナソニック株式会社 蝟集判定装置及び蝟集判定方法
JP2016085487A (ja) * 2014-10-22 2016-05-19 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022542789A (ja) * 2019-07-23 2022-10-07 チェジアン シンシェン エレクトロニック テクノロジー カンパニー リミテッド 監視システム及び方法

Also Published As

Publication number Publication date
JPWO2017221643A1 (ja) 2019-04-11
US10867166B2 (en) 2020-12-15
US20190258852A1 (en) 2019-08-22
CN109313805A (zh) 2019-02-05
JP6904346B2 (ja) 2021-07-14

Similar Documents

Publication Publication Date Title
WO2017221643A1 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
WO2017221644A1 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
CN108629791B (zh) 行人跟踪方法和装置及跨摄像头行人跟踪方法和装置
CN108256404B (zh) 行人检测方法和装置
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
US20120114177A1 (en) Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20220301317A1 (en) Method and device for constructing object motion trajectory, and computer storage medium
Denman et al. Multi-spectral fusion for surveillance systems
Wang et al. A real-time multi-face detection system implemented on FPGA
Sun et al. Fast motion object detection algorithm using complementary depth image on an RGB-D camera
Hsieh et al. Abnormal scene change detection from a moving camera using bags of patches and spider-web map
JP2008035301A (ja) 移動体追跡装置
JP7255173B2 (ja) 人検出装置および人検出方法
WO2013017184A1 (en) Method and device for video surveillance
Lin et al. Airborne moving vehicle detection for urban traffic surveillance
CN110580449B (zh) 一种图像型火焰识别检测方法
WO2018037479A1 (ja) 画像処理装置、ステレオカメラ装置及び画像処理方法
TW201530495A (zh) 移動物體追蹤方法及電子裝置
US20180197000A1 (en) Image processing device and image processing system
KR102150661B1 (ko) 객체를 검출하기 위한 전처리 장치 및 방법
US20210034915A1 (en) Method and apparatus for object re-identification
Benet et al. Embedded low-level video processing for surveillance purposes
Wang Distributed multi-object tracking with multi-camera systems composed of overlapping and non-overlapping cameras

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018523634

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17815112

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17815112

Country of ref document: EP

Kind code of ref document: A1