JP6792446B2 - 情報処理装置、情報処理装置の制御方法及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP6792446B2
JP6792446B2 JP2016254092A JP2016254092A JP6792446B2 JP 6792446 B2 JP6792446 B2 JP 6792446B2 JP 2016254092 A JP2016254092 A JP 2016254092A JP 2016254092 A JP2016254092 A JP 2016254092A JP 6792446 B2 JP6792446 B2 JP 6792446B2
Authority
JP
Japan
Prior art keywords
image
region
information processing
moving object
passing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016254092A
Other languages
English (en)
Other versions
JP2018107702A5 (ja
JP2018107702A (ja
Inventor
大輔 西野
大輔 西野
弥志 河林
弥志 河林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016254092A priority Critical patent/JP6792446B2/ja
Priority to US15/848,834 priority patent/US10593045B2/en
Publication of JP2018107702A publication Critical patent/JP2018107702A/ja
Publication of JP2018107702A5 publication Critical patent/JP2018107702A5/ja
Priority to JP2020186050A priority patent/JP6952857B2/ja
Application granted granted Critical
Publication of JP6792446B2 publication Critical patent/JP6792446B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法及びプログラムに関するものである。
画像上であらかじめ線分を指定し、その線分を通過した動体の数を計数するシステムがある。このようなシステムでは、通過した方向ごとにそれぞれ計数し、計数終了後に、操作者の指示によって通過動体数の時系列変化を出力することができる。このようなシステムは、交通量調査、店舗の顧客行動分析などに利用することができる。
従来の計数システムにおいては、通過動体数の時系列変化を出力ことはできるものの、それによって検出された動体がどのような動体であったかは出力することができない。例えば、通過した動体が人なのか、車両なのか、動物なのかを出力結果から判断することができない。
これに対して、特許文献1は、動画を構成する各画像についてユーザの指定した顔画像と照合し、検出された顔画像を時系列で表示する技術、すなわち動画中に出現する人物の顔画像を一覧表示する技術を開示している。
特開2007−281680号公報 特開2016−157336号公報
しかしながら、特許文献1に記載の技術は、動体を単一の時系列上に表示するのみであり、通過方向に応じた動体の挙動を把握できないという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、通過方向に応じた動体の挙動を容易に把握するための技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
撮像画像から動体を検出する動体検出手段と、
前記撮像画像における所定の位置を前記動体が通過したかを判定する通過判定手段と、
前記撮像画像から前記所定の位置を通過した動体の領域画像を抽出する画像抽出手段と、
前記所定の位置を第1方向に通過した複数の動体の各々について抽出された前記領域画像を当該所定の位置を通過した順に並べて表示手段に表示させ、当該所定の位置を当該第1方向と異なる第2方向に通過した複数の動体の各々について抽出された前記領域画像を当該所定の位置を通過した順に並べて前記表示手段に表示させる表示制御手段とを有することを特徴とする。
本発明によれば、通過方向に応じた動体の挙動を容易に把握することが可能となる。
実施形態1に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図。 実施形態1に係る情報処理システムが含む各装置のハードウェア構成の一例を示す図。 実施形態1に係るシーンの概観図。 実施形態1に係る処理の手順を示すフローチャート。 一実施形態に係る通過情報記憶部に記憶される通過情報を示す図。 実施形態1に係る表示例を示す図。 実施形態2に係るシーンの概観図。 実施形態2に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図。 実施形態2に係る処理の手順を示すフローチャート。 実施形態2に係る表示例を示す図。 実施形態3に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図。 実施形態4に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図。 実施形態4に係る処理の手順を示すフローチャート。 実施形態4に係る通過情報記憶部に記憶される通過情報示す図。 実施形態4に係る表示例を示す図。 実施形態5に係るシーンの概観図。 実施形態5に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図。 実施形態5に係る処理の手順を示すフローチャート。 実施形態5に係る表示例を示す図。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(実施形態1)
<情報処理システムの構成及び各装置の機能構成>
図1は、実施形態1に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図である。情報処理システムは、撮像装置101と、情報処理装置102と、表示装置103とを含んで構成されている。撮像装置101はカメラ201を備えている。情報処理装置102は、動体検出部203と、通過判定部204と、動体画像抽出部205と、通過情報記憶部と208、表示制御部209とを備えている。表示装置103は表示部210を備えている。
動体検出部203は、撮像装置101のカメラ201から画像を取得して動体を検出及び追尾し、当該動体の矩形領域の座標及び移動ベクトルを出力する。通過判定部204は、動体検出部203により検出された動体について、当該動体の矩形の座標及び移動ベクトルと、予め指定された位置における通過検知線との交差判定を行い、二次元の画像上で動体が通過検知線を通過したか否かを判定する。ここで図3は、本実施形態に係る撮像装置101が撮影した映像シーンの一例を示す図である。映像シーン300において予め通過検知線301を指定しておくことで、情報処理装置102は、通過検知線301と交差するような第1の方向302、第2の方向303の2方向について動体の通過を検知することができる。通過判定部204は、動体ごとに、通過判定結果と、通過したと判定された場合には通過方向とを出力する。
動体画像抽出部205は、カメラ201から取得した画像から、通過判定部204により通過検知線を通過したと判定された動体の領域画像を抽出する。具体的には、動体検出部203により出力された動体の矩形領域の座標に基づいて、動体の矩形領域を領域画像として抽出する。通過情報記憶部208は、現在時刻を通過発生時刻として、通過判定部204により出力された通過方向の情報と、動体画像抽出部205により抽出された動体の領域画像とを関連付けて、通過情報として記憶する。ここで、図5に通過情報記憶部208に記憶される通過情報の一例を示す。通過情報は、時刻と通過方向と動体の領域画像とを含んで構成されている。
表示制御部209は、ユーザ指示に応じて、通過情報記憶部208に記憶された通過情報に基づいて、通過方向ごとに、動体の領域画像と通過時刻とを時系列に表示装置103の表示部210に表示させる制御を行う。
<各装置のハードウェア構成>
図2は、実施形態1に係る情報処理システムが含む各装置のハードウェア構成の一例を示す図である。情報処理システムを構成する撮像装置101、情報処理装置102、表示装置103は、それぞれがネットワーク104に接続されている。
撮像装置101は、画像を撮像する装置であり、通信バス1011と、通信装置1012と、CPU1013と、RAM1014と、ROM1015と、画像センサ1016とを備えている。通信バス1011は、撮像装置101の各構成要素を接続している。通信装置1012は、ネットワーク104と通信するための通信インタフェースである。CPU1013は、演算装置であり、撮像の処理に必要な演算を行う。RAM1014は、制御プログラムの実行に必要な各種一時データを記憶するための領域である。ROM1015は、CPU1013で実行される制御プログラムや、制御プログラムの実行に必要な各種の定数を格納している。画像センサ1016は画像を撮像する。情報処理装置102は、撮像装置101により撮像された画像を処理する装置であり、通信バス1021と、通信装置1022と、CPU1023と、RAM1024と、ROM1025と、記憶装置1026、入力装置1027とを備えている。通信バス1021は、情報処理装置102の各構成要素を接続している。通信装置1022は、ネットワーク104と通信するための通信インタフェースである。CPU1023は、演算装置であり、情報処理に必要な演算を行う。RAM1024は、制御プログラムの実行に必要な各種一時データを記憶するための領域である。ROM1025は、CPU1023で実行される制御プログラムや、制御プログラムの実行に必要な各種の定数を格納している。記憶装置1026は、ハードディスク等の不揮発性記憶装置である。入力装置1027は、キーボード、マウス、タッチパネルなどのユーザインタフェース装置であり、情報処理の開始や終了、その他様々な指示を情報処理装置102に入力するために用いられる。
表示装置103は、情報処理装置102により処理された情報処理結果をユーザに対して提示する装置である。表示装置103は、通信バス1031と、通信装置1032と、CPU1033と、RAM1034と、ROM1035と、ディスプレイ1036、入力装置1037とを備えている。通信バス1031は、表示装置103の各構成要素を接続している。通信装置1032は、ネットワーク104と通信するための通信インタフェースである。CPU1033は、演算装置であり、表示処理に必要な演算を行う。RAM1034は、制御プログラムの実行に必要な各種一時データを記憶するための領域である。ROM1035は、CPU1033で実行される制御プログラムや、制御プログラムの実行に必要な各種の定数が格納される。ディスプレイ1036は、情報処理装置102の制御に基づいて情報処理結果を表示する。入力装置1037は、キーボード、マウス、タッチパネルなどのユーザインタフェース装置であり、表示に関する操作指示を表示装置103に入力するために用いられる。
なお、本実施形態では、撮像装置101、情報処理装置102、表示装置103が分離している構成を示したが、撮像装置101と情報処理装置102とが一体となった構成や、情報処理装置102と表示装置103とが一体となった構成であってもよい。また、それらすべてが一体となった構成であってもよい。
<処理>
続いて、図4のフローチャートを参照して、本実施形態に係る情報処理装置が実施する処理の手順を説明する。S700において、情報処理装置102の表示制御部209は、処理を終了するか否かを判定する。例えば、入力装置1027を介して情報処理の終了が指示されたか否かに基づいて判定を行う。処理を終了しない場合、S701へ進む。処理を終了する場合は、情報処理装置102は動作を終了する。S701において、動体検出部203は、撮像装置101のカメラ201から画像を取得する。S702において、動体検出部203は、取得した画像から動体を検出及び追尾し、当該動体の矩形領域の座標及び移動ベクトルを出力する。
S703において、通過判定部204は、動体検出部203により検出された1つ以上の動体の各々について、当該動体の矩形の座標及び移動ベクトルと、予め指定された位置における通過検知線との交差判定を行う。そして、二次元の画像上で動体が通過検知線を通過したか否かを判定する。通過検知線を通過した動体が1以上ある場合は、S704へ進む。一方、通過検知線を通過した動体が無い場合には、S700に戻る。
S704において、動体画像抽出部205は、カメラ201から取得した画像から、通過判定部204により通過検知線を通過したと判定された動体の領域画像を抽出する。具体的には、動体検出部203により出力された動体の矩形領域の座標に基づいて、動体の矩形領域を領域画像として抽出する。
S705において、通過情報記憶部208は、現在時刻を通過発生時刻として、通過判定部204により出力された通過方向の情報と、動体画像抽出部205により抽出された動体の領域画像とを関連付けて、通過情報として記憶する。その後、S700に戻る。以上で図4の一連の処理が終了する。
なお、情報処理装置102の表示制御部209は、通過情報記憶部208に記憶された通過情報に基づいて、通過方向ごとに、動体の領域画像と通過時刻とを時系列に表示装置103の表示部210に表示させる制御を行う。当該制御は、図4の一連の処理と並行して、あるいは、図4の一連の処理の途中又は終了後におけるユーザ指示に応じて行う。ここで図6は、表示部210が図5に示したような通過情報を表示した画面の一例を示す図である。図6において横方向は時刻を表す。画面上部に、第1の方向に通過した動体を、画面下部に、第2の方向に通過した動体を表示している。通過情報記憶部208に記憶されているそれぞれの通過情報の時刻に合わせて横方向の位置を決定する。例えば、時刻10時33分に、第1の方向に車両が通過しており、動体の画像601が表示されている。
以上説明したように、本実施形態に係る情報処理装置は、撮像画像から動体を検出し、撮像画像における所定の位置を動体が通過したか否かを判定する通過判定を行い、撮像画像から所定の位置を通過した動体の領域画像を抽出する。そして、動体の領域画像を、所定の位置を通過した通過方向ごとに時系列に表示部に表示させる。これにより、通過方向に応じた動体の挙動を容易に把握することが可能となる。
(実施形態2)
実施形態1では、検出された動体の領域画像をそのまま表示する例を示したが、通過方向に応じて領域画像の一部を表示するように変更する例を説明する。
<情報処理システムの構成及び各装置の機能構成>
図8は、実施形態2に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図である。各装置のうち情報処理装置102の構成が実施形態1とは異なっている。以下、主に情報処理装置102の機能構成について説明する。なお、ハードウェア構成については実施形態1と同様であるため、説明を省略する。
実施形態1では一般的な動体を検出対象としていたが、本実施形態では動体の中でも特に人体を検出対象とする。そのため、実施形態2に係る情報処理装置102は、実施形態1の動体検出部203に代えて人体検出部2101を、動体画像抽出部205に代えて人体画像抽出部2102を備えている。
人体検出部2101は、撮像装置101のカメラ201から画像を取得して人体を検出及び追尾し、当該人体の矩形領域の座標及び移動ベクトルを出力する。人体画像抽出部2102は、カメラ201から取得した画像から、通過判定部204により通過検知線を通過したと判定された人体の領域画像を抽出する。具体的には、人体検出部2101により出力された人体の矩形領域の座標に基づいて、人体の矩形領域を領域画像として抽出する。その際、通過判定部204から取得した人体の通過方向に基づいて、抽出する領域を変更する。
ここで図7は、本実施形態に係る撮像装置101が撮影した映像シーンの一例を示す図である。映像シーン700において予め通過検知線701を指定しておくことで、情報処理装置102は、通過検知線701と交差するような第1の方向702、第2の方向703の2方向について人体の通過を検知することができる。通過判定部204は、人体ごとに、通過判定結果と、通過したと判定された場合には通過方向とを出力する。
図7のようなシーンの場合、人体画像抽出部2102は、通過判定部204から取得した人体の通過方向が第1の方向702である場合、人体の正面画像が得られる(人体の正面が観察される)ことが多いため、人体の矩形領域を領域画像として抽出する。そして、さらに当該領域画像に対して顔検出を行って顔領域の画像を抽出する。一方、通過方向が第2の方向703である場合、人体の背面画像(後姿画像)が得られる(背面が観察される)ことが多いため、人体検出部2101が出力する人体の矩形領域をそのまま領域画像として抽出する。
<処理>
続いて、図8のフローチャートを参照して、本実施形態に係る情報処理装置が実施する処理の手順を説明する。まず、S2200〜S2203、S2205の各処理は、実施形態1で説明した図4のS700〜S703、S705の各処理と同様であるため、説明を省略する。
S2204において、人体画像抽出部2102は、通過方向が図7に示した第1の方向702である場合、人体の矩形領域(全体領域)を領域画像として抽出し、さらに当該領域画像に対して顔検出を行って顔領域(一部領域)の画像を抽出する。一方、通過方向が第2の方向703である場合、人体検出部2101が出力する人体の矩形領域をそのまま領域画像として抽出する。
なお、情報処理装置102の表示制御部209は、通過情報記憶部208に記憶された通過情報に基づいて、通過方向ごとに、人体の領域画像(又は顔領域画像)と通過時刻とを時系列に表示装置103の表示部210に表示させる制御を行う。当該制御は、図9の一連の処理と並行して、あるいは、図9の一連の処理の途中又は終了後におけるユーザ指示に応じて行う。ここで図10は、表示部210が図5に示したような通過情報を表示した画面の一例を示す図である。図10において横方向は時刻を表す。画面上部に、第1の方向に通過した人体の顔領域画像を、画面下部に、第2の方向に通過した人体の領域画像を表示している。
以上説明したように、本実施形態に係る情報処理装置は、撮像画像から人体を検出し、撮像画像における所定の位置を人体が通過したか否かを判定する通過判定を行う。そして、撮像画像から所定の位置を通過した人体の領域画像を通過方向に応じて抽出領域を変更して抽出し、人体の領域画像又は当該領域画像の一部を、所定の位置を通過した通過方向ごとに時系列に表示部に表示させる。これにより、通過方向に応じた動体の挙動を容易に把握することが可能となるとともに、通過方向によっては、より詳細な情報を把握することが可能となる。
(実施形態3)
実施形態1、実施形態2では、抽出する動体(人体)の画像は通過時の画像である。しかし、動体(人体)が通過した瞬間の画像がボケている場合や、他の動体(人体)と重なっている場合も考えられる。そこで、本実施形態では、動体(人体)の過去の画像の中から適切な画像を選択して表示する例を説明する。また、以下では人体を対象とする実施形態2との違いを説明するが、実施形態1と同様に広く動体を対象としても適用可能である。
<情報処理システムの構成及び各装置の機能構成>
図11は、実施形態3に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図である。各装置のうち情報処理装置102の構成が実施形態2とは異なっている。以下、主に情報処理装置102の機能構成について説明する。なお、ハードウェア構成については実施形態2と同様であるため、説明を省略する。
実施形態3に係る情報処理装置102は、実施形態2の情報処理装置の構成に加えて、撮像画像記憶部3101をさらに備えている。撮像画像記憶部3101は、カメラ201から順次入力された画像を一定時間の過去、未来の分まで記憶する。
<処理>
続いて、実施形態2でも説明した図9のフローチャートを参照して、本実施形態に係る情報処理装置が実施する処理の手順を説明する。S2200、S2202、S2203、S2205の各処理は実施形態2と同様であるため、説明を省略する。
S2201において、撮像画像記憶部3101は、カメラ201から取得した画像を記憶する。撮像画像記憶部3101は一定時間の過去の分まで遡って複数の画像を記憶する。
S2204において、人体画像抽出部3102は、通過判定部204により通過検知線を通過したと判定された人体の通過時点の前後の複数フレームの撮像画像の中から、画像のエッジ強度に基づいて撮像画像を選択する。そして、当該選択された撮像画像から領域画像を抽出する。ここで、人体の通過時点の前後の複数フレームの撮像画像とは、撮像画像記憶部3101に記憶されている過去の複数の画像の中の一部の画像である。例えば、画像のエッジ強度を各画像について算出してエッジ強度が最も大きい画像を選択する。これにより、焦点の合った明瞭な画像を選択することができる。また、着目する人体の矩形領域と他の人体の矩形領域との重複領域の面積を算出し、面積が最も小さい画像を選択してもよい。これにより、着目する人体が他の人体の影に隠れておらず、より広い人体領域を視認可能な画像を選択することができる。また、人体の領域画像に対して顔検出を行い、顔検出の信頼度スコアを算出し、当該信頼度スコアが最も高い画像を選択してもよい。これにより、人物の顔が適切に写っている画像を選択することができる。
以上説明したように、本実施形態に係る情報処理装置は、動体(人体)の過去の複数の画像を一定時間過去に遡って記憶しておき、それらの画像から適切な画像を選択して表示する。例えば、ボケが生じていない明瞭な画像、他の動体(人体)との重複が少ない画像、顔検出の信頼度スコアが高い画像などを選択する。これにより、ユーザの確認に適した画像を提供することが可能となる。
(実施形態4)
実施形態1〜3では、通過検知線を通過する動体(人体)の画像を表示する際、各動体(人体)を別個の動体として扱っていた。しかし、同一の動体が通過検知線を複数回通過したり、異なる通過方向へ通過したりすることがある。本実施形態では、そのような動体(人体)の挙動を適切に可視化し、容易に把握できるようにする例を説明する。
<情報処理システムの構成及び各装置の機能構成>
図12は、実施形態4に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図である。各装置のうち情報処理装置102の構成、表示装置103の構成が実施形態2とは異なっている。以下、主に情報処理装置102、表示装置103の機能構成について説明する。なお、ハードウェア構成については実施形態2と同様であるため、説明を省略する。
実施形態4に係る情報処理装置102は、図8を参照して説明した実施形態2の情報処理装置の構成に加えて、人物特徴抽出部4101をさらに備え、また、通過情報記憶部208に代えて通過情報記憶部4102を備えている。
人物特徴抽出部4101は、人体画像抽出部2102により抽出された人体の領域画像を用いて、個人の識別(個体識別)に用いる人物特徴ベクトルを抽出する。例えば、頭部・上半身・下半身の3つの色情報を抽出することにより、人物の服装を特徴付ける人物特徴ベクトルを抽出する。また、人体の領域画像をニューラルネットワークに入力し、中間層の出力を人体特徴ベクトルとして抽出してもよい。また、人体の領域画像を用いて身長や体型を算出して、その算出結果を人体特徴ベクトルとしてもよい。また、人体の領域画像をそのまま人体特徴ベクトルとして使用してもよい。
通過情報記憶部4102は、図5に示した通過情報に加えて、図14に示すように、人物特徴抽出部4101により抽出された人物特徴ベクトルを通過情報としてさらに記憶する。
また、実施形態4に係る表示装置103は、表示部210に加えて、人物照合部4103をさらに備える。人物照合部4103は、通過情報記憶部4102に記憶されている通過情報に対して、人物特徴ベクトルによる照合を行い、通過情報間での同一人物の判定を行う。なお、人物照合部4103の機能は情報処理装置102が備えていてもよい。
<処理>
続いて、図13のフローチャートを参照して、本実施形態に係る情報処理装置が実施する処理の手順を説明する。S4200〜S4204の各処理は、実施形態2で図9を参照して説明したS2200〜S2204の各処理と同様であるため、説明を省略する。
S4205において、人物特徴抽出部4101は、人体画像抽出部2102により抽出された人体の領域画像を用いて、個人の識別に用いる人物特徴ベクトルを抽出する。S4206において、通過情報記憶部4102は、現在時刻を通過発生時刻として、通過判定部204により出力された通過方向の情報と、人体画像抽出部2102により抽出された人体の領域画像と、人物特徴抽出部4101により抽出された人物特徴ベクトルとを関連付けて、通過情報として記憶する。
なお、表示装置103の人物照合部4103は、通過情報記憶部4102に記憶された通過情報に対し、人物特徴ベクトルによる照合を行い、通過情報間での同一人物の判定(動体同士が同一の動体であるかの判定)を行う。そして、表示部210は、図15に示されるように、画面中央部に、人物照合部4103により同一人物であると判定された通過情報同士を線で結んで表示する。図15では、図10の表示に加えて、同一人物と判定された画像同士が人物ごとに異なる色の線で結ばれている。なお、色以外にも線の太さを人物ごとに変更したり、線の種類(点線、実践、一点鎖線など)を変更したり、これらを組み合わせたりしてもよい。
以上説明したように、本実施形態に係る情報処理装置(又は表示装置)は、検出した人物について通過方向ごとに時系列に表示する際に、同一人物同士を(例えば領域画像同士を線で結ぶことによって)関連付けて表示する。これにより、通過した人物がどのような行動をしたのかをより視覚的に把握することが可能となる。
(実施形態5)
実施形態1〜4では、撮像装置として単一のカメラを使用する例を説明した。これに対して、本実施形態では、複数のカメラを使用することにより動体(人体)のより適切な画像を抽出して表示する例を説明する。
ここで図16は、本実施形態に係る複数のカメラを備える撮像装置が撮影した映像シーンの一例を示す図である。図16(a)はシーンの俯瞰図である。第1のカメラ161、第2のカメラ162を使用して、通過検知線1601を第1の方向1602又は第2の方向1603に通過する動体(人体)の画像を撮像する。図16(b)は第1のカメラ161により撮像された映像シーンを示し、図16(b)は第2のカメラ162により撮像された映像シーンを示す。通過検知線1601は、空間上で同一の位置に存在するように各カメラに対して予め設定する。
第1の方向1602に通過した人物について、第1のカメラ161では後ろ姿が写っているのに対して(図16(b))、第2のカメラ162では正面の姿を捉えることができる(図16(c))。逆に、第2の方向1603に通過した人物については、第2のカメラ162では後ろ姿が写っているのに対して(図16(c))、第1のカメラ161では正面の姿を捉えることができる(図16(b))。
このような状況においては、第1の方向1602に通過した人物については第2のカメラ162の画像を、第2の方向1603に通過した人物については第1のカメラ161の画像を利用することで人物の顔がより鮮明に写った画像を表示することが可能となる。
<情報処理システムの構成及び各装置の機能構成>
図17は、実施形態5に係る情報処理システムが含む各装置の機能構成の一例を示すブロック図である。各装置のうち撮像装置101、情報処理装置102の構成が実施形態2とは異なっている。以下、主に撮像装置101、情報処理装置102の機能構成について説明する。なお、ハードウェア構成については実施形態2と同様であるため、説明を省略する。
撮像装置101は、図16に示したような第1のカメラ161、第2のカメラ162の2台のカメラを含む。情報処理装置102は、人体検出部5101と、人体統合部5102と、通過判定部5103と、人体画像抽出部5104と、通過情報記憶部208と、表示制御部209とを備えている。
人体検出部5101は、人体検出部2101と同様の機能を有しており、第1のカメラ161及び第2のカメラ162の各々から画像を取得して人体を検出及び追尾し、当該人体の矩形領域の座標及び移動ベクトルを出力する。
人体統合部5102は、第1のカメラ161及び第2のカメラ162の各々の画像に含まれる人体の矩形領域の座標を人体検出部5101から取得し、人体の矩形の幾何学的な位置関係に基づいて同一人物であるかの判定を行う。そして、全ての人体の矩形について、矩形の座標、矩形の移動ベクトル、人物を表す識別子を関連付けて、同一人物情報として出力する。同一人物であるかの判定には、例えば、特許文献2に開示の方法を用いることができる。
通過判定部5103は、人体統合部5102から取得した同一人物情報に含まれる人物を表す識別子のそれぞれについて、識別子の表す人物が通過検知線1601を通過したかどうかを判定する。そして、通過判定結果と、通過したと判定された場合には通過方向を示す情報(第1の方向1602又は第2の方向1603)と、人物を表す識別子とを出力する。例えば、人物を表す複数の人体の矩形から面積が最大の矩形を選択し、当該人体の矩形について、実施形態1で説明した通過判定部204と同じ方法により通過判定を行うことができる。
人体画像抽出部5104は、通過判定部5103により通過したと判定された人物の適切な画像を出力する。具体的には、通過判定部5103から取得した、通過した人物を表す識別子について、人体統合部5102から取得した同一人物情報から、当該人物を表す識別子と関連付けられた複数の人体の矩形の座標を取得する。それぞれの人体の矩形の座標について、その人体が含まれる画像を撮像装置101から取得し、人体の矩形領域の画像を領域画像として抽出し、当該領域画像に対して顔検出を行う。顔検出の結果、顔が検出された場合、領域画像から顔画像をさらに抽出する。何れの領域画像からも顔が検出されなかった場合は、領域画像のうち面積が最大の画像を出力する。
なお、本実施形態ではカメラを2台用いたる例を説明するが、3台以上備えてもよい。また、本実施形態では、撮像装置101と情報処理装置102とが分離した構成を例として示したが、例えば、複数のカメラのうち一台を主機とし、その中に情報処理装置の機能が含まれる構成であってもよい。
<処理>
続いて、図18のフローチャートを参照して、本実施形態に係る情報処理装置が実施する処理の手順を説明する。まず、S5200、S5206の各処理は、実施形態2で説明した図9のS2200、S2205の各処理と同様であるため、説明を省略する。
S5201において、人体検出部5101は、第1のカメラ161及び第2のカメラ162の各々から画像を取得する。S5202において、人体検出部5101は、各カメラから取得した画像から人体を検出及び追尾し、当該人体の矩形領域の座標及び移動ベクトルを出力する。
S5203において、人体統合部5102は、第1のカメラ161及び第2のカメラ162の各々の画像に含まれる人体の矩形領域の座標を人体検出部5101から取得し、人体の矩形の幾何学的な位置関係に基づいて同一人物であるかの判定を行う。そして、全ての人体の矩形について、矩形の座標、矩形の移動ベクトル、人物を表す識別子を関連付けて、同一人物情報として出力する。
S5204において、通過判定部5103は、人体検出部5101により検出された1つ以上の人物の各々について、当該人物の矩形の座標及び移動ベクトルと、予め指定された位置における通過検知線1601との交差判定を行う。そして、二次元の画像上で人物が通過検知線1601を通過したか否かを判定する。通過検知線1601を通過した人物が1以上ある場合は、S5205へ進む。一方、通過検知線1601を通過した人物が無い場合には、S5200に戻る。
S5205において、人体画像抽出部5104は、人体統合部5102から取得した同一人物情報に基づいて、通過判定部5103により通過したと判定された人物を表す識別子と関連付けられた複数の人体の矩形の座標を取得する。それぞれの人体の矩形の座標について、その人体が含まれる画像を各カメラから取得し、人体の矩形領域の画像を領域画像として抽出し、当該領域画像に対して顔検出を行う。顔が検出された場合、領域画像から顔画像をさらに抽出する。ここで図19は、本実施形態に係る通過情報を表示部210に表示した画面例である。本実施形態でによれば、複数のカメラで取得された画像のうち、通過した人物の顔が写っている画像を人物の画像として通過方向ごとに時系列で表示することができる。
なお、何れの領域画像からも顔が検出されなかった場合は、領域画像のうち面積が最大の画像を出力する。これにより、顔画像に次いで通過人物を確認するのに適した画像を提示することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102:情報処理装置、203:動体検出部、204:通過判定部、205:動体画像抽出部、208:通過情報記憶部、209:表示制御部

Claims (22)

  1. 撮像画像から動体を検出する動体検出手段と、
    前記撮像画像における所定の位置を前記動体が通過したかを判定する通過判定手段と、
    前記撮像画像から前記所定の位置を通過した動体の領域画像を抽出する画像抽出手段と、
    記所定の位置を第1方向に通過した複数の動体の各々について抽出された前記領域画像を当該所定の位置を通過した順に並べて表示手段に表示させ、当該所定の位置を当該第1方向と異なる第2方向に通過した複数の動体の各々について抽出された前記領域画像を当該所定の位置を通過した順に並べて前記表示手段に表示させる表示制御手段とを有することを特徴とする情報処理装置。
  2. 前記画像抽出手段は、前記所定の位置の通過方向に応じて前記動体の領域画像の抽出領域を変更することを特徴とする請求項1に記載の情報処理装置。
  3. 前記画像抽出手段は、前記通過方向が前記第方向である場合、前記動体の全体領域の領域画像を抽出し、前記通過方向が前記第方向である場合、前記動体の一部領域の領域画像を抽出することを特徴とする請求項2に記載の情報処理装置。
  4. 前記動体は人体であり、前記一部領域は顔領域であることを特徴とする請求項3に記載の情報処理装置。
  5. 前記第方向は、前記撮像画像において通過時に前記人体の正面が観察される方向であることを特徴とする請求項4に記載の情報処理装置。
  6. 前記第方向は、前記撮像画像において通過時に前記人体の背面が観察される方向であることを特徴とする請求項4又は5に記載の情報処理装置。
  7. 前記画像抽出手段は、前記所定の位置を通過した前記動体の通過時点の前後の複数フレームの撮像画像の中から、画像のエッジ強度に基づいて撮像画像を選択し、当該選択された撮像画像から前記領域画像を抽出することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記画像抽出手段は、前記所定の位置を通過した前記動体の通過時点の前後の複数フレームの撮像画像の中から、他の動体の領域との重複領域の面積に基づいて撮像画像を選択し、当該選択された撮像画像から前記領域画像を抽出することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  9. 前記画像抽出手段は、前記所定の位置を通過した前記動体の通過時点の前後の複数フレームの撮像画像の中から、各撮像画像に対する顔検出の信頼度スコアに基づいて撮像画像を選択し、当該選択された撮像画像から前記領域画像を抽出することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  10. 前記撮像画像から前記動体の個体識別のための特徴を抽出する特徴抽出手段と、
    前記特徴を用いて通過方向の異なる動体同士が同一の動体であるかを判定する判定手段と、をさらに備え、
    前記表示制御手段は、前記判定手段により同一の動体であると判定された動体同士を関連付けて前記表示手段に表示させることを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記動体は人体であり、
    同じ空間を異なる方向から撮像する複数のカメラにより撮像された複数の撮像画像における人物同士が同一の人物であるかを判定する判定手段と、
    前記画像抽出手段により抽出される対象となる撮像画像は、同一の人物であると判定された前記複数の撮像画像の中から人物の顔検出の結果に基づいて選択されることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 撮像画像から動体を検出する動体検出工程と、
    前記撮像画像における所定の位置を前記動体が通過したかを判定する通過判定工程と、
    前記撮像画像から前記所定の位置を通過した動体の領域画像を抽出する画像抽出工程と、
    前記所定の位置を第1方向に通過した複数の動体の各々について抽出された前記領域画像を当該所定の位置を通過した順に並べて表示手段に表示させ、当該所定の位置を当該第1方向と異なる第2方向に通過した複数の動体の各々について抽出された前記領域画像を当該所定の位置を通過した順に並べて前記表示手段に表示させる表示制御工程とを有することを特徴とする情報処理装置の制御方法。
  13. 前記画像抽出工程において、前記所定の位置の通過方向に応じて前記動体の領域画像の抽出領域を変更することを特徴とする請求項12に記載の制御方法。
  14. 前記画像抽出工程において、前記通過方向が前記第方向である場合、前記動体の全体領域の領域画像を抽出し、前記通過方向が前記第方向である場合、前記動体の一部領域の領域画像を抽出することを特徴とする請求項13に記載の制御方法。
  15. 前記動体は人体であり、前記一部領域は顔領域であることを特徴とする請求項14に記載の制御方法。
  16. 前記第方向は、前記撮像画像において通過時に前記人体の正面が観察される方向であることを特徴とする請求項15に記載の制御方法。
  17. 前記第方向は、前記撮像画像において通過時に前記人体の背面が観察される方向であることを特徴とする請求項15又は16に記載の制御方法。
  18. 前記画像抽出工程において、前記所定の位置を通過した前記動体の通過時点の前後の複数フレームの撮像画像の中から、画像のエッジ強度に基づいて撮像画像を選択し、当該選択された撮像画像から前記領域画像を抽出することを特徴とする請求項12乃至17の何れか1項に記載の制御方法。
  19. 前記画像抽出工程において、前記所定の位置を通過した前記動体の通過時点の前後の複数フレームの撮像画像の中から、他の動体の領域との重複領域の面積に基づいて撮像画像を選択し、当該選択された撮像画像から前記領域画像を抽出することを特徴とする請求項12乃至17の何れか1項に記載の制御方法。
  20. 前記画像抽出工程において、前記所定の位置を通過した前記動体の通過時点の前後の複数フレームの撮像画像の中から、各撮像画像に対する顔検出の信頼度スコアに基づいて撮像画像を選択し、当該選択された撮像画像から前記領域画像を抽出することを特徴とする請求項12乃至17の何れか1項に記載の制御方法。
  21. 前記撮像画像から前記動体の個体識別のための特徴を抽出する特徴抽出工程と、
    前記特徴を用いて通過方向の異なる動体同士が同一の動体であるかを判定する判定工程と、をさらに備え、
    前記表示制御工程において、前記判定工程において同一の動体であると判定された動体同士を関連付けて前記表示手段に表示することを特徴とする請求項12乃至20の何れか1項に記載の制御方法。
  22. コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2016254092A 2016-12-27 2016-12-27 情報処理装置、情報処理装置の制御方法及びプログラム Active JP6792446B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016254092A JP6792446B2 (ja) 2016-12-27 2016-12-27 情報処理装置、情報処理装置の制御方法及びプログラム
US15/848,834 US10593045B2 (en) 2016-12-27 2017-12-20 Information processing apparatus and method of controlling the same
JP2020186050A JP6952857B2 (ja) 2016-12-27 2020-11-06 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016254092A JP6792446B2 (ja) 2016-12-27 2016-12-27 情報処理装置、情報処理装置の制御方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020186050A Division JP6952857B2 (ja) 2016-12-27 2020-11-06 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018107702A JP2018107702A (ja) 2018-07-05
JP2018107702A5 JP2018107702A5 (ja) 2020-02-06
JP6792446B2 true JP6792446B2 (ja) 2020-11-25

Family

ID=62629860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016254092A Active JP6792446B2 (ja) 2016-12-27 2016-12-27 情報処理装置、情報処理装置の制御方法及びプログラム

Country Status (2)

Country Link
US (1) US10593045B2 (ja)
JP (1) JP6792446B2 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3384425B2 (ja) * 1995-08-18 2003-03-10 日本電信電話株式会社 移動物体監視計測装置
JPH11112965A (ja) * 1997-09-30 1999-04-23 Omron Corp 移動体の観測装置
JP2007281680A (ja) 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP5834254B2 (ja) * 2014-04-11 2015-12-16 パナソニックIpマネジメント株式会社 人数計測装置、人数計測システムおよび人数計測方法
JP6525635B2 (ja) 2015-02-25 2019-06-05 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6520218B2 (ja) * 2015-03-03 2019-05-29 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP6700791B2 (ja) 2016-01-05 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6735594B2 (ja) 2016-04-15 2020-08-05 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP6840492B2 (ja) * 2016-08-30 2021-03-10 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US10593045B2 (en) 2020-03-17
JP2018107702A (ja) 2018-07-05
US20180182107A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
JP5227911B2 (ja) 監視映像検索装置及び監視システム
GB2529943B (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
JP6674584B2 (ja) 映像監視システム
JP4168940B2 (ja) 映像表示システム
US8983131B2 (en) Video analysis
JP5691807B2 (ja) 置き去り又は持ち去り検知システム
WO2017163955A1 (ja) 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体
KR100826878B1 (ko) 손 모양을 인식하는 방법 및 이를 위한 장치
JPH09153137A (ja) 画像認識方法
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JP2016015579A (ja) 情報処理装置、情報処理方法及びプログラム
JP6952857B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6792446B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
JP5376403B2 (ja) 映像表示装置及びプログラム
JP2020098441A (ja) 着順判定方法、着順判定装置およびプログラム
JP5051885B2 (ja) 人物検索装置及び人物検索方法
KR102576795B1 (ko) 포즈 추정 기반의 정면 영상 획득 방법 및 이를 위한 장치
KR101539944B1 (ko) 객체 식별 방법
JP2005140754A (ja) 人物検知方法、監視システム、およびコンピュータプログラム
JP2008146132A (ja) 画像検出装置、プログラム及び画像検出方法
JP6543546B2 (ja) 特定動作検出装置及び特定動作検出方法
JP5854098B2 (ja) 情報表示装置及び情報表示用プログラム
JP7211496B2 (ja) 教師データ生成装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200923

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201106

R151 Written notification of patent or utility model registration

Ref document number: 6792446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151