JP2010239992A - Person identification device, person identification method, and person identification program - Google Patents

Person identification device, person identification method, and person identification program Download PDF

Info

Publication number
JP2010239992A
JP2010239992A JP2009088562A JP2009088562A JP2010239992A JP 2010239992 A JP2010239992 A JP 2010239992A JP 2009088562 A JP2009088562 A JP 2009088562A JP 2009088562 A JP2009088562 A JP 2009088562A JP 2010239992 A JP2010239992 A JP 2010239992A
Authority
JP
Japan
Prior art keywords
person
identification
identification element
tracking
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009088562A
Other languages
Japanese (ja)
Other versions
JP5478928B2 (en
Inventor
Masaki Murakawa
正貴 村川
Satoshi Futami
聡 二見
Takehiro Mabuchi
健宏 馬渕
Takuo Moriguchi
拓雄 森口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2009088562A priority Critical patent/JP5478928B2/en
Publication of JP2010239992A publication Critical patent/JP2010239992A/en
Application granted granted Critical
Publication of JP5478928B2 publication Critical patent/JP5478928B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To highly precisely identify a person according to the situation of the person included in an image. <P>SOLUTION: A person identification device 10 identifies the person included in videos photographed in different periods, and includes: an identification element extraction means 15 which extracts the identification element of the person; an identification element selection means 16 which selects an identification element not to be used from among already identification elements according to a photographic condition preset based on a feature quantity obtained by the identification element extraction means; and an identification means 17 which identifies the person using the identification element obtained by the identification element selection means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、人物同定装置、人物同定方法、及び人物同定プログラムに係り、特に画像に含まれる人物の状況に応じて高精度に人物の同定を行うための人物同定装置、人物同定方法、及び人物同定プログラムに関する。 The present invention relates to a person identification apparatus, a person identification method, and a person identification program, and in particular, a person identification apparatus, a person identification method, and a person for identifying a person with high accuracy according to the situation of a person included in an image It relates to an identification program.

従来、カメラ等の撮像手段により撮影された画像や映像を用いて人物を検出し、その人物が誰であるかを顔認証により同定する手法や、人物を追跡する際に、時系列に得られる画像群からその人物が移動したものであるか、又は他の人物であるかを判定し、人物を同定する手法が知られている(例えば、特許文献1,2参照。)。 Conventionally, a person is detected by using an image or video taken by an imaging means such as a camera, and the person is identified by face authentication, or obtained in time series when tracking a person. There is known a method for determining whether a person has moved from an image group or another person and identifying the person (see, for example, Patent Documents 1 and 2).

上述の特許文献1では、人物の顔の3次元形状及びその表面の画像を検出し、顔の3次元形状及びその表面の画像と問合せ顔画像データとを照合し、その人物を同定する顔照合方法において、問合せ顔画像データの撮影条件を推定し、撮影条件と3次元形状及びその表面の画像によりグラフィクス手段を利用して照合用顔画像データを生成し、照合用顔画像データと問合せ顔画像データを比較し、問合せ顔画像データが、照合用顔画像データとの差異が小さい場合には照合用顔画像データの人物のものであると同定する手法が示されている。 In the above-mentioned Patent Document 1, a face verification is performed by detecting a three-dimensional shape of a person's face and an image of the surface thereof, comparing the three-dimensional shape of the face and the image of the surface with inquiry face image data, and identifying the person. In the method, the photographing condition of the inquiry face image data is estimated, the face image data for matching is generated by using the graphics means based on the photographing condition, the three-dimensional shape and the image of the surface, and the face image data for matching and the inquiry face image A method is shown in which the data is compared, and when the inquiry face image data has a small difference from the face image data for collation, the face image data for collation is identified as a person.

また、上述の特許文献2では、音声と対応付けられた画像を用いた人物同定方法であって、第1の画像中に写っている顔と、第2の画像に写っている顔とが同一人物かどうかを判定する第1の判定工程と、第1及び第2の画像に付随している音声が同一人物のものであるかどうかを判定する第2の判定工程と、第1の判定工程あるいは第2の判定工程のいずれかにより同一人物と判定された画像を、同一の人物であると判定する第3の判定工程とを有する人物同定方法が示されている。 Moreover, in the above-mentioned patent document 2, it is a person identification method using the image matched with the audio | voice, Comprising: The face reflected in the 1st image and the face reflected in the 2nd image are the same A first determination step for determining whether or not a person is present, a second determination step for determining whether or not sounds attached to the first and second images belong to the same person, and a first determination step Or the person identification method which has the 3rd determination process which determines that the image determined as the same person by either of the 2nd determination processes is the same person is shown.

特開2001−283224号公報JP 2001-283224 A 特開2000−76459号公報Japanese Patent Laid-Open No. 2000-76459

しかしながら、上述した手法の場合には、顔認証を用いて誰なのかを判定し、人物を同定することになるが、撮影された画像又は映像では、常に顔が映っているとは限らない。つまり、画像による犯罪の予兆察知として、画像上の人物を追跡しなければならず、不審かどうかは、対象の人物によって変化するため、顔の向きに関係なく、常に動作等を追跡しておく必要があり、撮影された画像に含まれる撮影状況に応じた同定手法が必要となる。 However, in the case of the above-described method, a person is identified by using face authentication and a person is identified, but a face is not always shown in a captured image or video. In other words, the person on the image must be tracked as a predictive crime crime by the image, and whether or not it is suspicious changes depending on the target person, so the action etc. are always tracked regardless of the orientation of the face. There is a need for an identification method according to the shooting situation included in the shot image.

本発明は、上記の問題点に鑑みてなされたものであって、画像に含まれる人物の状況に応じて高精度に人物の同定を行うための人物同定装置、人物同定方法、及び人物同定プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and a person identification device, a person identification method, and a person identification program for accurately identifying a person according to the situation of a person included in an image The purpose is to provide.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。 In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

本発明では、異なる時間に撮影された映像に含まれる人物を同定する人物同定装置において、前記人物の同定要素を抽出する同定要素抽出手段と、前記同定要素抽出手段により得られた特徴量から予め設定された撮影条件に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段と、前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段とを有することを特徴とする。これにより、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。 According to the present invention, in a person identification device for identifying a person included in videos taken at different times, an identification element extraction unit that extracts an identification element of the person, and a feature amount obtained by the identification element extraction unit in advance. Identification element selecting means for selecting an unused identification element from identification elements already set according to set photographing conditions, and identification for identifying the person using the identification element obtained by the identification element selection means Means. Thereby, a person can be identified with high accuracy according to the situation of the person included in the image.

また本発明では、前記同定手段は、前記同定要素選択手段により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定することを特徴とする。 In the present invention, the identification means resets the weights for the identification elements selected by the identification element selection means in correspondence with the current weighting ratio.

また本発明では、前記同定要素抽出手段は、前記同定要素として、歩容、体型、性別を特徴量として抽出し、前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする。 In the present invention, the identification element extraction means extracts gaits, body types, and genders as feature quantities as the identification elements, and the gait includes a step length, a pace, a walking speed, a standard deviation of a walking speed, and a walking acceleration. And at least one of a standard deviation, a body inclination, and a leg length.

また本発明では、前記同定手段により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手段と、前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする。 Further, in the present invention, when the identification unit identifies that the person is the same person, a tracking unit that tracks the person, and a suspicious person detection unit that detects a suspicious person from the tracking result in the tracking unit, And screen generating means for generating a screen for displaying the tracking result.

更に本発明では、異なる時間に撮影された映像に含まれる人物を同定する人物同定方法において、前記人物の同定要素を抽出する同定要素抽出手順と、前記同定要素抽出手順により得られた特徴量から予め設定された撮影条件に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手順と、前記同定要素選択手順により得られた同定要素を用いて前記人物の同定を行う同定手順とを有することを特徴とする。これにより、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。 Furthermore, in the present invention, in a person identification method for identifying a person included in images shot at different times, an identification element extraction procedure for extracting the identification element of the person, and a feature amount obtained by the identification element extraction procedure An identification element selection procedure for selecting an unused identification element from identification elements that are already set according to preset imaging conditions, and the person is identified using the identification element obtained by the identification element selection procedure. And an identification procedure. Thereby, a person can be identified with high accuracy according to the situation of the person included in the image.

また本発明では、前記同定手順は、前記同定要素選択手順により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定することを特徴とする。 In the present invention, the identification procedure resets the weights for the identification elements selected by the identification element selection procedure in correspondence with the current weighting ratio.

また本発明では、前記同定要素抽出手順は、前記同定要素として、歩容、体型、性別を特徴量として抽出し、前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする。 In the present invention, the identification element extraction procedure extracts, as the identification element, a gait, a body shape, and gender as feature quantities, and the gait includes a step length, a pace, a walking speed, a standard deviation of a walking speed, and a walking acceleration. And at least one of a standard deviation, a body inclination, and a leg length.

また本発明では、前記同定手順により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手順と、前記追跡手順における追跡結果から不審者を検出する不審者検出手順と、前記追跡結果を表示する画面を生成する画面生成手順とを有することを特徴とする。 Further, in the present invention, when the identification procedure identifies the same person as the person, a tracking procedure for tracking the person, and a suspicious person detection procedure for detecting a suspicious person from the tracking result in the tracking procedure, And a screen generation procedure for generating a screen for displaying the tracking result.

更に本発明では、異なる時間に撮影された映像に含まれる人物を同定する人物同定装置における人物同定プログラムにおいて、コンピュータを、前記人物の同定要素を抽出する同定要素抽出手段、前記同定要素抽出手段により得られた特徴量から予め設定された撮影条件に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段、及び、前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段として機能させる。これにより、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物同定処理を容易に実現することができる。 Further, according to the present invention, in a person identification program in a person identification device for identifying a person included in images taken at different times, a computer is provided with an identification element extraction means for extracting the identification element of the person, and the identification element extraction means. Using the identification element selection means for selecting an identification element not to be used from the identification elements already set according to the imaging conditions set in advance from the obtained feature quantity, and using the identification element obtained by the identification element selection means And function as identification means for identifying the person. Thereby, a person can be identified with high accuracy according to the situation of the person included in the image. Further, by installing the program, the person identification process in the present invention can be easily realized by a general-purpose personal computer or the like.

また本発明では、前記同定手段は、前記同定要素選択手段により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定することを特徴とする。 In the present invention, the identification means resets the weights for the identification elements selected by the identification element selection means in correspondence with the current weighting ratio.

また本発明では、前記同定要素抽出手段は、前記同定要素として、歩容、体型、性別を特徴量として抽出し、前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする。 In the present invention, the identification element extraction means extracts gaits, body types, and genders as feature quantities as the identification elements, and the gait includes a step length, a pace, a walking speed, a standard deviation of a walking speed, and a walking acceleration. And at least one of a standard deviation, a body inclination, and a leg length.

また本発明では、前記同定手段により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手段と、前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする。 Further, in the present invention, when the identification unit identifies that the person is the same person, a tracking unit that tracks the person, and a suspicious person detection unit that detects a suspicious person from the tracking result in the tracking unit, And screen generating means for generating a screen for displaying the tracking result.

本発明によれば、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。 According to the present invention, it is possible to identify a person with high accuracy according to the situation of the person included in the image.

本実施形態における人物同定装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the person identification apparatus in this embodiment. 人物の歩き方の一例を示す図である。It is a figure which shows an example of how to walk a person. 歩容特徴量を算出する際の基準となる値を示す図である。It is a figure which shows the value used as the reference | standard at the time of calculating a gait feature-value. 肥満度の算出例を説明するための図である。It is a figure for demonstrating the example of calculation of an obesity degree. 本実施形態における人物同定に用いられる特徴量と対応する抽出要素の内容を説明するための図である。It is a figure for demonstrating the content of the extraction element corresponding to the feature-value used for person identification in this embodiment. 本実施形態における状態判定の一例を示す図である。It is a figure which shows an example of the state determination in this embodiment. 特徴量の重みを調整した例を示す図である。It is a figure which shows the example which adjusted the weight of the feature-value. 日照変化に強いパラメータを用いた背景差分法を説明するための図である。It is a figure for demonstrating the background difference method using the parameter strong against a sunlight change. 人物の存在を考慮した統計的背景差分法について説明するための図である。It is a figure for demonstrating the statistical background difference method which considered the presence of the person. 追跡画面の一例を示す図である。It is a figure which shows an example of a tracking screen. 本実施形態における人物同定処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the person identification process in this embodiment. 本実施形態における人物同定処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the person identification processing procedure in this embodiment. 人物同定処理手順を示す一例のフローチャートである。It is an example flowchart which shows a person identification process procedure.

<本発明について> 本発明は、人間が人物を認定する際の処理のように、複数の曖昧な同定要素(身長、体型、歩き方、性別、歩容等)を組み合わせて、人物を同定する手法を構築する。具体的には、本発明では、撮影された画像や人物の撮影状況に応じて適切な同定要素を選択し、その選択された条件に基づいて同定処理を行う。 <About the present invention> In the present invention, a person is identified by combining a plurality of ambiguous identification elements (height, figure, walking, gender, gait, etc.) as in the process when a person recognizes a person. Build a method. Specifically, in the present invention, an appropriate identification element is selected according to the captured image or the shooting situation of the person, and the identification process is performed based on the selected condition.

つまり、本発明は、特徴から人物を同定する際に、不適切な特徴を使用せずに最適な特徴を選択する。具体的には、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩幅、歩く速度、服の色情報、顔認証の結果等、画像処理によって抽出できる人物に関する特徴量)を人物同定に使用するかどうかを判定する。使用すると判定された特徴量についてのみ分離度を算出し、その分離度に基づいて重み付けをし、人物同定への特徴量毎の寄与率を変化させる。これにより、状況に応じた特徴量の取捨選択を行う。 That is, the present invention selects an optimal feature without using an inappropriate feature when identifying a person from the feature. Specifically, a person's state (stopped, walking, whether there was sunshine change, etc.) is determined, and based on the results, various feature quantities (step length, walking speed, clothing color information, face authentication, etc.) It is determined whether or not a feature amount related to a person that can be extracted by image processing such as a result is used for person identification. The degree of separation is calculated only for the feature amount determined to be used, weighting is performed based on the degree of separation, and the contribution rate for each feature amount to person identification is changed. Thereby, selection of the feature amount according to the situation is performed.

以下に、本発明における人物同定装置、人物同定方法、及び人物同定プログラムを好適に実施した形態について、図面を用いて説明する。 Below, the form which implemented suitably the person identification device in this invention, the person identification method, and the person identification program is demonstrated using drawing.

<人物同定装置の概略構成例> 図1は、本実施形態における人物同定装置の概略構成の一例を示す図である。図1に示す人物同定装置10は、入力手段11と、出力手段12と、蓄積手段13と、人物検出手段14と、同定要素抽出手段15と、同定要素選択手段16と、同定手段17と、追跡手段18と、不審者検出手段19と、画面生成手段20と、通知手段21と、送受信手段22と、制御手段23と、撮像手段24とを有するよう構成されている。なお、送受信手段22には、所定の領域を撮影するカメラ等の撮像手段24が接続されており、撮像手段24により撮影された映像に含まれる時系列の各画像を取得することができる。また、撮像手段24は、人物同定装置10と一体に構成されていてもよい。 <Schematic Configuration Example of Person Identification Device> FIG. 1 is a diagram illustrating an example of a schematic configuration of a person identification device according to the present embodiment. 1 includes an input means 11, an output means 12, a storage means 13, a person detection means 14, an identification element extraction means 15, an identification element selection means 16, an identification means 17, The tracking unit 18, the suspicious person detection unit 19, the screen generation unit 20, the notification unit 21, the transmission / reception unit 22, the control unit 23, and the imaging unit 24 are configured. Note that the transmission / reception unit 22 is connected to an imaging unit 24 such as a camera that captures a predetermined region, and can acquire each time-series image included in the video captured by the imaging unit 24. Further, the imaging unit 24 may be configured integrally with the person identification device 10.

入力手
段11は、使用者等からの人物検出指示や、同定要素抽出指示、同定要素選択指示、同定指示、追跡指示、不審者検出指示、画面生成指示、通知指示、送受信指示等の各種指示を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等からなる。
The input means 11 receives various instructions such as a person detection instruction from the user, an identification element extraction instruction, an identification element selection instruction, an identification instruction, a tracking instruction, a suspicious person detection instruction, a screen generation instruction, a notification instruction, and a transmission / reception instruction. Accept. Note that the input unit 11 includes, for example, a keyboard, a pointing device such as a mouse, a voice input device such as a microphone, and the like.

出力手段12は、入力手段11により入力された指示内容や、各指示内容に基づいて生成された制御データや人物検出手段14、同定要素抽出手段15、同定要素選択手段16、同定手段17、追跡手段18、不審者検出手段19、画面生成手段20、通知手段21、送受信手段22等の各構成により実行された経過又は結果により得られる各種情報の内容を表示したり、その音声を出力する。なお、出力手段12は、ディスプレイ等の画面表示機能やスピーカ等の音声出力機能等を有する。 The output means 12 includes the instruction content input by the input means 11, control data generated based on each instruction content, person detection means 14, identification element extraction means 15, identification element selection means 16, identification means 17, tracking The contents of various information obtained by the progress or result executed by the components such as the means 18, the suspicious person detection means 19, the screen generation means 20, the notification means 21, and the transmission / reception means 22 are displayed and the sound is output. The output unit 12 has a screen display function such as a display, a sound output function such as a speaker, and the like.

蓄積手段13は、上述した本実施形態を実現するための様々な情報を蓄積することができ、必要に応じて読み出しや書き込みが行われる。具体的には、蓄積手段13は、人物検出手段14における人物検出結果や、同定要素抽出手段15における同定要素抽出結果、同定要素選択手段16における同定要素選択結果、同定手段17における同定結果、追跡手段18における追跡結果、不審者検出手段19における不審者検出結果、画面生成手段20における生成した画面情報、通知手段21により通知される内容や今までに通知された内容、送受信手段22により送受信された内容、制御手段23により制御された情報、エラー発生時のエラー情報、ログ情報、本発明を実現するためのプログラム等の各情報が蓄積される。 The storage unit 13 can store various information for realizing the above-described embodiment, and reading and writing are performed as necessary. Specifically, the storage unit 13 is configured to track the person detection result in the person detection unit 14, the identification element extraction result in the identification element extraction unit 15, the identification element selection result in the identification element selection unit 16, the identification result in the identification unit 17, and the tracking. The tracking result in the means 18, the suspicious person detection result in the suspicious person detection means 19, the screen information generated in the screen generation means 20, the contents notified by the notification means 21, the contents notified so far, the transmission / reception means 22 Information, information controlled by the control means 23, error information when an error occurs, log information, and a program for realizing the present invention are stored.

人物検出手段14は、カメラ等の撮像手段24等により撮影された映像を取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)について1又は複数の人物の顔を検出する。なお、人物検出手段14は、例えば連続する画像フレーム同士を比較して、色(輝度、色度等)が所定時間内に変化する場所が存在し、更にその場所が所定の領域以上のものを人物として検出する。 The person detection unit 14 acquires a video shot by the imaging unit 24 such as a camera, and among the time-series images included in the acquired video, a predetermined image (interval for each frame image or several frames). The face of one or a plurality of persons is detected. The person detection unit 14 compares, for example, consecutive image frames, and there is a place where the color (luminance, chromaticity, etc.) changes within a predetermined time, and the person detection means 14 further has a place where the place is greater than the predetermined area. Detect as a person.

また、他の人物検出手法としては、例えば、エッジ等を用いて人の形状にマッチする領域を抽出する手法や、熱画像を用いて背景とは異なる熱源を人体領域とする手法、複数のカメラを用いて形状や大きさを認識し人らしい物体を検出する手法、人の動き(歩いている様子)等に対してシルエット画像等を用いて事前に学習することで人体を検出する手法等も用いることができる。なお、人物検出手段14における人物検出手法については、本発明においてはこれに限定されない。 Other human detection methods include, for example, a method of extracting an area that matches the shape of a person using edges or the like, a method of using a thermal image to set a heat source different from the background to a human body region, and a plurality of cameras A method for detecting human-like objects by recognizing shape and size using a human, a method for detecting a human body by learning in advance using silhouette images etc. for human movement (like walking), etc. Can be used. Note that the person detection method in the person detection means 14 is not limited to this in the present invention.

同定要素抽出手段15は、撮像手段24等により得られる映像(画像)から同定要素を抽出する。なお、本実施形態における同定要素としては、例えば歩容、体型、性別等があり、それぞれを人物同定のパラメータとしてその特徴量を抽出する。なお、具体的な抽出手法については、後述する。 The identification element extraction unit 15 extracts an identification element from a video (image) obtained by the imaging unit 24 or the like. The identification elements in the present embodiment include, for example, gaits, body shapes, sexes, and the like, and feature values are extracted using each as a parameter for person identification. A specific extraction method will be described later.

同定要素選択手段16は、同定手段17において前後のフレームでそれぞれ検出された人物が同一か否かを判定するための判定基準として用いられる種別を選択する。具体的には、同定要素選択手段16は、予め設定された少なくとも1つの同定要素に対して、撮像手段24により撮影された時間や場所、人物の映り具合(顔が映っているか、全身が撮影されているか等)に応じて予め設定された同定要素の一部を使用しないようにする。なお、同定要素選択手段16は、上述した条件に応じて同定要素を新たに抽出するようにしてもよい。 The identification element selection unit 16 selects a type used as a determination criterion for determining whether or not the persons detected in the preceding and following frames in the identification unit 17 are the same. Specifically, the identification element selection means 16 captures the time and place taken by the imaging means 24, the appearance of the person (whether the face is reflected, or the whole body is photographed with respect to at least one identification element set in advance. In other words, a part of the identification element set in advance according to whether or not it is used is not used. The identification element selection unit 16 may newly extract an identification element according to the above-described conditions.

つまり、同定要素選択手段16は、各特徴量が有効であるか否かの状態判定を行い、人物の状態によって、ある特徴量が有効ではないと判定された場合に、それ以降の同定処理において、その特徴量を使用しないようにすることができる。例えば、同定要素選択手段16は、昼と夜とで人物同定を行う場合のように、照明条件が変化したら、服の色や髪の色が変わってしまうため、そのような色情報は使用しないようにする。なお、同定要素選択手段16についての具体的な説明については後述する。 That is, the identification element selection unit 16 determines whether or not each feature amount is effective, and when it is determined that a certain feature amount is not effective according to the state of the person, in the subsequent identification processing The feature amount can be avoided. For example, the identification element selection means 16 does not use such color information because the color of clothes and the color of hair change when the lighting conditions change, as in the case of performing person identification between day and night. Like that. A specific description of the identification element selection unit 16 will be described later.

同定手段17は、同定要素抽出手段15により抽出された同定要素と、同定要素選択手段16により選択された内容とに基づいて、異なる時間に撮影された映像から抽出された2つの画像から検出される1又は複数の人物に対して、同一人物が含まれているか否かの同定処理を行う。 Based on the identification element extracted by the identification element extraction means 15 and the content selected by the identification element selection means 16, the identification means 17 is detected from two images extracted from videos taken at different times. The identification process of whether or not the same person is included is performed on one or more persons.

具体的には、同定手段17は、その画像の状況に応じた特徴量の取捨選択手法により適切なパラメータを用いて人物の同定を行う。例えば、同定手段17は、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩幅、歩く速度、服の色情報等)を人物同定に使用するかどうかを判定する。 Specifically, the identification unit 17 identifies a person using an appropriate parameter by a feature amount selection method according to the state of the image. For example, the identification unit 17 determines a person's state (stopped, walking, whether there was a change in sunshine, etc.), and based on the result, various feature amounts (step length, walking speed, clothes color information, etc.) Is used for person identification.

また、同定手段17は、使用すると判定された特徴量についてのみ分離度を算出し、その分離度に基づいて重み付けを行い、人物同定への特徴量毎の寄与率を変化させる。つまり、同定手段17は、同定要素選択手段16により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定する。これにより、状況に応じた特徴量を用いた人物判定を行うことができる。 The identification unit 17 calculates the degree of separation only for the feature amount determined to be used, performs weighting based on the degree of separation, and changes the contribution rate for each feature amount to person identification. That is, the identification unit 17 resets the weights for the identification elements selected by the identification element selection unit 16 in correspondence with the current weighting ratio. Thereby, the person determination using the feature amount according to the situation can be performed.

追跡手段18は、撮像手段24から得られる映像を撮像して時系列の画像から同一の人物の挙動を追跡する。また、追跡手段18は、画像中に含まれる人物領域の足、頭の位置とその特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人物の一部が、建物等で隠蔽されたか否かを判断する。 The tracking unit 18 captures the video obtained from the imaging unit 24 and tracks the behavior of the same person from the time-series images. The tracking means 18 tracks a person from the foot and head positions of the person area included in the image and their characteristics, and when the size of the person that can be determined to be the same changes, a part of the person may be a building or the like. It is determined whether or not it is concealed.

なお、隠蔽される人物の一部とは、例えば下半身や上半身、頭、腕、胴体等である。つまり、本実施形態では、少なくとも1度画面上で足のつま先から頭部までの人体の身長に関する情報が取得できた場合、その後、頭及び足の両方が同時に隠蔽されていなければ、その頭又は足の次の時系列画像における移動範囲が所定された範囲内であり、色情報が同じであれば、同一人物と見なして隠蔽部分に人物がいると推定して、その人物を追跡することができる。また、追跡手段18は、画像中に表示されている1又は複数の人物を経時的に追跡する。 The part of the person to be concealed is, for example, the lower body, the upper body, the head, arms, and the torso. That is, in this embodiment, when information about the height of the human body from the toes of the feet to the head can be acquired at least once on the screen, if both the head and feet are not simultaneously concealed, then the head or If the movement range in the next time-series image of the foot is within a predetermined range and the color information is the same, it can be assumed that there is a person in the concealed part by assuming that the person is the same person and tracking that person it can. The tracking unit 18 tracks one or more persons displayed in the image over time.

更に、追跡手段18には、人物領域を推定する機能も設けられている。具体的には、追跡手段18は、人物領域の推定として、画像中に存在する人体に関してその外領域からなり、人物がその領域枠内に存在することを画面上で認識させ易くするための人物領域を推定する。 Furthermore, the tracking means 18 is also provided with a function for estimating a person area. Specifically, the tracking means 18 is a person for estimating on the screen that the person area is estimated from the outside area of the human body existing in the image, and that the person exists in the area frame. Estimate the region.

また、追跡手段18は、人物領域の推定として、例えば遮蔽物により人物の一部で隠蔽されている部分が存在すると判断された場合に、正しい人体の領域を推定する。この場合、追跡手段18は、隠蔽されている人体部分の外形(シルエット)又は領域を画面上に表示させる。これにより、隠蔽物により画像上に表示されていない人物のいる位置を正確に把握することができる。 Further, the tracking means 18 estimates the correct human body region when it is determined that there is a portion concealed by a part of the person due to the shielding object, for example. In this case, the tracking means 18 displays the outline (silhouette) or region of the human body part that is concealed on the screen. Thereby, the position where the person who is not displayed on the image by a concealment object exists can be grasped | ascertained correctly.

また、追跡手段18は、画像中に存在する人物を経時的に追跡する場合には、人物の向き、姿勢、今までの行動から次の動作可能範囲を推測することができる。この場合、追跡手段18は、その人物が次に動作できる最大の範囲の外枠をフレーム化して画像に合成するための情報を生成する。 Further, when tracking the person present in the image over time, the tracking unit 18 can estimate the next operable range from the orientation, posture, and behavior so far. In this case, the tracking unit 18 generates information for framing the outer frame of the maximum range in which the person can operate next and compositing it into an image.

不審者検出手段19は、追跡手段18で得られる追跡結果等により、予め設定され蓄積手段13等に蓄積されている時系列の挙動データ等と比較することで、撮像手段24により撮影された人物が不審者である場合に検出を行う。また、追跡手段18は、追跡している人物が遮蔽物に隠れたり、カメラを所定時間以上、気にしてみていたり、キョロキョロしている等の不審行動がある場合には、その人物を不審者として検出する。追跡手段18は、検出された不審者情報を、通知手段に通知する。 The suspicious person detection means 19 compares the time-series behavior data or the like stored in the storage means 13 or the like in advance with the tracking result obtained by the tracking means 18 or the like. Detection is performed when is a suspicious person. In addition, the tracking means 18 may detect the person being suspicious if there is a suspicious behavior such as the person being tracked hidden behind a shield, being worried about the camera for more than a predetermined time, or being scrambled. Detect as. The tracking unit 18 notifies the notification unit of the detected suspicious person information.

例えば、不審者検出手段19は、追跡対象人物が遮蔽物に隠れたり、カメラを所定時間以上気にしてみていたり、キョロキョロしていたり、長時間滞在している等の不審行動が少なくとも1つある場合には、その人物を不審者として検出する。更に、不審者検出手段19は、追跡対象人物がマスクをしていたり、サングラスをかけていることで、顔を隠している場合にも不審者として検出する。また、不審者検出手段19は、検出された不審者情報を、通知手段21に通知する。 For example, the suspicious person detecting means 19 has at least one suspicious behavior such as the person to be tracked hidden behind a shield, taking care of the camera for more than a predetermined time, scrambled, or staying for a long time. In that case, the person is detected as a suspicious person. Furthermore, the suspicious person detection means 19 detects as a suspicious person even when the person to be tracked is wearing a mask or wearing sunglasses to hide his face. The suspicious person detecting means 19 notifies the notifying means 21 of the detected suspicious person information.

画面生成手段20は、撮像手段24により撮影された映像を表示する画面を生成する。また、画面生成手段20は、追跡手段18により推定された人物領域を現在撮像手段242等により取得した映像に含まれる時系列の画像中に反映させる。具体的には、画面生成手段20は、人物領域と推定された領域の外側をフレーム化し、撮影された映像に合成して、出力手段12により表示させる。また、画面生成手段20は、画面生成により得られた画像をディスプレイ等の出力手段12に表示される。このとき、画面生成手段20は、例えば人物領域のフレームの位置情報を数値化したもの等を画面上に表示させることができる。 The screen generation unit 20 generates a screen that displays the video imaged by the imaging unit 24. Further, the screen generation unit 20 reflects the person area estimated by the tracking unit 18 in a time-series image included in the video currently acquired by the imaging unit 242 or the like. Specifically, the screen generation means 20 forms a frame outside the area estimated as the person area, combines it with the photographed video, and causes the output means 12 to display it. The screen generation means 20 displays an image obtained by screen generation on the output means 12 such as a display. At this time, the screen generation means 20 can display, for example, a numerical value of the position information of the frame of the person area on the screen.

また、画面生成手段20は、人物を追跡している場合に必要となる経時的な人物の移動範囲も推定して画面上に表示させることができる。更に、画面生成手段20は、予め設定される不審者の行動パターンに該当する場合には、その旨の内容を通知するための画面を生成する。なお、画面生成に必要な各種情報は、蓄積手段13に予め蓄積されている情報等から必要な情報を適宜読み出して使用することができる。また、生成した画面は、ディスプレイやスピーカ等を有する出力手段12により音声等と共に出力する。 In addition, the screen generation means 20 can estimate the moving range of the person over time required when tracking the person and display it on the screen. Furthermore, when the screen generation means 20 corresponds to the action pattern of a suspicious person set in advance, the screen generation means 20 generates a screen for notifying the content to that effect. Various kinds of information necessary for screen generation can be used by appropriately reading out necessary information from information stored in the storage unit 13 in advance. The generated screen is output together with sound and the like by the output means 12 having a display, a speaker, and the like.

通知手段21は、不審者検出手段19により得られる不審者として検出された画像と、その画像に関する情報(検出日時、検出場所、その前の所定時間分の映像)を画面生成手段20により生成させて、表示させる。また、通知手段21は、そのような不審行動検出における問題発生信号に対応させて、管理者や警備会社におけるそのビルの担当警備員、監視員、代表責任者等に通知を行うアラート機能を有する。 The notification means 21 causes the screen generation means 20 to generate an image detected as a suspicious person obtained by the suspicious person detection means 19 and information related to the image (detection date and time, detection location, video for a predetermined time before). To display. In addition, the notification means 21 has an alert function for notifying a manager, a security officer, a supervisor, a representative manager, etc. of the building in response to a problem occurrence signal in such suspicious behavior detection. .

送受信手段22は、LAN(Local Area Network)やインターネット等の通信ネットワーク等を介して1又は複数の撮像手段24からの監視映像を受信する。なお、送受信手段22は、撮像手段24から直接監視映像を受信しなくてもよく、例えば予め撮像手段24で取得した映像をどこかに一時的に保存しておき、その保存された情報を用いて本実施形態における人物同定を行ってもよい。また、送受信手段22は、人物同定装置10を構成する他の端末に送信したり、他の端末から各種データを受信するための通信インタフェースとして用いることができる。 The transmission / reception means 22 receives monitoring video from one or a plurality of imaging means 24 via a communication network such as a LAN (Local Area Network) or the Internet. Note that the transmission / reception unit 22 does not have to receive the monitoring video directly from the imaging unit 24. For example, the video acquired in advance by the imaging unit 24 is temporarily stored somewhere, and the stored information is used. In this embodiment, person identification may be performed. Moreover, the transmission / reception means 22 can be used as a communication interface for transmitting to other terminals constituting the person identification apparatus 10 and receiving various data from other terminals.

制御手段23は、人物同定装置10における各機能構成全体の制御を行う。具体的には、制御手段23は、入力手段11により入力された使用者等からの入力情報に基づいて、人物を検出したり、同定要素を抽出したり、同定要素を選択したり、同定処理を行ったり、追跡処理を行ったり、不審者検出処理を行ったり、画面生成を行ったり、通信制御を行ったり、送受信制御を行う等の各種制御を行う。<同定要素の蓄積> ここで、同定要素抽出手段15における同定要素の抽出内容について説明する。同定要素の蓄積では、本実施形態では、「歩容」、「体型」、「性別」の3つの同定要素を抽出する。 The control means 23 controls the entire functional configuration of the person identification device 10. Specifically, the control unit 23 detects a person, extracts an identification element, selects an identification element, or performs an identification process based on input information from a user or the like input by the input unit 11. , Tracking processing, suspicious person detection processing, screen generation, communication control, and transmission / reception control. <Identification Element Accumulation> Here, the identification element extraction contents in the identification element extraction means 15 will be described. In the accumulation of identification elements, in this embodiment, three identification elements of “gait”, “body type”, and “gender” are extracted.

<歩容> 最初に、同定要素の1つである歩容について説明する。一般に人間の歩き方には、個人差があるため、撮影された映像から検出された人物領域から歩き方の特徴を抽出する。図2は、人物の歩き方の一例を示す図である。図2に示すように人物30が移動する際には、それぞれ特有の歩き方がある。そのため、その特徴量をパラメータ化して同定検出の一要素とすることができる。 <Gait> First, a gait that is one of identification elements will be described. In general, since there are individual differences in the way people walk, the characteristics of how to walk are extracted from the person area detected from the captured video. FIG. 2 is a diagram illustrating an example of how a person walks. As shown in FIG. 2, when the person 30 moves, there is a unique way of walking. For this reason, the feature amount can be parameterized to be an element of identification detection.

<歩容特徴量について> ここで、本実施形態における特徴量については、例えば、「歩幅(Pixel/Step)」、「歩調(Step/Min)」、「歩速(Pixel/Sec)」、摺足歩行
を検出するための指標「歩速の標準偏差(Pixel)」、「歩行加速度(Pixel/Sec^2)」、飛び跳ねるように歩いているかを検出するための指標「高さの標準偏差(Pixel)」、歩行時の姿勢を表す「体の傾き(度)」、更に「脚長(Pixel)」等のうち、少なくとも1つを用いることができる。
<Regarding Gait Feature Amount> Here, for the feature amount in the present embodiment, for example, “step (Pixel / Step)”, “step (Min)”, “step speed (Pixel / Sec)”, slide Indicators for detecting foot walking, “standard deviation of walking speed (Pixel)”, “walking acceleration (Pixel / Sec ^ 2)”, indicators for detecting whether or not walking is jumping, “standard deviation of height ( At least one of “Pixel” ”,“ Body inclination (degree) ”representing the posture during walking,“ Leg length ”, and the like can be used.

ここで、上述した各特長量は、以下に示す数式により算出することができる。「歩幅L(Pixel/Step)」は以下に示す(1)式で算出され、「歩調C(Step/Min)」は以下に示す(2)式で算出され、「歩速S(Pixel/Sec)」は以下に示す(3)式で算出され、「歩速の標準偏差ss(Pixel)」は以下に示す(4)式で算出され、「歩行加速度A(Pixel/Sec^2)」は以下に示す(5)式で算出され、「高さの標準偏差HS(Pixel)」は以下に示す(6)式で算出され、「体の傾き(度)θ」は以下に示す(7)式で算出され、「脚長LL(Pixel)」は以下に示す(8)式で算出される。なお、(1)式〜(8)式において、Mは幅wが極大となるフレーム総数、Nは総フレーム数である。 Here, each feature amount described above can be calculated by the following mathematical formula. The “step length L (Pixel / Step)” is calculated by the following equation (1), the “step C (Step / Min)” is calculated by the following equation (2), and the “step speed S (Pixel / Sec) is calculated. ) ”Is calculated by the following equation (3),“ standard deviation of walking speed ss (Pixel) ”is calculated by the following equation (4), and“ walking acceleration A (Pixel / Sec ^ 2) ”is It is calculated by the following equation (5), “height standard deviation HS (Pixel)” is calculated by the following equation (6), and “body inclination (degree) θ” is shown below (7) “Leg length LL (Pixel)” is calculated by the following equation (8). In equations (1) to (8), M is the total number of frames in which the width w is maximized, and N is the total number of frames.

また、図3は、歩容特徴量を算出する際の基準となる値を示す図である。 FIG. 3 is a diagram illustrating a reference value when calculating the gait feature amount.

図3と上述した(1)〜(8)式との関係において、hは人物の身長(画像上の高さ)を示し、wは幅(画像上の幅)を示し、Llは左足の長さを示し、Lrは右足の長さを示し、θは地面に対して垂直な軸に対する傾きを示し、Hは人物頭部の重心位置を示し、Gは人物領域の重心位置を示し、bxは人物30の左右の足の位置の中心から人物30の進行方向に対する画像フレーム31までの距離を示し、byは地面から垂直方向の画像フレーム31までの距離を示している。 In the relationship between FIG. 3 and the above-described equations (1) to (8), h represents the height of the person (height on the image), w represents the width (width on the image), and Ll represents the length of the left foot. Lr represents the length of the right foot, θ represents the inclination with respect to the axis perpendicular to the ground, H represents the center of gravity of the human head, G represents the center of gravity of the human area, and bx represents The distance from the center of the position of the left and right feet of the person 30 to the image frame 31 in the traveling direction of the person 30 is indicated, and by indicates the distance from the ground to the image frame 31 in the vertical direction.

更に、mjは幅wを極大にする全てのフレームを示し、tiはフレームiが撮影された時刻を示し、xiはフレームiにおけるbx,byをそれぞれ示している。 Further, mj represents all frames that maximize the width w, ti represents the time when the frame i was photographed, and xi represents bx and by in the frame i.

同定要素抽出手段15は、これらの数式より算出された値を歩容特徴量とする。なお、上述した歩容特徴量のうち、特に「身長」、「脚長」、「歩速」、「歩幅」の順に同定の能力が高い。また、「体の傾き」については、分離度は低かったものの、歩行動画上で目視確認した際には、明らかに前傾姿勢で歩いている人物については、有意な差を示す。そのため、人物同定の際に、数人に絞り込んだ後に適用する等、状況によっては有効な特徴量であることがわかる。 The identification element extraction means 15 uses the value calculated from these mathematical expressions as a gait feature amount. Of the gait feature quantities described above, the identification ability is particularly high in the order of “height”, “leg length”, “walking speed”, and “step length”. Further, regarding the “body inclination”, although the degree of separation was low, when visually confirmed on a walking moving image, a significant difference is clearly shown for a person walking in a forward leaning posture. For this reason, it can be understood that this is an effective feature amount depending on the situation, such as applying after narrowing down to several people at the time of person identification.

<体型、性別について> 次に、同定要素の1つである体型について説明する。ここでは、人物を「痩せ」、「普通」、「肥満」の3種類に分類する。なお、男女によって判定基準が違うため、「性別」の判定も併せて行うのが好ましい。 <About Body Shape and Gender> Next, a body shape which is one of identification elements will be described. Here, the person is classified into three types of “skin”, “normal”, and “obesity”. It should be noted that since the determination criteria differ between men and women, it is preferable to also determine “sex”.

ここで、事前の実験より、体型判定の際には、例えば胸部、腹部、臀部、体の厚み、体の丸み、足の細さ等に注目していることがわかった。これより、胸部・腹部のエッジ情報に着目して特徴量「肥満度」を設定する。そして、体型判定の特徴量として、「肥満度」、「縦横比」、物体の伸びている方向を表す「慣性主軸」を用いることとした。また、性別の判定については男女で最も差異があると思われる胸部の影響を考慮し、「縦横比」、「慣性主軸」と、「2次モーメント」を用いることとした。 Here, it was found from prior experiments that attention was paid to, for example, the chest, abdomen, buttocks, body thickness, roundness of the body, and thinness of the legs when determining the body type. Thus, the feature amount “obesity level” is set by paying attention to the edge information of the chest and abdomen. Then, the “obesity degree”, “aspect ratio”, and “inertia main axis” representing the direction in which the object is extended are used as the feature quantities for body type determination. For gender determination, the aspect ratio, the principal axis of inertia, and the second moment were used in consideration of the influence of the chest that seems to be the most different between men and women.

ここで、図4は、肥満度の算出例を説明するための図である。肥満度は、例えば図4(a)〜(c)に示すように、画像上のエッジを検出すると同時にそのエッジの方向成分を算出し、その後、Kirschフィルタを適用し、各方向毎のエッジ数を算出する。 Here, FIG. 4 is a diagram for explaining an example of calculating the degree of obesity. For example, as shown in FIGS. 4A to 4C, the degree of obesity is calculated by calculating the directional component of the edge at the same time as detecting the edge on the image, and then applying a Kirsch filter to determine the number of edges in each direction. Is calculated.

したがって、具体的には、以下に示す(9)式により肥満度を算出する。 Therefore, specifically, the degree of obesity is calculated by the following equation (9).

なお、上述した(9)式において、Exはx度方向のエッジ数を示し、wは人物幅を示している。 In Equation (9) described above, Ex represents the number of edges in the x degree direction, and w represents the person width.

また、上半身についての人物幅の平均値を人物上半身の長さで割ったものである縦横比率は以下に示す(10)式で算出することができ、二次モーメント・慣性主軸は画像I(x,y)についての(m+n)次のモーメンドをμmnとすると、以下に示す(11)式のようになり、二次モーメント及び慣性主軸は以下に示す(12),(13)式で算出される。 The aspect ratio, which is the average value of the person width for the upper body divided by the length of the person's upper body, can be calculated by the following equation (10), and the secondary moment / inertia principal axis is the image I (x , Y) where the (m + n) -order moment is μmn, the following equation (11) is obtained, and the secondary moment and the principal axis of inertia are calculated by the following equations (12) and (13). .

なお、上述した(10)式において、hは人物の高さを示している。また、性別については、画像中の顔画像から顔の特徴量を抽出して予め設定されている男女別の特徴パラメータと比較して判定するか、画像から体全体のライン等の特徴量を抽出して予め設定されている男女別の特徴パラメータと比較すること等により、男女判定を容易に行うことができる。 In the above-described equation (10), h indicates the height of the person. Gender is determined by extracting facial feature values from the face image in the image and comparing them with pre-set gender-specific feature parameters, or extracting feature values such as whole body lines from the image. Thus, the gender determination can be easily performed by comparing with the characteristic parameter for each gender set in advance.

<同定手段17における同定手法> 次に、同定手段における同定手法について図を用いて説明する。これまでの同定手法は、複数の特徴量を単純に合成し、1つの特徴量として判定を行っていた。しかしながら、一部の特徴量にノイズやばらつきが存在した場合に、誤判定をしてしまう可能性が高い。また、例えば体の部分隠れによって身長が変化した場合等には、そもそも特徴量が意味を持たなくなってしまう場合がある。 <Identification Method in Identification Unit 17> Next, an identification method in the identification unit will be described with reference to the drawings. Conventional identification methods simply synthesize a plurality of feature quantities and determine them as one feature quantity. However, there is a high possibility of erroneous determination when noise or variation exists in some feature amounts. In addition, for example, when the height changes due to partial hiding of the body, the feature quantity may become meaningless in the first place.

また、特徴量毎に人物の分類能力が違うため、単純に合成するだけでは判定の精度が下がってしまうという問題があった。これらの問題は、今後扱う特徴量が増加すればする程その影響が大きくなると思われる。そこで、本実施形態では、上述の問題を解決すべく、「同定に用いられる特徴量」、「特徴量の取捨選択条件」、「人物判定」を以下に示す内容で行う。 In addition, since the classification ability of a person is different for each feature amount, there is a problem that the accuracy of determination is lowered by simply combining them. These effects are likely to increase as the feature amount handled increases. Therefore, in the present embodiment, in order to solve the above-described problem, “feature amount used for identification”, “feature amount selection condition”, and “person determination” are performed with the following contents.

<同定に用いる特徴量について> 図5は、本実施形態における人物同定に用いられる特徴量と対応する抽出要素の内容を説明するための図である。図5に示すように、特徴量名は「歩幅」、「歩速」、「脚長」、「歩行姿勢」、「髪の色」、「服の色」、「体型」、「性別」、「身長」等のうち、少なくとも1つを用いることとし、その特徴量に対応する図5に示す抽出要素を用いて人物同定を行う。例えば、図5に示すように特徴量が「歩幅」であれば、その抽出要素は人物矩形横幅のピーク値の平均値である。また、「性別」であれば、その抽出要素は人体領域の縦横比、慣性主軸、2次モーメントとなる。 <Regarding Feature Amount Used for Identification> FIG. 5 is a diagram for explaining the content of an extraction element corresponding to a feature amount used for person identification in the present embodiment. As shown in FIG. 5, the feature quantity names are “step length”, “walking speed”, “leg length”, “walking posture”, “hair color”, “clothing color”, “body type”, “sex”, “ At least one of “height” and the like is used, and person identification is performed using the extraction element shown in FIG. 5 corresponding to the feature amount. For example, as shown in FIG. 5, if the feature amount is “step length”, the extraction element is an average value of the peak values of the person rectangle width. In the case of “sex”, the extracted elements are the aspect ratio of the human body region, the inertial principal axis, and the second moment.

<特徴量の取捨選択条件について> 次に、上述した従来の課題である一部の特徴量にノイズやばらつきが存在した場合に、誤判定をしてしまう可能性が高く、また、例えば体の部分隠れによって身長が変化した場合等には、そもそも特徴量が意味を持たなくなってしまう場合についての対応を行うために特徴量の取捨選択を行う。つまり、上述の問題に対応するために、各特徴量が有効であるかどうかの状態判定を行う。この状態判定において、人物の状態によって、ある特徴量が有効ではないと判定された場合、それ以降の同定処理に当該特徴量は使用しない。例えば、昼から夜になった場合のように、照明条件が変化したら、服の色や髪の色が変わってしまうため、正しい同定が行われない。したがって、上述のような場合には、色情報等は使用しないようにする。 <Regarding the selection condition of feature amount> Next, when there is noise or variation in some feature amounts, which is the conventional problem described above, there is a high possibility of erroneous determination. When the height changes due to partial hiding, etc., the feature quantity is selected and selected in order to cope with the case where the feature quantity has no meaning in the first place. That is, in order to deal with the above-described problem, it is determined whether each feature amount is valid. In this state determination, when it is determined that a certain feature amount is not effective according to the state of the person, the feature amount is not used for the subsequent identification processing. For example, when the lighting conditions change, such as when it is from day to night, the color of clothes and the color of hair change, so that correct identification is not performed. Therefore, color information or the like is not used in the above case.

ここで、図6は、本実施形態における状態判定の一例を示す図である。図6に示すように、「状態判定」とその「判定方法」、判定の結果該当する場合に「無効とする特徴量」について記載されている。なお、図6に示す判定条件は、予め蓄積手段13等に蓄積されている。 Here, FIG. 6 is a diagram illustrating an example of state determination in the present embodiment. As shown in FIG. 6, “state determination” and its “determination method”, and “invalidated feature amount” when the determination result is applicable, are described. The determination conditions shown in FIG. 6 are stored in advance in the storage means 13 and the like.

例えば、図6において、「状態判定」として、撮影されるカメラに対して縦方向、斜め方向に移動しており、「判定方法」として、そのときの予め設定されたY方向の位置情報の変化がある場合には、上述した同定要素抽出手段15で取得した特徴量のうち、歩幅・脚長・歩行姿勢・体型・性別を「無効とする特徴量」とする。 For example, in FIG. 6, the “state determination” is moving in the vertical direction and the oblique direction with respect to the camera to be photographed, and the “determination method” is a change in position information in the preset Y direction at that time. If there is, the stride length / leg length / walking posture / body type / sex among the feature amounts acquired by the identification element extraction means 15 is set as “invalidated feature amount”.

また、「状態判定」として、立ち止まっているという判断は、経時的に見た人物の位置情報の変化により確認することができ、「判定方法」として、位置情報が変化している場合には、歩速を「無効とする特徴量」とする。 In addition, as the “state determination”, the determination that the user is stopped can be confirmed by a change in the position information of the person seen over time. As the “determination method”, when the position information has changed, The walking speed is defined as “invalid feature”.

また、「状態判定」として、日照変化が大きいという判断は、監視領域の平均輝度値の変化により確認することができ、輝度平均値の変化が所定量以上の場合に、色情報を「無効とする特徴量」とする。なお、本実施形態で用いられる日照変化に強いパラメータを用いた背景差分例については後述する。 Further, as the “state determination”, the determination that the change in sunshine is large can be confirmed by the change in the average luminance value of the monitoring area. To be featured ". An example of background difference using parameters that are resistant to changes in sunshine used in this embodiment will be described later.

更に、「状態判定」として、ノイズによって値が大きく変化という判断は、特徴量毎に閾値を決める際にその閾値に基づくノイズの結果によって確認することができ、その場合には、該当する特徴量を「無効とする特徴量」とする。 Furthermore, as the “state determination”, the determination that the value greatly changes due to noise can be confirmed by the noise result based on the threshold when determining the threshold for each feature amount, and in that case, the corresponding feature amount Is set as “invalidated feature amount”.

このように、本実施形態を用いることで、これまでは同定することが不可能、若しくは精度が著しく低下していた一部の特徴量がノイズによって異常値になった場合や、そもそも特徴量としての意味を持たなくなった場合にも、高精度に同定を行うことが可能となる。 In this way, by using this embodiment, when some feature quantities that have been impossible to identify until now or whose accuracy has been significantly reduced become abnormal values due to noise, or as feature quantities in the first place. Even when the meaning is lost, identification can be performed with high accuracy.

<人物判定手法> 次に、本実施形態における人物判定手法について図を用いて説明する。上述した特徴量毎に人物の分類能力が異なり、単純に判定条件を合成するだけでは判定の精度が低下してしまう。そこで、この問題に対処するため、従来では登録された人物情報に記録された各人物の持つ各特徴量の平均値と、入力データの各特徴量との単純距離を用いて判定を行っていた。 <Person Determination Method> Next, the person determination method in the present embodiment will be described with reference to the drawings. The classification ability of a person differs for each feature amount described above, and the accuracy of determination is reduced simply by combining determination conditions. Therefore, in order to cope with this problem, in the past, determination was performed using a simple distance between the average value of each feature value of each person recorded in the registered person information and each feature value of the input data. .

しかしながら、特徴量毎に同定への寄与率が異なるため、単純に合成すると、判定の精度が下がってしまう可能性がある。そこで、距離の算出の際に同定への寄与率にしたがい、重みを付与して算出することにした。 However, since the contribution rate to the identification differs for each feature amount, if it is simply combined, there is a possibility that the accuracy of the determination is lowered. Therefore, in the calculation of the distance, according to the contribution rate to the identification, the weight is given and calculated.

具体的には、登録された人物の特徴量を用いて、特徴量毎に、分離度を算出して人物の分類能力の指標とし、分離度に従い重みを付与して距離を算出する。算出された距離が最も小さくなる人物を判定結果とする。また、一部の特徴量が有効でないと判断された場合は、当該特徴量の重みを0にし、重みを算出し直すことで、高精度な人物判定が可能となる。 More specifically, the degree of separation is calculated for each feature amount using the registered feature amount of the person as an index of the person's classification ability, and the distance is calculated by assigning a weight according to the degree of separation. The person with the smallest calculated distance is set as the determination result. If it is determined that some of the feature values are not valid, the weight of the feature value is set to 0, and the weight is recalculated, thereby enabling highly accurate person determination.

ここで、図7は、特徴量の重みを調整した例を示す図である。図7に示すように、登録情報として身長、服の色、髪の色、歩幅が設定され、それぞれの重み付けが合計を100%として50%,5%,15%,30%であった場合、例えばAさんの判定で、昼と夜とで判断する場合、図6に示す日照変化に該当するため、身長と歩幅のみの特徴で人物判定が行われる。したがって、選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定を行う。具体的には、今まで50%,30%であった身長と歩幅の重みを、それぞれ62.5%,37.5%に設定する。これにより、日照等の変化による影響を受けずに人物判定を行うことができ、認証の精度を向上させることができる。なお、本実施形態の人物判定で用いられる日照変化における人物抽出の具体例については後述する。 Here, FIG. 7 is a diagram illustrating an example in which the weight of the feature amount is adjusted. As shown in FIG. 7, height, clothes color, hair color, and stride are set as registration information, and the respective weights are 50%, 5%, 15%, and 30%, with the total as 100%. For example, in the determination by Mr. A, when the determination is made between daytime and night, since the change corresponds to the sunshine change shown in FIG. Therefore, the respective weights for the selected identification element are reset according to the current weight ratio. Specifically, the height and stride weight, which were 50% and 30% so far, are set to 62.5% and 37.5%, respectively. Thereby, person determination can be performed without being affected by changes in sunshine or the like, and the accuracy of authentication can be improved. A specific example of the person extraction in the sunshine change used in the person determination of this embodiment will be described later.

次に、上述した本実施形態における状態判定の処理も含めた距離算出例について説明する。ここで、分離度については、一般的な統計量として、クラス内分散が小さい場合に、各クラス内の要素がクラスの平均値近くに密集しており、クラス間分散が大きい場合に、各クラスの要素が全体の平均値から離れて存在する。これにより、分離度が大きければ各クラスが分離されているということができる。 Next, a distance calculation example including the state determination process in the present embodiment described above will be described. Here, regarding the degree of separation, as a general statistic, when the intra-class variance is small, the elements in each class are close to the average value of the class, and when the inter-class variance is large, each class Are present away from the overall average. Thereby, it can be said that each class is separated if the degree of separation is large.

そこで、全体平均をm,クラスn内平均をm,全体分散をσ ,クラスn内分散をσ ,クラスnデータ数をωとした場合に、クラス間分散σ は以下に示す(14)式のようになり、クラス内分散σ は以下に示す(15)式のようになり、分離度は以下に示す(16)式のようになる。 Therefore, the overall average m i, class n in average m n, the entire dispersing sigma t 2, class n in dispersing sigma n 2, the number of classes n data when the omega n, interclass variance sigma b 2 Is represented by the following equation (14), the intra-class variance σ w 2 is represented by the following equation (15), and the degree of separation is represented by the following equation (16).

また、距離算出方法は、以下に示す(17)式で算出することができる。 The distance calculation method can be calculated by the following equation (17).

なお、上述した(17)式において、Daは人物aまでの重み付け距離を示し、Stは特徴量tの分離度を示し、dtは特徴量tに関しての人物aまでの単純距離(但し、特徴量tに関しては状態判定部にて使用しないとされたものを除く。)を示している。 In the above-described equation (17), Da represents the weighted distance to the person a, St represents the degree of separation of the feature quantity t, and dt represents the simple distance to the person a with respect to the feature quantity t (however, the feature quantity) t is excluded from those not used in the state determination unit.).

<日照変化における人物抽出> ここで、上述した日照変化における具体的な人物抽出として、日照変化に強いパラメータを用いた背景差分法について説明する。図8は、日照変化に強いパラメータを用いた背景差分法を説明するための図である。 <Person Extraction in Sunlight Change> Here, a background subtraction method using parameters that are resistant to sunshine change will be described as specific person extraction in the sunshine change described above. FIG. 8 is a diagram for explaining the background subtraction method using parameters that are resistant to changes in sunshine.

従来手法である背景差分法は、輝度情報を用いているため、照明条件の変化が少ない環境下では有効であったが、日照変化等を伴う環境では誤検出が多発するという課題があった。また、背景か変化領域であるか否かを判定する閾値が必要となるため、検出結果が閾値設定者に依存するといった問題があった。 Since the background subtraction method, which is a conventional method, uses luminance information, it is effective in an environment where there is little change in illumination conditions, but there is a problem that erroneous detection frequently occurs in an environment involving changes in sunlight. In addition, since a threshold for determining whether the area is a background or a change area is required, there is a problem that a detection result depends on a threshold setter.

そこで、本実施形態では、まず背景差分に用いるパラメータの選定を行い、RGBベクトル(色ベクトル)を用いる。ここで、RGBベクトルとは、図8(a)に示すように色情報(R,G,B)をベクトルとして扱った明るさの変化に鈍感なパラメータである。つまり、以下に示す(18)式から計算される背景画像と現画像のベクトルのなす角を変化量とするため、明るさの変化に影響されにくく、背景と異なる色構成をもつ領域のみ抽出することができる。 Therefore, in the present embodiment, first, parameters used for the background difference are selected, and RGB vectors (color vectors) are used. Here, the RGB vector is a parameter that is insensitive to changes in brightness in which color information (R, G, B) is treated as a vector, as shown in FIG. That is, since the angle between the background image and the vector of the current image calculated from the following equation (18) is used as the amount of change, only the region having a color configuration different from the background is not affected by the change in brightness. be able to.

なお、上述した(18)式においてvは背景画像の画素位置(i,j)におけるRGB成分を示し、wは現画像の画素位置(i,j)におけるRGB成分を示している。 In the above equation (18), v x represents the RGB component at the pixel position (i, j) of the background image, and w x represents the RGB component at the pixel position (i, j) of the current image.

また、背景差分法に統計的背景差分法を用いることで、確率的に変化画素の有無を判定し、閾値の設定を不必要とした。これにより、閾値設定者による検出結果の違いを排除した。なお、図8(a)は、人物領域のRGBベクトルを示し、図8(b)は背景領域のRGBベクトルを示し、図8(a),(b)により画素(i,j)におけるRGB空間上のベクトルのなす角を説明している。なお、図8(b)には、現画像について、明るさの変化によるベクトルの変化方向が示されている。 In addition, by using the statistical background difference method for the background difference method, the presence or absence of a change pixel is determined probabilistically, and the setting of the threshold value is unnecessary. Thereby, the difference in the detection result by the threshold setting person was excluded. 8A shows the RGB vector of the person area, FIG. 8B shows the RGB vector of the background area, and FIGS. 8A and 8B show the RGB space in the pixel (i, j). Explains the angle formed by the above vector. FIG. 8B shows the vector change direction due to the brightness change for the current image.

また、図8(c),(d)は、明暗の違いによる画素(i,j)におけるRGB空間上のベクトルのなす角の違いを示し、図8(c)は明るい映像の場合を示し、図7(d)は暗い映像場合を示している。 FIGS. 8C and 8D show the difference in angle formed by the vectors in the RGB space in the pixel (i, j) due to the difference in brightness, and FIG. 8C shows the case of a bright image. FIG. 7D shows a dark video case.

ここで、上述したRGBベクトルを用いた背景差分は、画素を構成する色要素(R,G,B)からベクトル角度を計算するという特性上、図8(c)に示すような明るい映像の場合には、画素位置(i,j)において、前画像と現画像とで背景画像とのベクトル角度が変化した変化量△θ(=α−β)は十分小さくなる。しかしながら、図8(d)に示すように小さなベクトル(輝度の低い画素)は、ノイズがのる等、些細な変化にも敏感にベクトル角度が大きく変化してしまい、その変化量△θ(=α−β)は無視できない大きさになることから、暗い映像にて誤検出が多くなる可能性がある。そのため、本実施形態では、ベクトルの大きさに応じて、ノイズによる影響の度合いを推定して差分を行う。 Here, the background difference using the RGB vector described above is a case of a bright image as shown in FIG. 8C due to the characteristic that the vector angle is calculated from the color elements (R, G, B) constituting the pixel. The change amount Δθ (= α−β) in which the vector angle between the previous image and the current image has changed at the pixel position (i, j) is sufficiently small. However, as shown in FIG. 8D, a small vector (a pixel with low luminance) has a large vector angle that is sensitive to even a slight change such as noise, and the amount of change Δθ (= Since α−β) becomes a size that cannot be ignored, there is a possibility that false detections increase in dark images. Therefore, in this embodiment, the difference is performed by estimating the degree of influence due to noise according to the magnitude of the vector.

<人物の存在を考慮した統計的背景差分法> 次に、人物の存在を考慮した統計的背景差分法について説明する。図9は、人物の存在を考慮した統計的背景差分法について説明するための図である。なお、図9(a)は、画像中の人物位置から実空間上の位置への変換の様子を示し、図9(b)は、人物の存在を考慮した統計的背景差分法を示している。 <Statistical Background Difference Method Considering Human Presence> Next, a statistical background difference method considering human presence will be described. FIG. 9 is a diagram for explaining the statistical background subtraction method considering the presence of a person. FIG. 9A shows a state of conversion from a person position in the image to a position in the real space, and FIG. 9B shows a statistical background subtraction method considering the presence of the person. .

従来の統計的背景差分法では、初期学習時に画像中の各画素において、背景となる輝度値I(0〜255)に対する出現確率を算出している。そして、学習後に入力された画像中の各画素について、求めた該当画素の出現確率を参照し、背景であるか変化画素であるかを上述した(18)式により算出し、その結果から判定している。 In the conventional statistical background subtraction method, the appearance probability with respect to the luminance value I (0 to 255) serving as the background is calculated for each pixel in the image during initial learning. Then, for each pixel in the image input after learning, the appearance probability of the corresponding pixel obtained is referred to, whether it is a background or a change pixel is calculated by the above-described equation (18), and the result is determined. ing.

しかしながら、学習から長時間経過すると、輝度値が大きく変化してしまい背景と変化領域の分離が行えなくなる課題があった。したがって、随時、背景領域の輝度値(RGBベクトルのなす角度)の出現確率を更新する必要があり、例えば以下に示す(19)式を用いる。 However, when a long time elapses after learning, the luminance value greatly changes, and there is a problem that it becomes impossible to separate the background and the change area. Accordingly, it is necessary to update the appearance probability of the luminance value of the background area (angle formed by the RGB vector) as needed. For example, the following equation (19) is used.

なお、上述した(19)式における各変数の定義は、ある画素位置(i,j)において、P(background|I)は画素値がIであったときにその画素位置が背景である確率を示し、P(mobile object|I)は画素値がIであったときにその画素位置に移動体がいる確率を示し、P(background)及びP(mobile object)はその画素位置が背景若しくは移動体である確率を示している。また、この確率は不明であるため、通常0.5の固定値とする。そのため、結果的に分母と分子とで打ち消し合うことになる。 Note that the definition of each variable in the above equation (19) is that, at a certain pixel position (i, j), P (background | I) is the probability that the pixel position is the background when the pixel value is I. P (mobile object | I) indicates the probability that a moving object is present at the pixel position when the pixel value is I, and P (background) and P (mobile object) indicate that the pixel position is the background or moving object. The probability of being is shown. Moreover, since this probability is unknown, it is normally a fixed value of 0.5. As a result, the denominator and numerator cancel each other.

また、P(I|background)は背景であることが分かっているときにその画素値がIである確率を示し、基本的な統計的背景差分では、初期学習時間を設け、その間には背景のみを撮影するという前提により、この確率分布を生成する。また、P(I|mobile object)は移動体であることが分かっているときに、その画素値がIである確率を示す。なお、この情報も人により着ている服や肌の色が違うため通常分かり得ない、したがって、均等な確率分布を与える。つまり、256階調の画像であれば、P(I|mobile object)=1/256となる。 Further, P (I | background) indicates the probability that the pixel value is I when it is known to be the background, and an initial learning time is provided in the basic statistical background difference, and only the background is in between. This probability distribution is generated on the premise that an image is taken. P (I | mobile object) indicates the probability that the pixel value is I when it is known that the object is a moving object. This information is also usually not understood because the clothes and skin colors worn by people are different, and therefore gives an even probability distribution. That is, in the case of an image with 256 gradations, P (I | mobile object) = 1/256.

ここで、上述した(19)式において、A≧1の場合は背景画素とし、A<1の場合は変化画素とする。本実施形態では、上述した(19)式において前フレームにて検出された人物位置を考慮した統計的背景差分を行い、人物の追跡を行う。 Here, in the above equation (19), when A ≧ 1, a background pixel is assumed, and when A <1, a change pixel is assumed. In the present embodiment, a statistical background difference in consideration of the person position detected in the previous frame in the above equation (19) is performed, and the person is tracked.

ここで、具体的には、図9(a)に示すように、画像中から得られた人物領域の位置を基に、実空間上におけるカメラとの位置関係を求める。これを応用して、前フレームにおいて抽出された人物領域から、現フレームで現れる人物領域を予測する。 Specifically, as shown in FIG. 9A, the positional relationship with the camera in the real space is obtained based on the position of the person area obtained from the image. By applying this, the person area appearing in the current frame is predicted from the person area extracted in the previous frame.

つまり、前フレームで得られた人物領域を実空間上の位置に変換し、現時刻までに移動可能な範囲(人間が所定時間で移動可能な範囲)を求める。更に、求めた移動範囲を画像中の人物領域に逆変換することで、現フレームに現れる人物領域を推定することが可能となる。したがって、推定された画像領域を除く、領域を更新の対象とすることで、背景領域の統計情報を逐次更新することが可能となる。 That is, the person area obtained in the previous frame is converted to a position in the real space, and a range in which the person can move by the current time (a range in which a person can move in a predetermined time) is obtained. Furthermore, it is possible to estimate the person area appearing in the current frame by inversely converting the obtained movement range into the person area in the image. Therefore, the statistical information of the background area can be sequentially updated by setting the areas other than the estimated image area to be updated.

また、図9(b)に示すように、現画像(i)に対して一般的な統計的背景差分法(ii)よりも上述した本実施形態の手法(iii)を適用することで、人物領域として現れる変化画素と背景画素との差が明確になっていることが分かる。 Further, as shown in FIG. 9B, by applying the above-described method (iii) of the present embodiment to the current image (i) rather than the general statistical background difference method (ii), a person can be obtained. It can be seen that the difference between the change pixel appearing as a region and the background pixel is clear.

<追跡手段18における追跡画面> 次に、追跡手段18における追跡画面について図を用いて説明する。図10は、追跡画面の一例を示す図である。図10に示すように、追跡画面40は、映像画面41と同定検出画面42と、追跡経過画面43とを有するように構成されている。 <Tracking Screen in Tracking Unit 18> Next, the tracking screen in the tracking unit 18 will be described with reference to the drawings. FIG. 10 is a diagram illustrating an example of a tracking screen. As shown in FIG. 10, the tracking screen 40 is configured to include a video screen 41, an identification detection screen 42, and a tracking progress screen 43.

また、映像画面41や同定検出画面42には、人物30に対する領域を縦幅、横幅の矩形で表示した人物領域44、その人物領域から推定される人物推定情報45と、その撮影された実際の日時情報46が示されている。なお、人物推定情報45は、具体的には、追跡しているか否かの有無、一同定しているか否かの有無、身長、横幅、面積等が表示されている。また、追跡経過画面43には、映像画面41を撮影しているカメラ等の撮像手段24の画角47と、人物の現在位置48と、追跡ルート49と、所定時間経過後(例えば、数秒経過後)の人物30の移動範囲50が表示されている。これにより、カメラに対してどの位置からどの方向からきてどの向かっているかを正確に把握することができる。また、この内容から不審者検出手段19によって、撮影されている人物が不審者か否かの検出を行うことができる。 In addition, the video screen 41 and the identification detection screen 42 include a person area 44 in which an area corresponding to the person 30 is displayed in a rectangle having a vertical width and a horizontal width, person estimation information 45 estimated from the person area, and an actual captured image. Date information 46 is shown. Specifically, the person estimation information 45 displays whether or not tracking is performed, whether or not one is identified, height, width, area, and the like. The tracking progress screen 43 also includes an angle of view 47 of the imaging means 24 such as a camera that is capturing the video screen 41, a current position 48 of the person, a tracking route 49, and a predetermined time (for example, several seconds have elapsed). The movement range 50 of the person 30 in the latter part is displayed. Thereby, it is possible to accurately grasp from which position to which direction the camera is directed. Further, based on this content, the suspicious person detecting means 19 can detect whether or not the person being photographed is a suspicious person.

<ハードウェア構成例> ここで、上述した人物同定装置10は、上述した機能を有する専用の装置構成により制御を行うこともできるが、各機能をコンピュータに実行させることができる実行プログラム(人物同定プログラム)を生成し、例えば、汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における人物同定処理を実現することができる。 <Hardware Configuration Example> Here, the person identification device 10 described above can be controlled by a dedicated device configuration having the above-described functions, but an execution program (person identification) that can cause a computer to execute each function. Program), and the execution program is installed in, for example, a general-purpose personal computer, server, etc., the person identification process in the present invention can be realized.

本実施形態における人物同定処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図11は、本実施形態における人物同定処理が実現可能なハードウェア構成の一例を示す図である。 A hardware configuration example of a computer capable of realizing the person identification process in the present embodiment will be described with reference to the drawings. FIG. 11 is a diagram illustrating an example of a hardware configuration capable of realizing the person identification process in the present embodiment.

図11におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。 11 includes an input device 51, an output device 52, a drive device 53, an auxiliary storage device 54, a memory device 55, a CPU (Central Processing Unit) 56 that performs various controls, and a network connection device. 57 are connected to each other by a system bus B.

入力装置51は、使用者等が操作するキーボード及びマウス等のポインティングデバイスを有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。 The input device 51 has a keyboard and a pointing device such as a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like.

出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するモニタを有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。 The output device 52 has a monitor for displaying various windows and data necessary for operating the computer main body for performing the processing according to the present invention, and displays the program execution progress and results by the control program of the CPU 56. can do.

なお、入力装置51と出力装置52とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合には使用者等の指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。 The input device 51 and the output device 52 may be integrated input / output means such as a touch panel. In this case, the input device 51 and the output device 52 are predetermined using a finger of a user, a pen-type input device, or the like. The position can be touched to input.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。 Here, the execution program installed in the computer main body in the present invention is provided by a portable recording medium 58 such as a USB (Universal Serial Bus) memory or a CD-ROM, for example. The recording medium 58 on which the program is recorded can be set in the drive device 53, and the execution program included in the recording medium 58 is installed in the auxiliary storage device 54 from the recording medium 58 via the drive device 53.

補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。 The auxiliary storage device 54 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary.

メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。 The memory device 55 stores an execution program or the like read from the auxiliary storage device 54 by the CPU 56. The memory device 55 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU56は、OS(Operating System)等の制御プログラム、及びメモリ装置55により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。プログラムの実行中に各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。 Based on a control program such as an OS (Operating System) and an execution program read and stored by the memory device 55, the CPU 56 performs various operations and input / output of data with each hardware component, etc. Each process can be realized by controlling the process. Various information and the like can be acquired from the auxiliary storage device 54 during execution of the program, and execution results and the like can also be stored.

ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果、又は本発明における実行プログラム自体を他の端末等に提供することができる。上述したようなハードウェア構成により、本発明における人物同定処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物同定処理を容易に実現することができる。次に、人物同定処理の具体的な内容について説明する。 The network connection device 57 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program, or in the present invention. The execution program itself can be provided to other terminals. With the hardware configuration as described above, the person identification process in the present invention can be executed. Also, by installing the program, the person identification process according to the present invention can be easily realized by a general-purpose personal computer or the like. Next, specific contents of the person identification process will be described.

<人物同定処理> 次に、本発明における実行プログラム(人物同定プログラム)で実行される人物同定処理手順についてフローチャートを用いて説明する。図12は、本実施形態における人物同定処理手順の一例を示すフローチャートである。   <Person Identification Process> Next, a person identification process procedure executed by the execution program (person identification program) in the present invention will be described with reference to a flowchart. FIG. 12 is a flowchart illustrating an example of a person identification processing procedure in the present embodiment.

図11において、まずカメラ等の撮像手段により撮影された映像を入力する(S01)。次に、その映像に含まれる1又は複数の人物を検知する(S02)。ここで、人物を検知した場合に、その人物毎の予め設定された特徴量からなる同定要素を抽出する(S03)。また、その後、その人物を追跡していく過程において、その人物の状態を判定し(S04)、S03の処理で求めた同定要素のうち、使用しない要素を選定する(S05)。 In FIG. 11, first, an image taken by an imaging means such as a camera is input (S01). Next, one or more persons included in the video are detected (S02). Here, when a person is detected, an identification element consisting of a preset feature amount for each person is extracted (S03). Thereafter, in the process of tracking the person, the state of the person is determined (S04), and an unused element is selected from the identification elements obtained in the process of S03 (S05).

その後、人物同定を行い(S06)、その結果や指示に応じてその撮影された人物に対して追跡処理を行う(S07)。ここで、追跡の一連又は一部の行動パターンが予め設定される不審者の行動パターン等に該当する場合には、不審者として検出する(S08)。S08の処理が終了後、画面を生成し(S09)、その生成した画面を出力する(S10)。 Thereafter, person identification is performed (S06), and tracking processing is performed on the photographed person according to the result and instruction (S07). Here, when the tracking pattern or a part of the behavior pattern corresponds to the behavior pattern of the suspicious person set in advance, it is detected as a suspicious person (S08). After the process of S08 is completed, a screen is generated (S09), and the generated screen is output (S10).

ここで、追跡を終了するか否かを判断し(S11)、追跡を終了しない場合(S11において、NO)、S04に戻り、映像に映る同一人物について、以降の処理を行う。また、追跡を終了する場合(S11において、YES)、次に人物同定処理を終了するか否かを判断し(S12)、人物同定処理を終了しない場合(S12において、NO)、S01の処理に戻り、他の人物等を検出して後述の処理を行う。また、人物同定処理を終了する場合(S12において、YES)、全体の処理を終了する。 Here, it is determined whether or not the tracking is to be ended (S11). When the tracking is not to be ended (NO in S11), the process returns to S04 and the subsequent processing is performed for the same person appearing in the video. If tracking is to be ended (YES in S11), it is determined whether or not the person identification process is to be ended next (S12). If the person identification process is not to be ended (NO in S12), the process of S01 is performed. Returning, another person is detected and the processing described later is performed. If the person identification process is to be terminated (YES in S12), the entire process is terminated.

<人物同定処理手順:S06> 次に、上述したS06の処理における人物同定処理手順についてフローチャートを用いて説明する。図13は、人物同定処理手順を示す一例のフローチャートである。なお、図13では、その人物の位置検出による追跡の概要を示している。図13示す人物同定処理では、まず、映像中に含まれる1又は複数の人物(図13では、人物X1,・・・,Xn)を検出したか同かを判断し(S21)、検出していない場合(S21において、NO)状態遷移図にしたがって状態を更新する(S22)。具体的には、S22の処理において、例えば「初期状態→初期状態」、「照合状態→初期状態」、「追跡状態→消失状態」、「消失状態→消失状態or退去状態or初期状態」、「退去状態→初期状態」等の何れの設定を行う。ここで、「初期状態」とは、追跡情報を格納する領域が、空き領域であることを示している。例えば、追跡可能な人数が3人であった場合、追跡ID1,ID2,ID3という領域が確保され、それぞれが追跡状態や人物情報を保持する。 <Person Identification Processing Procedure: S06> Next, a person identification processing procedure in the above-described processing of S06 will be described with reference to a flowchart. FIG. 13 is a flowchart illustrating an example of a person identification processing procedure. Note that FIG. 13 shows an outline of tracking by detecting the position of the person. In the person identification process shown in FIG. 13, first, it is determined whether or not one or a plurality of persons included in the video (in FIG. 13, persons X1,..., Xn) are detected (S21). If not (NO in S21), the state is updated according to the state transition diagram (S22). Specifically, in the process of S22, for example, “initial state → initial state”, “collation state → initial state”, “tracking state → disappearing state”, “disappearing state → disappearing state or leaving state or initial state”, “ Any setting such as “removal state → initial state” is performed. Here, the “initial state” indicates that the area for storing the tracking information is a free area. For example, when the number of people that can be tracked is three, areas of tracking ID1, ID2, and ID3 are secured, and each holds a tracking state and personal information.

また、「照合状態」とは、過去に検出された人物と同一人物か否か、確認中である状態を示している。なお、「照合状態」では、新規の人物若しくは追跡中の人物と同一人物であると判定されると、「追跡状態」に移行する。また、「照合状態」では、安定して検出されない領域、人っぽい動きをしない領域(誤検出と思われる領域)と判定された場合は、「初期状態」に戻る。 The “collation state” indicates a state in which it is being confirmed whether or not the person is the same as a person detected in the past. In the “verification state”, if it is determined that the person is the same as the new person or the person being tracked, the state shifts to the “tracking state”. Further, in the “collation state”, when it is determined that the region is not stably detected or the region does not move like human (region that seems to be erroneously detected), the process returns to the “initial state”.

また、「追跡状態」とは、人物を追跡している状態を示している。なお「追跡状態」は、追跡している人物が検出できなくなると、「消失状態」に移行する。また、「消失状態」とは、追跡中の人物が検出できなくなった状態を示している。なお、「消失状態」は、一定時間続いたら、「退去状態」に移行する。また、「消失状態」は、一定時間内に追跡中の人物が再度検出されたら、「追跡状態」に戻る。また、「退去状態」とは、追跡中の人物が、いなくなったと判定された状態を示している。但し、人物が戻ってきた場合(フレームアウトした人物が、再度、フレームインしてきた場合等)には、同定し、追跡を継続できるように追跡情報を一定時間保持しておく。また、「退去状態」とは、一定時間経過すると、情報を破棄し、「初期状態」に戻る。 The “tracking state” indicates a state in which a person is being tracked. The “tracking state” shifts to the “disappearing state” when the person being tracked cannot be detected. The “disappearance state” indicates a state in which the person being tracked can no longer be detected. The “disappearing state” shifts to the “withdrawal state” after a certain period of time. Further, the “disappearing state” returns to the “tracking state” when the person being tracked is detected again within a predetermined time. Further, the “withdrawal state” indicates a state in which it is determined that the person being tracked is gone. However, when the person returns (when the person who is out of the frame comes into the frame again), the tracking information is held for a certain period of time so that the person can be identified and tracked. In addition, the “withdrawal state” means that after a certain time has elapsed, the information is discarded and the state returns to the “initial state”.

また、S21の処理において、1又は複数の人物を検出した場合(S21において、YES)、初期状態でない人物Aが既に存在するか否かを判断する(S23)。ここで、初期状態でない人物が存在しない場合(S23において、NO)、新規人物として登録状態を「初期状態→照合状態」に更新する(S24)。また、初期状態でない人物が存在する場合(S23において、YES)、次に人物Aの移動範囲内であるか否かを判断する(S25)。ここで、移動範囲内でない場合(S25において、NO)、上述したS24に示すように登録状態の更新を行う。 If one or more persons are detected in the process of S21 (YES in S21), it is determined whether or not a person A that is not in an initial state already exists (S23). Here, when there is no person who is not in the initial state (NO in S23), the registration state is updated as “new person to“ initial state → collation state ”(S24). If there is a person who is not in the initial state (YES in S23), it is next determined whether or not the person A is within the movement range (S25). If it is not within the movement range (NO in S25), the registration state is updated as shown in S24 described above.

また、S25の処理において、人物Aの移動範囲内である場合(S25において、YES)、次に、移動範囲内に複数人いるか否かを判断する(S26)。ここで、複数人いる場合(S26において、YES)、人物Aに対して人物X1,・・・,Xnで人物同定処理を行う(S27)。このとき、S27の人物同定処理は、映像から選択された静止画を用いて行う。また、S27の処理において同定された人物がいるか否かを判断し(S28)、同定された人物がいない場合(S28において、NO)、上述したS24に示すように登録状態の更新を行う。 If it is within the movement range of the person A in the process of S25 (YES in S25), it is next determined whether or not there are a plurality of persons within the movement range (S26). If there are a plurality of persons (YES in S26), person identification processing is performed on person A with persons X1,..., Xn (S27). At this time, the person identification process in S27 is performed using a still image selected from the video. Further, it is determined whether or not there is a person identified in the process of S27 (S28), and if there is no person identified (NO in S28), the registration state is updated as shown in S24 described above.

また、S26の処理において、移動範囲内に複数人いない場合(S26において、NO)、又はS28の処理において、同定された人物がいる場合(S28において、YES)、人物Aと人物Xiを同一人物として状態を更新する(S29)。これにより、映像に含まれる分物が同一人物であるか否かを正確に判定することができる。 In addition, if there are not a plurality of persons within the movement range in the process of S26 (NO in S26), or if there is an identified person in the process of S28 (YES in S28), the person A and the person Xi are the same person. The state is updated (S29). This makes it possible to accurately determine whether the fractions included in the video are the same person.

上述したように、本発明によれば、画像に含まれる人物の状況に応じて高精度に人物の同定を行うための変化の過程から人物の姿勢を高精度に検出することができる。 As described above, according to the present invention, the posture of the person can be detected with high accuracy from the process of change for identifying the person with high accuracy according to the situation of the person included in the image.

具体的には本発明は、人間が人物を認定する際の処理のように、複数の曖昧な同定要素(身長、体型、歩き方、性別、歩容等)を組み合わせて、人物を同定する手法を構築する。具体的には、本発明では、同定要素と、同定手法を組み合わせる。そして、ある特徴から人物を同定する際に、不適切な特徴を使用せずに最適な特徴を選択する。具体的には、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩幅、歩く速度、服の色情報等)を人物同定に使用するかどうかを判定する。使用すると判定された特徴量についてのみ分離度を算出し、その分離度に基づいて重み付けをし、人物同定への特徴量毎の寄与率を変化させる。これにより、状況に応じた特徴量の取捨選択を行うことができる。 Specifically, the present invention relates to a method for identifying a person by combining a plurality of ambiguous identification elements (height, body shape, way of walking, gender, gait, etc.) as in processing when a person recognizes a person. Build up. Specifically, in the present invention, an identification element and an identification method are combined. Then, when identifying a person from a certain feature, an optimum feature is selected without using an inappropriate feature. Specifically, the person's state (stopped, walking, whether there was a change in sunshine, etc.) was determined, and various feature values (step length, walking speed, clothes color information, etc.) were determined based on the results. Determine whether to use for identification. The degree of separation is calculated only for the feature amount determined to be used, weighting is performed based on the degree of separation, and the contribution rate for each feature amount to person identification is changed. Thereby, it is possible to perform selection of feature amounts according to the situation.

なお、本発明を適用することにより、例えば画像上の人物が誰であるか、どういう特徴であるかを認識することができる。例えば、本発明を適用して「金融機関」であれば、指定手配情報自動生成を行ったり、戸建て住宅であれば、ごみ捨て等を狙った短時間の未施錠時の侵入を防止したり、商業施設における迷子防止等を行うことができる。 By applying the present invention, it is possible to recognize, for example, who is the person on the image and what kind of features it is. For example, if “financial institution” is applied to the present invention, designated arrangement information is automatically generated, and if it is a detached house, intrusion at the time of unlocking for a short period of time aiming at garbage disposal is prevented, It is possible to prevent lost children at the facility.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 人物同定装置 11 入力手段 12 出力手段 13 蓄積手段 14 人物検出手段 15 同定要素抽出手段 16 同定要素選択手段 17 同定手段 18 追跡手段 19 不審者検出手段 20 画面生成手段 21 通知手段 22 送受信手段 23 制御手段 24 撮像手段 30 人物 31 画像フレーム 40 追跡画面 41 映像画面 42 同定検出画面 43 追跡経過画面 44 人物領域 45 人物推定情報 46 日時情報 47 画角 48 現在位置 49 追跡ルート 50 移動範囲 51 入力装置 52 出力装置 53 ドライブ装置 54 補助記憶装置 55 メモリ装置 56 CPU(Central Processing Unit) 57 ネットワーク接続装置 58 記録媒体 DESCRIPTION OF SYMBOLS 10 Person identification apparatus 11 Input means 12 Output means 13 Accumulation means 14 Person detection means 15 Identification element extraction means 16 Identification element selection means 17 Identification means 18 Tracking means 19 Suspicious person detection means 20 Screen generation means 21 Notification means 22 Transmission / reception means 23 Control Means 24 Imaging means 30 Person 31 Image frame 40 Tracking screen 41 Video screen 42 Identification detection screen 43 Tracking progress screen 44 Person area 45 Person estimation information 46 Date and time information 47 Angle of view 48 Current position 49 Tracking route 50 Moving range 51 Input device 52 Output Device 53 Drive device 54 Auxiliary storage device 55 Memory device 56 CPU (Central Processing Unit) 57 Network connection device 58 Recording medium

Claims (12)

異なる時間に撮影された映像に含まれる人物を同定する人物同定装置において、 前記人物の同定要素を抽出する同定要素抽出手段と、 前記同定要素抽出手段により得られた特徴量から予め設定された撮影条件に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段と、 前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段とを有することを特徴とする人物同定装置。 In a person identification apparatus for identifying a person included in a video shot at different times, an identification element extraction unit that extracts an identification element of the person, and a shooting that is set in advance from a feature amount obtained by the identification element extraction unit An identification element selecting means for selecting an unused identification element from identification elements already set according to conditions; and an identification means for identifying the person using the identification element obtained by the identification element selecting means. A person identification device characterized by that. 前記同定手段は、 前記同定要素選択手段により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定することを特徴とする請求項1に記載の人物同定装置。 The person identifying apparatus according to claim 1, wherein the identification unit resets the weights for the identification elements selected by the identification element selection unit in accordance with a current weighting ratio. 前記同定要素抽出手段は、 前記同定要素として、歩容、体型、性別を特徴量として抽出し、 前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする請求項1又は2に記載の人物同定装置。 The identification element extraction means extracts, as the identification element, a gait, a body type, and gender as feature quantities, and the gait includes a step, a pace, a step speed, a standard deviation of the walking speed, a standard deviation of the walking acceleration, 3. The person identification device according to claim 1, wherein the person identification device has at least one of the inclination and the leg length. 前記同定手段により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手段と、 前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、 前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする請求項1乃至3の何れか1項に記載の人物同定装置。 When the identification means identifies the person as the same person, the tracking means for tracking the person, the suspicious person detection means for detecting a suspicious person from the tracking result in the tracking means, and the tracking result The person identifying apparatus according to claim 1, further comprising a screen generating unit that generates a screen to be displayed. 異なる時間に撮影された映像に含まれる人物を同定する人物同定方法において、 前記人物の同定要素を抽出する同定要素抽出手順と、 前記同定要素抽出手順により得られた特徴量から予め設定された撮影条件に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手順と、 前記同定要素選択手順により得られた同定要素を用いて前記人物の同定を行う同定手順とを有することを特徴とする人物同定方法。 In a person identification method for identifying a person included in a video shot at different times, an identification element extraction procedure for extracting the identification element of the person, and a shooting set in advance from a feature amount obtained by the identification element extraction procedure An identification element selection procedure for selecting an unused identification element from identification elements already set according to conditions, and an identification procedure for identifying the person using the identification element obtained by the identification element selection procedure A person identification method characterized by that. 前記同定手順は、 前記同定要素選択手順により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定することを特徴とする請求項4に記載の人物同定方法。 The person identification method according to claim 4, wherein the identification procedure resets each weighting for the identification element selected by the identification element selection procedure in correspondence with a current weighting ratio. 前記同定要素抽出手順は、 前記同定要素として、歩容、体型、性別を特徴量として抽出し、 前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする請求項5又は6に記載の人物同定方法。 The identification element extraction procedure extracts, as the identification element, gait, body type, and gender as feature quantities, and the gait includes a step, a pace, a step speed, a standard deviation of a walking speed, a standard deviation of a walking acceleration, a body The person identification method according to claim 5, wherein the person identification method has at least one of the inclination and the leg length. 前記同定手順により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手順と、 前記追跡手順における追跡結果から不審者を検出する不審者検出手順と、 前記追跡結果を表示する画面を生成する画面生成手順とを有することを特徴とする請求項5乃至7の何れか1項に記載の人物同定方法。 When the identification procedure identifies the same person as the person, a tracking procedure for tracking the person, a suspicious person detection procedure for detecting a suspicious person from the tracking result in the tracking procedure, and the tracking result The person identification method according to claim 5, further comprising: a screen generation procedure for generating a screen to be displayed. 異なる時間に撮影された映像に含まれる人物を同定する人物同定装置における人物同定プログラムにおいて、 コンピュータを、 前記人物の同定要素を抽出する同定要素抽出手段、 前記同定要素抽出手段により得られた特徴量から予め設定された撮影条件に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段、及び、 前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段として機能させるための人物同定プログラム。 In a person identification program in a person identification device for identifying a person included in videos taken at different times, a computer, an identification element extraction means for extracting an identification element of the person, and a feature amount obtained by the identification element extraction means The identification element selection means for selecting an unused identification element from the identification elements already set according to the preset photographing conditions, and the identification of the person using the identification element obtained by the identification element selection means A person identification program for functioning as an identification means. 前記同定手段は、 前記同定要素選択手段により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定することを特徴とする請求項9に記載の人物同定プログラム。 The said identification means resets each weighting with respect to the identification element selected by the said identification element selection means corresponding to the ratio of the present weighting, The person identification program of Claim 9 characterized by the above-mentioned. 前記同定要素抽出手段は、 前記同定要素として、歩容、体型、性別を特徴量として抽出し、 前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする請求項8又は9に記載の人物同定プログラム。 The identification element extraction means extracts, as the identification element, a gait, a body type, and gender as feature quantities, and the gait includes a stride, a pace, a step speed, a standard deviation of a walking speed, a standard deviation of a walking acceleration, a body The person identification program according to claim 8, wherein the person identification program has at least one of the inclination and the leg length. 前記同定手段により前記人物と同一人物であ
ると同定された場合には、前記人物を追跡する追跡手段と、 前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、 前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする請求項9乃至11の何れか1項に記載の人物同定プログラム。
When the identification means identifies the person as the same person, the tracking means for tracking the person, the suspicious person detection means for detecting a suspicious person from the tracking result in the tracking means, and the tracking result The person identification program according to claim 9, further comprising screen generation means for generating a screen to be displayed.
JP2009088562A 2009-03-31 2009-03-31 Person identification device, person identification method, and person identification program Active JP5478928B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009088562A JP5478928B2 (en) 2009-03-31 2009-03-31 Person identification device, person identification method, and person identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009088562A JP5478928B2 (en) 2009-03-31 2009-03-31 Person identification device, person identification method, and person identification program

Publications (2)

Publication Number Publication Date
JP2010239992A true JP2010239992A (en) 2010-10-28
JP5478928B2 JP5478928B2 (en) 2014-04-23

Family

ID=43093786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009088562A Active JP5478928B2 (en) 2009-03-31 2009-03-31 Person identification device, person identification method, and person identification program

Country Status (1)

Country Link
JP (1) JP5478928B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069565A1 (en) * 2011-11-09 2013-05-16 ステラグリーン株式会社 Imaging/recording device
JP2013097459A (en) * 2011-10-28 2013-05-20 Denso Corp Pedestrian recognition device
JP2014229010A (en) * 2013-05-21 2014-12-08 株式会社デンソー Object detector
JP2015106300A (en) * 2013-11-29 2015-06-08 キヤノン株式会社 Image search device, control method for image search device, and program
WO2016031313A1 (en) * 2014-08-25 2016-03-03 Nkワークス株式会社 Physical condition-detecting apparatus, physical condition-detecting method, and physical condition-detecting program
JP2016031679A (en) * 2014-07-29 2016-03-07 キヤノン株式会社 Object identification device, object identification method, and program
JP2016057908A (en) * 2014-09-10 2016-04-21 宮田 清蔵 Robbery prevention system and software
JP2016131825A (en) * 2015-01-22 2016-07-25 株式会社東芝 Information processing device, blood pressure value calculation method and program
WO2016147704A1 (en) * 2015-03-18 2016-09-22 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and computer-readable recording medium
JP2016530640A (en) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and controller for recognizing an object in image information
JP2016181743A (en) * 2015-03-23 2016-10-13 株式会社東芝 Image processing device, image processing method, image processing program and image processing system
JP2017084034A (en) * 2015-10-27 2017-05-18 株式会社日立製作所 Traffic information providing device and system and method
JP2017168885A (en) * 2016-03-14 2017-09-21 株式会社 日立産業制御ソリューションズ Imaging control device and camera
JP2017182140A (en) * 2016-03-28 2017-10-05 株式会社日立システムズ Transaction management device and transaction management method
CN107483831A (en) * 2016-07-29 2017-12-15 广东欧珀移动通信有限公司 Image pickup method, device and the mobile terminal of mobile terminal
JP2018093423A (en) * 2016-12-06 2018-06-14 富士通株式会社 Image processing program, image processing system, and image processing method
JP6400260B1 (en) * 2017-10-20 2018-10-03 三菱電機株式会社 Data processing apparatus, programmable display and data processing method
JP2019522853A (en) * 2016-08-05 2019-08-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method and apparatus for controlling an apparatus having an image collection unit and a distance measurement unit
JP2020027463A (en) * 2018-08-13 2020-02-20 セコム株式会社 Image processing device
US11272873B2 (en) 2016-10-07 2022-03-15 Panasonic Intellectual Property Management Co., Ltd. Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and recording medium
WO2022201987A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Image analysis device, image analysis system, image analysis method, and program
JP7193104B1 (en) 2021-11-25 2022-12-20 株式会社アジラ Behavior identification system
WO2023181110A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Information processing device, information processing method, and recording medium
WO2023199562A1 (en) * 2022-04-12 2023-10-19 コニカミノルタ株式会社 Walking analysis system, walking analysis device, and program

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063858A (en) * 1996-08-21 1998-03-06 Oki Electric Ind Co Ltd Method for identifying individual and device therefor
JPH117535A (en) * 1997-06-18 1999-01-12 Oki Electric Ind Co Ltd Individual identification device
JP2921936B2 (en) * 1990-07-13 1999-07-19 株式会社東芝 Image monitoring device
JPH11306351A (en) * 1998-04-20 1999-11-05 Ntt Data Corp Method and device for integrating data and recording medium
JP2000076459A (en) * 1998-09-03 2000-03-14 Canon Inc Person identifying method and its device
JP3490482B2 (en) * 1993-09-20 2004-01-26 株式会社東芝 Edge and contour extraction device
JP2004046647A (en) * 2002-07-12 2004-02-12 Univ Waseda Method and device for tracking moving object based on dynamic image data
JP3549725B2 (en) * 1998-04-13 2004-08-04 シャープ株式会社 Image processing device
JP2006013765A (en) * 2004-06-24 2006-01-12 Matsushita Electric Ind Co Ltd Digital broadcast receiver
JP3797686B2 (en) * 1995-09-07 2006-07-19 株式会社東芝 Shape recognition apparatus and method
JP2006293644A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing device and information processing method
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2008113860A (en) * 2006-11-06 2008-05-22 Kyocera Corp Biometric authentication apparatus
JP2008152328A (en) * 2006-12-14 2008-07-03 Hitachi Information & Control Solutions Ltd Suspicious person monitoring system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921936B2 (en) * 1990-07-13 1999-07-19 株式会社東芝 Image monitoring device
JP3490482B2 (en) * 1993-09-20 2004-01-26 株式会社東芝 Edge and contour extraction device
JP3797686B2 (en) * 1995-09-07 2006-07-19 株式会社東芝 Shape recognition apparatus and method
JPH1063858A (en) * 1996-08-21 1998-03-06 Oki Electric Ind Co Ltd Method for identifying individual and device therefor
JPH117535A (en) * 1997-06-18 1999-01-12 Oki Electric Ind Co Ltd Individual identification device
JP3549725B2 (en) * 1998-04-13 2004-08-04 シャープ株式会社 Image processing device
JPH11306351A (en) * 1998-04-20 1999-11-05 Ntt Data Corp Method and device for integrating data and recording medium
JP2000076459A (en) * 1998-09-03 2000-03-14 Canon Inc Person identifying method and its device
JP2004046647A (en) * 2002-07-12 2004-02-12 Univ Waseda Method and device for tracking moving object based on dynamic image data
JP2006013765A (en) * 2004-06-24 2006-01-12 Matsushita Electric Ind Co Ltd Digital broadcast receiver
JP2006293644A (en) * 2005-04-08 2006-10-26 Canon Inc Information processing device and information processing method
JP2007267294A (en) * 2006-03-30 2007-10-11 Hitachi Ltd Moving object monitoring apparatus using a plurality of cameras
JP2008113860A (en) * 2006-11-06 2008-05-22 Kyocera Corp Biometric authentication apparatus
JP2008152328A (en) * 2006-12-14 2008-07-03 Hitachi Information & Control Solutions Ltd Suspicious person monitoring system

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097459A (en) * 2011-10-28 2013-05-20 Denso Corp Pedestrian recognition device
WO2013069565A1 (en) * 2011-11-09 2013-05-16 ステラグリーン株式会社 Imaging/recording device
JP2014229010A (en) * 2013-05-21 2014-12-08 株式会社デンソー Object detector
US9501720B2 (en) 2013-05-21 2016-11-22 Denso Corporation Object detection apparatus
US9842262B2 (en) 2013-09-06 2017-12-12 Robert Bosch Gmbh Method and control device for identifying an object in a piece of image information
JP2016530640A (en) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and controller for recognizing an object in image information
JP2015106300A (en) * 2013-11-29 2015-06-08 キヤノン株式会社 Image search device, control method for image search device, and program
US9996554B2 (en) 2013-11-29 2018-06-12 Canon Kabushiki Kaisha Search apparatus, search method, and storage medium
JP2016031679A (en) * 2014-07-29 2016-03-07 キヤノン株式会社 Object identification device, object identification method, and program
WO2016031313A1 (en) * 2014-08-25 2016-03-03 Nkワークス株式会社 Physical condition-detecting apparatus, physical condition-detecting method, and physical condition-detecting program
JP2016057908A (en) * 2014-09-10 2016-04-21 宮田 清蔵 Robbery prevention system and software
JP2016131825A (en) * 2015-01-22 2016-07-25 株式会社東芝 Information processing device, blood pressure value calculation method and program
US10602935B2 (en) 2015-01-22 2020-03-31 Tdk Corporation Information processing apparatus, method and storage medium
WO2016147704A1 (en) * 2015-03-18 2016-09-22 日本電気株式会社 Monitoring device, monitoring system, monitoring method, and computer-readable recording medium
JP2016181743A (en) * 2015-03-23 2016-10-13 株式会社東芝 Image processing device, image processing method, image processing program and image processing system
JP2017084034A (en) * 2015-10-27 2017-05-18 株式会社日立製作所 Traffic information providing device and system and method
JP2017168885A (en) * 2016-03-14 2017-09-21 株式会社 日立産業制御ソリューションズ Imaging control device and camera
JP2017182140A (en) * 2016-03-28 2017-10-05 株式会社日立システムズ Transaction management device and transaction management method
CN107483831A (en) * 2016-07-29 2017-12-15 广东欧珀移动通信有限公司 Image pickup method, device and the mobile terminal of mobile terminal
US11691729B2 (en) 2016-08-05 2023-07-04 SZ DJI Technology Co., Ltd. Methods and associated systems for communicating with/controlling moveable devices by gestures
JP2019522853A (en) * 2016-08-05 2019-08-15 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method and apparatus for controlling an apparatus having an image collection unit and a distance measurement unit
US11042167B2 (en) 2016-08-05 2021-06-22 SZ DJI Technology Co., Ltd. Methods and associated systems for communicating with/controlling moveable devices by gestures
US11272873B2 (en) 2016-10-07 2022-03-15 Panasonic Intellectual Property Management Co., Ltd. Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and recording medium
JP2018093423A (en) * 2016-12-06 2018-06-14 富士通株式会社 Image processing program, image processing system, and image processing method
JP6400260B1 (en) * 2017-10-20 2018-10-03 三菱電機株式会社 Data processing apparatus, programmable display and data processing method
CN110140152B (en) * 2017-10-20 2020-10-30 三菱电机株式会社 Data processing device, programmable display and data processing method
CN110140152A (en) * 2017-10-20 2019-08-16 三菱电机株式会社 Data processing equipment, programable display and data processing method
WO2019077750A1 (en) * 2017-10-20 2019-04-25 三菱電機株式会社 Data processing device, programmable display, and data processing method
JP2020027463A (en) * 2018-08-13 2020-02-20 セコム株式会社 Image processing device
JP7101080B2 (en) 2018-08-13 2022-07-14 セコム株式会社 Image processing equipment
WO2022201987A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Image analysis device, image analysis system, image analysis method, and program
JP7193104B1 (en) 2021-11-25 2022-12-20 株式会社アジラ Behavior identification system
JP2023078062A (en) * 2021-11-25 2023-06-06 株式会社アジラ Behavioral object identification system
WO2023181110A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Information processing device, information processing method, and recording medium
WO2023199562A1 (en) * 2022-04-12 2023-10-19 コニカミノルタ株式会社 Walking analysis system, walking analysis device, and program

Also Published As

Publication number Publication date
JP5478928B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
JP5478928B2 (en) Person identification device, person identification method, and person identification program
JP5203281B2 (en) Person detection device, person detection method, and person detection program
JP6013241B2 (en) Person recognition apparatus and method
US6754373B1 (en) System and method for microphone activation using visual speech cues
JP5523900B2 (en) Person search device, person search method, and person search program
JP5218168B2 (en) Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system
CN109461003A (en) Plurality of human faces scene brush face payment risk preventing control method and equipment based on multi-angle of view
JP2010237873A (en) Device, method, and program for detecting attitude change
JP5645646B2 (en) Grasping object recognition device, grabbing object recognition method, and grabbing object recognition program
JP2010237872A (en) Device, method and program for detecting person area
Poonsri et al. Improvement of fall detection using consecutive-frame voting
JP2016057908A (en) Robbery prevention system and software
JP5001808B2 (en) Crime prevention device and crime prevention program
Zhong et al. Multi-occupancy fall detection using non-invasive thermal vision sensor
WO2019220589A1 (en) Video analysis device, video analysis method, and program
JP2010123019A (en) Device and method for recognizing motion
JP2010257449A (en) Device, method, and program for retrieving person
JP5718632B2 (en) Part recognition device, part recognition method, and part recognition program
JP6283008B2 (en) Tracking device
JP5726595B2 (en) Image monitoring device
Merrouche et al. Fall detection using head tracking and centroid movement based on a depth camera
KR101446422B1 (en) Video security system and method
JP2006110072A (en) Method and system for noncontact walk detection, and method and system for personal authentication using the system
JP2012212217A (en) Image monitoring device
JP5373128B2 (en) Person identification device, person identification method, and person identification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140212

R150 Certificate of patent or registration of utility model

Ref document number: 5478928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250