JP5203281B2 - Person detection device, person detection method, and person detection program - Google Patents

Person detection device, person detection method, and person detection program Download PDF

Info

Publication number
JP5203281B2
JP5203281B2 JP2009088561A JP2009088561A JP5203281B2 JP 5203281 B2 JP5203281 B2 JP 5203281B2 JP 2009088561 A JP2009088561 A JP 2009088561A JP 2009088561 A JP2009088561 A JP 2009088561A JP 5203281 B2 JP5203281 B2 JP 5203281B2
Authority
JP
Japan
Prior art keywords
person
detection
human body
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009088561A
Other languages
Japanese (ja)
Other versions
JP2010244089A (en
Inventor
健宏 馬渕
聡 二見
拓雄 森口
正貴 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2009088561A priority Critical patent/JP5203281B2/en
Publication of JP2010244089A publication Critical patent/JP2010244089A/en
Application granted granted Critical
Publication of JP5203281B2 publication Critical patent/JP5203281B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物検出装置、人物検出方法、及び人物検出プログラムに係り、特に人物検出において顔検出フィルタと人体検出フィルタの使い分けを行うことで高速かつ高精度で人物検索するための人物検出装置、人物検出方法、及び人物検出プログラムに関する。 The present invention relates to a person detection apparatus, a person detection method, and a person detection program, and in particular, a person detection apparatus for searching for a person at high speed and with high accuracy by selectively using a face detection filter and a human body detection filter in person detection, The present invention relates to a person detection method and a person detection program.

従来、カメラ等の撮像手段により撮影された画像や映像に対して画像処理等を行い、その画像や映像に含まれる人物等の特定の被写体を自動的に検出する手法が存在している。また、より検出精度を向上させるための様々な手法が提案されている(例えば、特許文献1,2参照。)。 2. Description of the Related Art Conventionally, there is a method for performing image processing or the like on an image or video captured by an imaging unit such as a camera and automatically detecting a specific subject such as a person included in the image or video. Various methods for improving detection accuracy have been proposed (see, for example, Patent Documents 1 and 2).

上述の特許文献1では、視覚データに基づいて人体を検出する人体検出装置であって、画像を撮像する撮像部と、熱分布に関する情報を検出する熱情報検出部と、撮像部における撮像範囲と熱情報検出部における熱検出範囲を重複させるように配置する検出範囲設定手段と、熱検出範囲のうち人体が持つ熱量が検出された領域に相当する撮像領域を人体抽出範囲として撮像画像から取り出す人体抽出手段とを具備し、更に人体抽出手段は、人体が持つ熱量が検出された範囲に基づいて撮像画像から顔領域を抽出する人体検出装置が示されている。 In the above-described Patent Document 1, a human body detection device that detects a human body based on visual data, an imaging unit that captures an image, a thermal information detection unit that detects information about heat distribution, and an imaging range in the imaging unit, Detection range setting means arranged so as to overlap the heat detection ranges in the heat information detection unit, and a human body that takes out an imaging region corresponding to a region where the amount of heat of the human body is detected in the heat detection range as a human body extraction range from the captured image Further, there is shown a human body detection device that includes an extraction unit, and the human body extraction unit extracts a face region from a captured image based on a range in which the amount of heat of the human body is detected.

また、上述の特許文献2では、照合パターンを異なる複数の解像度のパターンに変換する解像度変換手段と、複数の解像度のパターンの複数の局所領域における局所特徴量に基づいて領域毎の被写体信頼度を算出する被写体信頼度算出手段と、領域毎の被写体信頼度の和に基づいて照合パターンが特定の被写体か否かを判別する判別手段とを有する画像処理装置が示されている。 Further, in Patent Document 2 described above, the subject reliability for each region is determined based on resolution conversion means for converting the matching pattern into a plurality of different resolution patterns, and local feature amounts in the plurality of local regions of the plurality of resolution patterns. There is shown an image processing apparatus having subject reliability calculation means for calculating and determination means for determining whether or not a matching pattern is a specific subject based on the sum of subject reliability for each region.

特開2006−59015号公報JP 2006-59015 A 特開2008−33424号公報JP 2008-33424 A

しかしながら、上述した従来の手法によれば、撮影された画像や映像により顔解析を行う以外にも熱情報を検出する構成が必要となり、また季節や場所、着用している衣服等による温度の変動が大きいため、正確性に欠ける可能性が高い。 However, according to the above-described conventional method, it is necessary to have a configuration for detecting thermal information in addition to performing face analysis based on a photographed image or video, and temperature fluctuations depending on the season, place, clothes worn, etc. Is likely to be inaccurate.

また、従来の検出手法では、画像からの顔検出を用いて人物の検出を行う場合、遠くにいる人物の画像上では小さい顔を検出しようとすると、画像中の顔領域が小さくなるため、その検出フィルタも小さくなり、その分画像フレーム全体から顔領域を抽出する処理時間が増加してしまう。つまり、カメラから遠くにいる人物を検出できるようにすればする程に処理時間がかかるようになってしまう。 In addition, in the conventional detection method, when detecting a person using face detection from an image, if a small face is detected on the image of a person who is far away, the face area in the image becomes small. The detection filter is also reduced, and accordingly, the processing time for extracting a face region from the entire image frame is increased. In other words, the longer the person who is far from the camera can be detected, the longer the processing time will be.

また、撮影された画像や映像等から人物の身長等を測定することにより、人物の領域を特定し、人物の存在を検出する手法も考えられるが、人体領域を用いて人物の検出を行う場合、頭の先から足の先まで人体全てが画像中に見えていないと人体を検出することができない場合があり、例えば撮影するカメラの近くにいる人物に対しては、人体領域を正確に検出することができない。 In addition, a method of identifying the person's area by measuring the person's height from the captured image or video, etc., and detecting the presence of the person can be considered, but when detecting a person using the human body area In some cases, the human body cannot be detected unless the entire human body is visible in the image, from the tip of the head to the tip of the foot. For example, for the person near the camera to be photographed, the human body region is accurately detected. Can not do it.

本発明は、上記の問題点に鑑みてなされたものであって、人物検出において顔検出フィルタと人体検出フィルタの使い分けを行うことで高速かつ高精度で人物検索するための人物検出装置、人物検出方法、及び人物検出プログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and a person detection device and person detection for searching for a person with high speed and high accuracy by properly using a face detection filter and a human body detection filter in person detection It is an object to provide a method and a person detection program.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。 In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

本発明では、撮像手段により撮影された映像に含まれる人物を検出する人物検出装置において、前記映像に含まれる時系列の各画像のうち、所定の画像から所定以下の大きさを有する1又は複数の人物に対する人体領域を検出する人体検出手段と、前記所定の画像から所定以上の大きさを有する1又は複数の顔領域を検出する顔検出手段と、前記人体検出手段及び顔検出手段により得られる検出結果に基づいて、複数の画像に含まれる人物に対する同定処理を行う同定手段と、を有することを特徴とする。これにより、人物検出において顔検出フィルタと人体検出フィルタの使い分けを行うことで高速かつ高精度で人物検索することができる。 In the present invention, in the person detection device for detecting a person included in a video photographed by the imaging means, one or a plurality of time-series images included in the video having a size smaller than a predetermined size from a predetermined image Obtained by a human body detecting means for detecting a human body area for a person, a face detecting means for detecting one or a plurality of face areas having a predetermined size or more from the predetermined image, and the human body detecting means and the face detecting means. And identifying means for performing identification processing on persons included in the plurality of images based on the detection result. Thereby, a person search can be performed at high speed and with high accuracy by using a face detection filter and a human body detection filter properly in person detection.

更に本発明では、撮像手段により撮影された映像に含まれる人物を検出する人物検出方法において、前記映像に含まれる時系列の各画像のうち、所定の画像から所定以下の大きさを有する1又は複数の人物に対する人体領域を検出する人体検出手順と、前記所定の画像から所定以上の大きさを有する1又は複数の顔領域を検出する顔検出手順と、前記人体検出手順及び顔検出手順により得られる検出結果に基づいて、複数の画像に含まれる人物に対する同定処理を行う同定手順と、を有することを特徴とする。これにより、人物検出において顔検出フィルタと人体検出フィルタの使い分けを行うことで高速かつ高精度で人物検索することができる。 Furthermore, in the present invention, in the person detection method for detecting a person included in a video taken by an imaging means, one or more of a time series image included in the video having a predetermined size or less from a predetermined image Obtained by a human body detection procedure for detecting a human body region for a plurality of persons, a face detection procedure for detecting one or more face regions having a predetermined size or more from the predetermined image, and the human body detection procedure and the face detection procedure. And an identification procedure for performing identification processing on a person included in a plurality of images based on the detected result. Thereby, a person search can be performed at high speed and with high accuracy by using a face detection filter and a human body detection filter properly in person detection.

更に本発明では、撮像手段により撮影された映像に含まれる人物を検出するための人物検出プログラムにおいて、コンピュータを、前記映像に含まれる時系列の各画像のうち、所定の画像から所定以下の大きさを有する1又は複数の人物に対する人体領域を検出する人体検出手段、前記所定の画像から所定以上の大きさを有する1又は複数の顔領域を検出する顔検出手段、及び、前記人体検出手段及び前記顔検出手段により得られる検出結果に基づいて、複数の画像に含まれる人物に対する同定処理を行う同定手段、として機能させる。これにより、人物検出において顔検出フィルタと人体検出フィルタの使い分けを行うことで高速かつ高精度で人物検索することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物検出処理を容易に実現することができる。
Further, according to the present invention, in a person detection program for detecting a person included in a video photographed by an imaging unit, the computer is configured to have a predetermined size or less from a predetermined image among time-series images included in the video. A human body detecting unit for detecting a human body region for one or more persons having a height, a face detecting unit for detecting one or a plurality of face regions having a predetermined size or more from the predetermined image, and the human body detecting unit; Based on the detection result obtained by the face detection means, it functions as an identification means for performing an identification process on a person included in a plurality of images. Thereby, a person search can be performed at high speed and with high accuracy by using a face detection filter and a human body detection filter properly in person detection. Further, by installing the program, the person detection process according to the present invention can be easily realized by a general-purpose personal computer or the like.

本発明によれば、人物検出において顔検出フィルタと人体検出フィルタの使い分けを行うことにより、高速かつ高精度で人物検出を行うことができる。 According to the present invention, it is possible to detect a person at high speed and with high accuracy by properly using a face detection filter and a human body detection filter in person detection.

本実施形態における人物検出装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the person detection apparatus in this embodiment. 本実施形態における身長推定手法の一例を示す図である。It is a figure which shows an example of the height estimation method in this embodiment. 人物追跡の一例を示す図である。It is a figure which shows an example of person tracking. 追跡手段における実空間上での移動範囲を考慮した人物追跡の一例を示す図である。It is a figure which shows an example of the person tracking which considered the movement range in the real space in the tracking means. 時間経過後の移動結果の一例を示す図である。It is a figure which shows an example of the movement result after progress of time. 上述した人体の一部が隠蔽された場合における人体領域の補正処理の一例を示す図である。It is a figure which shows an example of the correction process of a human body area | region when a part of human body mentioned above is concealed. 本実施形態における人物検出処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the person detection process in this embodiment. 本実施形態における人物検出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the person detection processing procedure in this embodiment. 人物同定処理手順を示す一例のフローチャートである。It is an example flowchart which shows a person identification process procedure. 追跡処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a tracking process procedure. 隠蔽状態判定処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a concealment state determination processing procedure.

<本発明について> 本発明は、カメラ等の撮像手段により撮影される画像や映像について、人物検出を行うにあたり、顔検出フィルタによる顔検出、人体検出フィルタによる人体検出を使い分けることにより、人物検出を高速かつ高精度に行えるようにするものである。具体的には、例えば画像中の人物がカメラの近くにいる場合は主に顔検出フィルタによる人物検出を行い、画像中の人物がカメラの遠くにいる場合は主に人体検出フィルタによる人物検出を行うよう、検出フィルタを使い分けることにより人物検出の高速化を実現する。更に、顔検出フィルタと人物検出フィルタの双方で人物が検出された場合は、人物同定に適した情報を得られた方の検出結果を用いて同定処理を行い、人物同定の高精度化を実現する。 <Regarding the Present Invention> In the present invention, when performing human detection on an image or video captured by an imaging means such as a camera, human detection is performed by using face detection using a face detection filter and human detection using a human body detection filter. It is intended to perform at high speed and with high accuracy. Specifically, for example, when a person in the image is near the camera, the person detection is mainly performed by the face detection filter, and when the person in the image is far from the camera, the person detection is mainly performed by the human body detection filter. It is possible to speed up human detection by using different detection filters. Furthermore, when a person is detected by both the face detection filter and the person detection filter, identification processing is performed using the detection result from which information suitable for person identification has been obtained, thereby improving the accuracy of person identification. To do.

以下に、本発明における人物検出装置、人物検出方法、及び人物検出プログラムを好適に実施した形態について、図面を用いて説明する。 Hereinafter, embodiments in which a person detection device, a person detection method, and a person detection program according to the present invention are preferably implemented will be described with reference to the drawings.

<人物検出装置の概略構成例> 図1は、本実施形態における人物検出装置の概略構成の一例を示す図である。図1に示す人物検出装置10は、入力手段11と、出力手段12と、蓄積手段13と、人体検出手段14と、顔検出手段15と、検出情報選択手段16と、同定手段17と、追跡手段18と、不審者検出手段19と、画面生成手段20と、通知手段21と、送受信手段22と、制御手段23とを有するよう構成されている。なお、送受信手段22には、所定の領域を撮影するカメラ等の撮像手段24が接続されており、撮像手段24により撮影された映像に含まれる時系列の各画像を取得することができる。また、撮像手段24は、人物検出装置10と一体に構成されていてもよい。 <Schematic Configuration Example of Person Detection Device> FIG. 1 is a diagram illustrating an example of a schematic configuration of a person detection device according to the present embodiment. 1 includes an input unit 11, an output unit 12, a storage unit 13, a human body detection unit 14, a face detection unit 15, a detection information selection unit 16, an identification unit 17, and a tracking unit. Means 18, suspicious person detection means 19, screen generation means 20, notification means 21, transmission / reception means 22, and control means 23 are configured. Note that the transmission / reception unit 22 is connected to an imaging unit 24 such as a camera that captures a predetermined region, and can acquire each time-series image included in the video captured by the imaging unit 24. The imaging unit 24 may be configured integrally with the person detection device 10.

入力手段11は、ユーザ等からの人体検出指示や、顔検出指示、検出情報選択指示や、同定指示、追跡指示、不審者検出指示、画面生成指示、通知指示、送受信指示等の各種指示を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等からなる。 The input unit 11 accepts various instructions such as a human body detection instruction, a face detection instruction, a detection information selection instruction, an identification instruction, a tracking instruction, a suspicious person detection instruction, a screen generation instruction, a notification instruction, and a transmission / reception instruction from a user or the like. . Note that the input unit 11 includes, for example, a keyboard, a pointing device such as a mouse, a voice input device such as a microphone, and the like.

出力手段12は、入力手段11により入力された指示内容や、各指示内容に基づいて生成された制御データや人体検出手段14、顔検出手段15、検出情報選択手段16、同定手段17、追跡手段18、不審者検出手段19、画面生成手段20、通知手段21、送受信手段22等の各構成により実行された経過又は結果により得られる各種情報の内容を表示したり、その音声を出力する。なお、出力手段12は、ディスプレイ等の画面表示機能やスピーカ等の音声出力機能等を有する。 The output means 12 includes the instruction content input by the input means 11, control data generated based on each instruction content, human body detection means 14, face detection means 15, detection information selection means 16, identification means 17, tracking means. 18. The contents of various information obtained by the progress or result executed by the components such as the suspicious person detection means 19, the screen generation means 20, the notification means 21, and the transmission / reception means 22 are displayed or the sound is output. The output unit 12 has a screen display function such as a display, a sound output function such as a speaker, and the like.

蓄積手段13は、上述した本実施形態を実現するための様々な情報を蓄積することができ、必要に応じて読み出しや書き込みが行われる。具体的には、蓄積手段13は、人体検出手段14における人体検出結果や、顔検出手段15における顔検出結果、検出情報選択手段における選択結果、同定手段17における同定結果、追跡手段18における追跡結果、不審者検出手段19における不審者検出結果、画面生成手段20における生成した画面情報、通知手段21により通知される内容や通知された内容、送受信手段22により送受信された内容、制御手段23により制御された情報、エラー発生時のエラー情報、ログ情報、本発明を実現するためのプログラム等の各情報が蓄積される。 The storage unit 13 can store various information for realizing the above-described embodiment, and reading and writing are performed as necessary. Specifically, the accumulating unit 13 includes a human body detection result in the human body detection unit 14, a face detection result in the face detection unit 15, a selection result in the detection information selection unit, an identification result in the identification unit 17, and a tracking result in the tracking unit 18. The suspicious person detection result in the suspicious person detection means 19, the screen information generated in the screen generation means 20, the contents notified by the notification means 21, the notified contents, the contents transmitted / received by the transmission / reception means 22, and the control by the control means 23 Each information such as recorded information, error information when an error occurs, log information, a program for realizing the present invention, and the like is stored.

人体検出手段14は、カメラ等の撮像手段24等により撮影された映像を、送受信手段22を介して取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)から1又は複数の人体領域を検出する。具体的には、人体検出手段14は、例えば連続する画像フレーム同士を比較して、色情報(輝度、色度等)が所定時間内に変化する場所が存在し、更にその場所で囲まれる領域が所定の領域以上のもの、又は経時的な移動範囲が所定の範囲内のものを人体領域として検出する。 The human body detection unit 14 acquires a video captured by the imaging unit 24 such as a camera via the transmission / reception unit 22, and among the time-series images included in the acquired video, a predetermined image (each frame One or a plurality of human body regions are detected from an image or an image having an interval of several frames. Specifically, the human body detection unit 14 compares, for example, successive image frames, and there is a place where the color information (luminance, chromaticity, etc.) changes within a predetermined time, and the area surrounded by the place. Is detected as a human body area if the area is greater than or equal to a predetermined area or the moving range with time is within a predetermined range.

また、他の人物検出手法としては、例えば、エッジ等を用いて人の形状にマッチする領域を抽出する手法や、熱画像を用いて背景とは異なる熱源を人体領域とする手法、複数のカメラを用いて形状や大きさを認識し人らしい物体を検出する手法、人の動き(歩いている様子)等に対してシルエット画像等を用いて事前に学習することで人体を検出する手法等も用いることができる。なお、人物検出手段14における人物検出手法については、本発明においてはこれに限定されない。 Other human detection methods include, for example, a method of extracting an area that matches the shape of a person using edges or the like, a method of using a thermal image to set a heat source different from the background to a human body region, and a plurality of cameras A method for detecting human-like objects by recognizing shape and size using a human, a method for detecting a human body by learning in advance using silhouette images etc. for human movement (like walking), etc. Can be used. Note that the person detection method in the person detection means 14 is not limited to this in the present invention.

なお、本発明においては、人物検出の高速化を図ろうとする場合、上述したマッチング処理を行う人体検出フィルタを、例えば所定以下の大きさの人体のみを検出するような処理を行うために用いる。つまり、画像中で所定以上の大きさを有する人体の検出を省略することにより、人物検出の高速化を図っている。例えば、カメラから5m離れた位置に立っている人体の大きさを基準として、それより小さく写っている人体、すなわちカメラから5m以上離れた人を検出するよう人体検出フィルタを利用する。 In the present invention, when the speed of human detection is to be increased, the human body detection filter that performs the above-described matching process is used to perform a process that detects only a human body having a predetermined size or less, for example. In other words, the detection of a human body having a predetermined size or larger in the image is omitted, thereby speeding up human detection. For example, a human body detection filter is used so as to detect a human body that is smaller than the size of a human body standing at a position 5 m away from the camera, that is, a person 5 m or more away from the camera.

また、人体検出手段14は、その人物の領域を検出する際に、身長を推定する機能を有する。この身長推定機能は、画像中に含まれる1又は複数の人物を推定し、その人物がいた場合に新規の人物であるか否かを判断し、新規人物である場合、その人体領域の足の先と、その画像に対応する消失点とから実空間上の人物の位置を算出し、画像上の見かけ上の大きさを併せて、実際の人物の身長を推定する。なお、消失点は、画像中に含まれる場合もあるが、カメラのアングル等により画像中に含まれない場合もある。この場合には、仮想的な空間上に消失点を設定し、その消失点を利用する。 The human body detecting means 14 has a function of estimating the height when detecting the person's region. This height estimation function estimates one or a plurality of persons included in the image, determines whether or not the person is a new person, and if it is a new person, The position of the person in real space is calculated from the previous point and the vanishing point corresponding to the image, and the height of the actual person is estimated together with the apparent size on the image. The vanishing point may be included in the image, but may not be included in the image depending on the camera angle or the like. In this case, a vanishing point is set on a virtual space and the vanishing point is used.

つまり、人体検出手段14は、上述した手法にて人物の位置、身長を推定し、その身長を画像中における人体領域の縦幅として用い、その後、画像の色差情報等から横幅を設定して、矩形等に補正して適切な人体領域を検出する。また、人体領域は、人物の頭から足先までを含む領域ということができるが、例えば後述する追跡手段18により追跡している最中に人体の一部(例えば、頭や膝下等)が遮蔽物等により画像から遮蔽された場合には、いままで追跡することで、事前に得られている上述した身長情報や、つま先及び頭の位置情報等を用いて人体領域を補正することができる。これにより、隠れている頭や足の位置を人体領域に含めて表示することで、容易に把握することができる。なお、上述した人体領域の補正処理については後述する。 That is, the human body detection means 14 estimates the position and height of the person by the above-described method, uses the height as the vertical width of the human body region in the image, and then sets the horizontal width from the color difference information of the image, etc. An appropriate human body region is detected by correcting the rectangle. Further, the human body region can be said to be a region including the head to the foot of the person, but for example, a part of the human body (for example, the head or the lower knee) is shielded while being tracked by the tracking means 18 described later. When the image is shielded by an object or the like, the human body region can be corrected by using the above-described height information, toe and head position information, etc. obtained in advance. Thereby, it can grasp | ascertain easily by including the position of the head and a leg which are hidden in a human body area | region, and displaying. The human body region correction process described above will be described later.

また、上述した人体領域の形状は、本発明においては、矩形に限定されるものではなく、例えば円形や楕円形、他の多角形、人物の外形形状から所定倍率で拡大させたシルエット形状等であってもよい。また、人体検出手段14は、その人物の顔や頭(髪の毛や帽子等)や身体(上半身,下半身の衣類等)の色情報を検出することもできる。更に、人体検出手段14は、検出情報選択手段16からの指示信号により人物検出を行う又は行わない等の制御を行うことができる。 In addition, the shape of the human body region described above is not limited to a rectangle in the present invention. For example, the shape is a circle, an ellipse, another polygon, a silhouette shape enlarged from a person's outer shape at a predetermined magnification, or the like. There may be. The human body detection means 14 can also detect color information of the person's face, head (hair, hat, etc.) and body (upper body clothing, lower body clothing, etc.). Further, the human body detection unit 14 can perform control such as performing or not performing person detection by an instruction signal from the detection information selection unit 16.

顔検出手段15は、カメラ等の撮像手段24等により撮影された映像を取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)について1又は複数の人物の顔を検出する。具体的には、顔検出手段15は、例えば撮影された画像に含まれる顔における目や鼻、口等の位置情報からその顔の特徴量を取得し、予め設定された顔として検出されるための特徴量の照合パターンを用いたマッチング処理等を行うことにより人物の顔を検出する。なお、上述した照合パターンは、例えば蓄積手段13等に蓄積されている。 The face detection unit 15 acquires a video shot by the imaging unit 24 such as a camera, and among the time-series images included in the acquired video, a predetermined image (interval for each frame image or several frames). The face of one or a plurality of persons is detected. Specifically, the face detection means 15 acquires the feature amount of the face from position information such as eyes, nose and mouth in the face included in the photographed image, and is detected as a preset face. A face of a person is detected by performing a matching process using a matching pattern of the feature amount of. Note that the above-described collation pattern is stored in, for example, the storage unit 13 or the like.

また、顔検出手段15は、上述の顔検出処理に限定されず、例えばエッジ検出や形状パターン検出による顔検出、色相抽出又は肌色抽出による顔検出等を用いることができる。なお、顔検出手段15は、顔検出後、人体領域手段14と同様に、画像中の顔の縦幅、横幅からなる矩形の顔領域等を検出する。なお、顔領域の形状については、人体領域の形状と同様に特に限定されるものではない。 Further, the face detection means 15 is not limited to the above-described face detection process, and for example, face detection by edge detection or shape pattern detection, face detection by hue extraction or skin color extraction, or the like can be used. The face detection means 15 detects a rectangular face area having the vertical and horizontal widths of the face in the image after detecting the face, as in the human body area means 14. Note that the shape of the face region is not particularly limited as is the case with the shape of the human body region.

なお、本発明においては、人物検出の高速化を図ろうとする場合、上述したマッチング処理を行う顔検出フィルタを、所定以上の大きさの顔のみを検出するような処理を行うために用いる。用いる。つまり、顔検出フィルタを所定以上の大きさとすることにより、人物検出の高速化を図っている。例えば、カメラから5m離れた位置に立っている人物の顔の大きさを基準として、それより大きく写っている顔、すなわちカメラから5m以内にいる人の顔を検出するよう顔検出フィルタを利用する。 In the present invention, when speeding up human detection, the face detection filter that performs the above-described matching process is used to perform a process that detects only a face having a predetermined size or more. Use. That is, the face detection filter is made larger than a predetermined size to speed up human detection. For example, a face detection filter is used to detect a face that is larger than that of a person standing at a position 5 m away from the camera, that is, a face of a person within 5 m from the camera. .

また、顔検出手段15は、顔の検出以外にも、予め登録された条件別の基準顔情報や等から検出された顔画像に対して、性別や年齢(又は、年代)を推定したり、顔の向き情報を検出したり、予め登録された目や口等の顔の特徴部位の色情報等から、検出された人物がサングラスやマスク、帽子等を着用していれば、その情報も検出することができる。更に、顔検出手段15は、検出情報選択手段16からの指示信号により顔検出を行う又は行わない等の制御を行う。 Further, the face detection means 15 can estimate the gender and age (or age) of the face image detected from the pre-registered reference face information according to conditions and the like in addition to the face detection, Detects face orientation information, or if the detected person wears sunglasses, masks, hats, etc., from the color information of facial features such as eyes and mouth registered in advance. can do. Further, the face detection unit 15 performs control such as performing or not performing face detection based on an instruction signal from the detection information selection unit 16.

検出情報選択手段16は、上述した人体検出手段14及び顔検出手段15により得られる人体検出結果及び顔検出結果と、各検出結果と同期する撮像手段24により撮影された映像に基づいて、同定手段17に用いられる検出結果を上述した人体検出結果又は顔検出結果のどちらにするかを選択する。また、検出情報選択手段16は、人体検出手段14又は顔検出手段15の何れかの結果が得られなかった場合には、結果が得られたもう一方の検出結果を選択する。 The detection information selection means 16 is an identification means based on the human body detection result and the face detection result obtained by the human body detection means 14 and the face detection means 15 described above, and the video imaged by the imaging means 24 synchronized with each detection result. It is selected whether the detection result used in 17 is the above-described human body detection result or face detection result. In addition, when the result of either the human body detection unit 14 or the face detection unit 15 is not obtained, the detection information selection unit 16 selects the other detection result from which the result is obtained.

例えば、人体検出手段14により人物が検出された場合、その人物が屈んでいたり体の一部が隠れていたりすると身長を検出できない可能性がある。また、顔検出手段15により人物が検出された場合、その人物が帽子を被っていると髪の色を検出できず、その人物がマスクやサングラスをしていると取得可能な情報は限られてしまう。このように、撮影時の状況により得られる同定処理に利用可能な情報は異なるため、何れかの検出手段で得られた情報のみを利用するのではなく、人体検出手段14及び顔検出手段15の双方で得られた情報の中から、同定処理に利用可能な情報を利用して同定処理を行うとよい。 For example, when a person is detected by the human body detection means 14, the height may not be detected if the person is bent or a part of the body is hidden. Further, when a person is detected by the face detection means 15, the hair color cannot be detected if the person is wearing a hat, and information that can be acquired if the person is wearing a mask or sunglasses is limited. End up. As described above, since the information that can be used for the identification process obtained according to the situation at the time of shooting is different, the information of the human body detection means 14 and the face detection means 15 is not used, but only the information obtained by any of the detection means. The identification process may be performed using information that can be used for the identification process from the information obtained by both sides.

また、この場合において、どの情報を利用するか予め優先順位をつけておき、検出された情報の中で最優先の情報を利用するようにしてもよい。 In this case, it is also possible to prioritize which information is used and use the highest priority information among the detected information.

更に、検出情報選択手段16は、今までに選択された検出情報の履歴から人体検出又は顔検出の何れかの検出結果のみを選択し、その選択結果に基づいて人体検出手段14又は顔検出手段15のうち、何れかの処理のみを継続して行わせるように制御することができる。これにより、例えば撮像手段24が設置されている位置等が天井等であり、人物全体の画像が取得される可能性が高く、顔領域は小さくなってしまう画像しか取得できない場合には、検出情報選択手段16は、人体検出手段14からの検出結果のみを選択することとし、顔検出手段15における顔検出処理を行わないように制御することもできる。これにより、効率的に必要な処理のみをさせて高速な人物検出を実現することができる。 Furthermore, the detection information selection unit 16 selects only the detection result of human detection or face detection from the history of detection information selected so far, and the human body detection unit 14 or face detection unit based on the selection result. Control can be performed so that only one of the 15 processes is continuously performed. Accordingly, for example, when the position where the imaging unit 24 is installed is the ceiling or the like, and there is a high possibility that an image of the entire person is acquired, and only an image that reduces the face area can be acquired, the detection information The selection unit 16 can select only the detection result from the human body detection unit 14 and can control the face detection unit 15 not to perform the face detection process. Thereby, it is possible to realize high-speed person detection by efficiently performing only necessary processing.

ここで、検出情報選択手段16は、人体検出手段14により得られる人体領域と、顔検出手段15により得られる顔領域とが同一人物のものとして対応付ける処理を行う。具体的には、検出情報選択手段16は、画像中における顔領域の重心座標を取得し、取得した座標を包含する人体領域があった場合、その顔領域及び人体領域は、同一人物によるものであるとして対応付けを行う。 Here, the detection information selection unit 16 performs processing for associating the human body region obtained by the human body detection unit 14 with the face region obtained by the face detection unit 15 as belonging to the same person. Specifically, the detection information selection unit 16 acquires the center of gravity coordinates of the face area in the image, and when there is a human body area that includes the acquired coordinates, the face area and the human body area are from the same person. Associating as there is.

更に、検出情報選択手段16は、1つの人体領域が2つ以上の顔領域を包含する場合、全ての顔領域に同じ人体領域を対応付けておく。これにより、追跡手段18等による追跡処理等の場合にも複数の人物が画面上で一時的に重なった場合にも、途切れることなく継続して追
跡することができる。なお、人物の管理はID等の識別情報を用いて行う。なお、上述した人体領域と顔領域とを同一人物のものとして対応付ける処理については、本発明においてはこれに限定されるものではなく、例えば人物の姿勢や向き等を抽出し、抽出した情報を用いて対応付けを行ってもよい。
Furthermore, when one human body region includes two or more face regions, the detection information selection unit 16 associates the same human body region with all the face regions. As a result, even in the case of tracking processing by the tracking means 18 or the like, even when a plurality of persons temporarily overlap on the screen, it is possible to continuously track without interruption. Persons are managed using identification information such as IDs. Note that the processing for associating the human body region and the face region as those of the same person is not limited to this in the present invention. For example, the posture and orientation of the person are extracted and the extracted information is used. May be associated with each other.

なお、上述した人体検出手段14や顔検出手段15による検出結果や、検出情報選択手段16により選択された検出情報(履歴情報も含む)は、蓄積手段13に蓄積される。 Note that the detection results by the human body detection means 14 and the face detection means 15 described above and the detection information (including history information) selected by the detection information selection means 16 are stored in the storage means 13.

同定手段17は、異なる時間に撮影された映像から抽出された2つの画像から検出される1又は複数の人物に対して、同一人物が含まれているか否かの同定処理を行う。具体的には、同定手段17は、例えば、撮影中に含まれる人物が今まで撮影された人であるか、又は新規人物であるかを判断する方法として、例えばその前の映像に人物がいるか否かを判断し、人物がいた場合にその人物に予め設定された移動可能範囲に含まれているか否かを判断し、更には前後の顔の特徴量同士の比較による類似性の有無により同一人物が含まれているか否かを判断することができる。 The identification unit 17 performs identification processing as to whether or not the same person is included in one or a plurality of persons detected from two images extracted from videos taken at different times. Specifically, for example, as a method for determining whether the person included in the shooting is a person who has been shot or a new person, the identification unit 17 is, for example, whether there is a person in the previous video. If there is a person, it is determined whether or not the person is included in the movable range set in advance, and further, it is the same depending on the presence or absence of similarity by comparing the front and back face feature amounts It can be determined whether or not a person is included.

また、同定手段17は、顔検出手段15において検出された顔のパターンと、蓄積手段13に予め蓄積されている人物情報(氏名、性別、年齢、どの芸能人(人物)に似ている等)を含む顔のパターンとを比較して、その顔が誰の顔であるか、すなわち、人物が誰であるかを判定することができる。 Further, the identification means 17 uses the face pattern detected by the face detection means 15 and the personal information (name, gender, age, which celebrity (person) is similar) stored in the storage means 13 in advance. It is possible to determine who the face is, that is, who the person is by comparing with the pattern of the included face.

なお、同定手段17は、その画像の状況に応じた特徴量の取捨選択手法により適切なパラメータを用いて人物の同定を行ってもよい。例えば、同定手段17は、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩幅、歩く速度、服の色、髪の色等)を人物同定に使用することができる。更に、同定手段17は、使用する特徴量のみについて分離度を算出し、その分離度に基づいて重み付けを行い、人物同定に対する特徴量毎の寄与率を変化させる。これにより、状況に応じた特徴量を用いて高精度な人物判定を行うことができる。 Note that the identification unit 17 may identify a person using an appropriate parameter by a method for selecting a feature amount according to the state of the image. For example, the identification unit 17 determines the state of the person (stopped, walking, whether there was a change in sunshine, etc.), and based on the result, various feature amounts (step length, walking speed, clothing color, hair color, etc.) Color etc.) can be used for person identification. Furthermore, the identification unit 17 calculates the degree of separation only for the feature amount to be used, performs weighting based on the degree of separation, and changes the contribution rate for each feature amount with respect to person identification. Thereby, highly accurate person determination can be performed using the feature-value according to a condition.

また、同定手段17においては、人体検出手段14における人体検出結果と、顔検出手段15における顔検出結果とが異なる場合がある。このような場合には、同定手段17は、検出情報選択手段16が、途中で処理を切り替えた場合に、比較しても一致しないため、同定により同一人物であると判定することができない場合も考えられる。そこで、検出情報選択手段16は、取得された映像に対して、例えば切り替える前後等において、人体検出手段14における人体検出と、顔検出手段15における顔検出を両方行い、それぞれの検出結果について上述したように同一人物であるか否かの対応付けを行っておく。これにより、同定手段17で同定処理を行う際、検出情報が切り替わっても容易に人物同定処理を行うことができる。 In the identification unit 17, the human body detection result in the human body detection unit 14 may be different from the face detection result in the face detection unit 15. In such a case, the identification means 17 may not be able to determine the same person by identification because the detection information selection means 16 does not match even if the comparison is made when the process is switched halfway. Conceivable. Therefore, the detection information selection unit 16 performs both the human body detection in the human body detection unit 14 and the face detection in the face detection unit 15 on the acquired video before and after switching, for example, and the detection results are described above. In this way, it is associated with whether or not they are the same person. As a result, when the identification unit 17 performs the identification process, the person identification process can be easily performed even if the detection information is switched.

追跡手段18は、同定手段17により同定された同一人物の挙動を撮影された映像を用いて経時的に追跡する。なお、追跡手段18は、映像に含まれる複数の人物に対して平行して経時的に追跡することができる。 The tracking unit 18 tracks the behavior of the same person identified by the identifying unit 17 over time using the captured video. The tracking means 18 can track a plurality of persons included in the video over time in parallel.

また、追跡手段18は、映像に含まれる人物を経時的に追跡する場合、画像中から取得されるその人物の向き、姿勢、今までの行動等から、次の移動可能範囲を推測することができる。この場合、追跡手段18は、その移行可能範囲を画像に合成するための情報を生成し、画面生成手段20に出力する。 In addition, when tracking the person included in the video over time, the tracking unit 18 can estimate the next movable range from the orientation, posture, action so far, and the like of the person acquired from the image. it can. In this case, the tracking unit 18 generates information for combining the transferable range with the image and outputs the information to the screen generation unit 20.

ここで、追跡手段18は、画像中に含まれる人体領域の足、頭の位置とその特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人物の一部が、建物等で隠蔽されたか否かを判断する。なお、隠蔽される人物の一部とは、例えば下半身や上半身、頭、腕、胴体等である。つまり、本実施形態では、少なくとも1度画面上で足のつま先から頭部までの人体の身長に関する情報が取得できた場合、その後、頭及び足の両方が同時に隠蔽されていなければ、隠蔽部分を推定して人物を追跡することができる。 Here, the tracking means 18 tracks a person from the position of the foot and head of the human body region included in the image and its characteristics, and when the size of the person that can be determined to be the same changes, It is judged whether or not it is hidden by etc. The part of the person to be concealed is, for example, the lower body, the upper body, the head, arms, and the torso. In other words, in this embodiment, when information about the height of the human body from the toes of the feet to the head can be acquired at least once on the screen, if both the head and feet are not simultaneously hidden, The person can be estimated and tracked.

不審者検出手段19は、追跡手段18による追跡結果を予め設定され蓄積手段13に蓄積された経時的な不審行動パターンや挙動データ等を照合することで、撮像手段24により撮影された1又は複数の人物のうち、不審者に該当する人物を検出する。 The suspicious person detecting means 19 collates one or more suspicious behavior patterns, behavior data, etc., which are set in advance and stored in the accumulating means 13 with the result of tracking by the tracking means 18 and photographed by the imaging means 24. The person who corresponds to a suspicious person is detected among these persons.

例えば、不審者検出手段19は、追跡対象人物が遮蔽物に隠れたり、カメラを所定時間以上気にしてみていたり、キョロキョロしていたり、長時間滞在している等の不審行動が少なくとも1つある場合には、その人物を不審者として検出する。更に、不審者検出手段19は、追跡対象人物がマスクをしていたり、サングラスをかけていることで、顔を隠している場合にも不審者として検出する。また、不審者検出手段19は、検出された不審者情報を、通知手段21に通知する。更に、不審者検出手段19は、その検出された不審者に関する情報や不審者に該当する人物の映像を画面生成手段20に表示させる。 For example, the suspicious person detecting means 19 has at least one suspicious behavior such as the person to be tracked hidden behind a shield, being worried about the camera for more than a predetermined time, scrambled, or staying for a long time. In that case, the person is detected as a suspicious person. Furthermore, the suspicious person detection means 19 detects as a suspicious person even when the person to be tracked is wearing a mask or wearing sunglasses to hide his face. The suspicious person detecting means 19 notifies the notifying means 21 of the detected suspicious person information. Further, the suspicious person detecting means 19 causes the screen generating means 20 to display information relating to the detected suspicious person and an image of a person corresponding to the suspicious person.

画面生成手段20は、撮像手段24により撮影された映像を表示する画面を生成する。また、画面生成手段20は、人体検出手段14により検出された人体領域や、顔検出手段15により検出された顔領域、追跡手段18からの移動可能範囲情報等を、対応する撮影された画像に合成した画面を生成する。このとき、画面生成手段20は、例えば撮影された人物の領域に対応する位置情報等の数値化されたデータ等を表示させることもできる。 The screen generation unit 20 generates a screen that displays the video imaged by the imaging unit 24. The screen generation unit 20 also converts the human body region detected by the human body detection unit 14, the face region detected by the face detection unit 15, movable range information from the tracking unit 18, and the like into a corresponding captured image. Generate a composite screen. At this time, the screen generation means 20 can also display, for example, digitized data such as position information corresponding to the region of the photographed person.

また、画面生成手段20は、映像に含まれる人物を追跡する際に用いられる移動可能範囲や追跡手段18により得られる追跡ルート等の各種データを監視し易いように画面を生成して表示させることができる。更に、画面生成手段20は、予め設定される不審者の行動パターンに該当する場合には、その旨の内容を通知するための画面を生成する。なお、画面生成に必要な各種情報は、蓄積手段13に予め蓄積されている情報等から必要な情報を適宜読み出して使用することができる。また、画面生成手段20は、生成された画面等を出力手段12としてのディスプレイに表示したり、スピーカ等により音声等を出力することができる。 The screen generation means 20 generates and displays a screen so that various data such as a movable range used when tracking a person included in the video and a tracking route obtained by the tracking means 18 can be easily monitored. Can do. Furthermore, when the screen generation means 20 corresponds to the action pattern of a suspicious person set in advance, the screen generation means 20 generates a screen for notifying the content to that effect. Various kinds of information necessary for screen generation can be used by appropriately reading out necessary information from information stored in the storage unit 13 in advance. Further, the screen generation unit 20 can display the generated screen or the like on a display as the output unit 12 or output sound or the like through a speaker or the like.

通知手段21は、不審者検出手段19により得られる不審者として検出された画像と、その画像に関する情報(検出日時、検出場所、その前の所定時間分の映像等)を画面生成手段20により生成させて、表示させる。また、通知手段21は、そのような不審行動検出における問題発生信号に対応させて、管理者や警備会社におけるそのビルの担当警備員、監視員、代表責任者等に通知を行うアラート機能を有する。 The notification means 21 generates an image detected as a suspicious person obtained by the suspicious person detection means 19 and information related to the image (detection date and time, detection location, video for a predetermined time, etc.) by the screen generation means 20. To display. In addition, the notification means 21 has an alert function for notifying a manager, a security officer, a supervisor, a representative manager, etc. of the building in response to a problem occurrence signal in such suspicious behavior detection. .

送受信手段22は、LAN(Local Area Network)やインターネット等の通信ネットワーク等を介して1又は複数の撮像手段24からの監視映像を受信する。なお、送受信手段22は、撮像手段24から直接監視映像を受信しなくてもよく、例えば予め撮像手段24で取得した映像をどこかに一時的に保存しておき、その保存された情報を用いて本実施形態における人体検出を行ってもよい。 The transmission / reception means 22 receives monitoring video from one or a plurality of imaging means 24 via a communication network such as a LAN (Local Area Network) or the Internet. Note that the transmission / reception unit 22 does not have to receive the monitoring video directly from the imaging unit 24. For example, the video acquired in advance by the imaging unit 24 is temporarily stored somewhere, and the stored information is used. In this embodiment, human body detection may be performed.

また、送受信手段22は、人物検出装置10を構成する他の端末に送信したり、他の端末から各種データを受信するための通信インタフェースとして用いることができる。 The transmission / reception means 22 can be used as a communication interface for transmitting to other terminals constituting the person detection device 10 and receiving various data from other terminals.

制御手段23は、人物検出装置10における各機能構成全体の制御を行う。具体的には、制御手段23は、入力手段11により入力されたユーザからの入力情報に基づいて人体検出を行ったり、顔検出を行ったり、検出情報を選択したり、同定処理を行ったり、追跡処理を行ったり、不審者検出処理を行ったり、画面生成を行ったり、通知制御を行ったり、送受信制御を行う等の各種制御を行う。 The control means 23 controls the entire functional configuration of the person detection device 10. Specifically, the control unit 23 performs human body detection, face detection, selection of detection information, identification processing, etc. based on input information from the user input by the input unit 11, Various controls such as a tracking process, a suspicious person detection process, a screen generation, notification control, and transmission / reception control are performed.

<人体検出手段14における身長推定処理例> 次に、本実施形態の人体検出手段14における身長推定処理例について具体的に説明する。ここで、図2は、本実施形態における身長推定手法の一例を示す図である。なお、図2(a)は、カメラである撮像手段24と人物30との距離を説明する図であり、図2(b)は、身長推定時の頭、足先と消失点間の画素数と距離の関係を示している。本実施形態では、図2(b)に示すように、人物の足位置からカメラまでの距離を算出すると共に、頭の位置(人体領域の矩形上端)からも距離を算出している。これにより、どちらか一方の距離算出結果から、同一人物の移動と判定されれば、前回に検出された人物が移動したとしている。 <Example of Height Estimation Processing in Human Body Detection Unit 14> Next, an example of height estimation processing in the human body detection unit 14 of the present embodiment will be specifically described. Here, FIG. 2 is a diagram illustrating an example of the height estimation method in the present embodiment. 2A is a diagram for explaining the distance between the imaging means 24, which is a camera, and the person 30, and FIG. 2B shows the number of pixels between the head, feet, and vanishing points at the time of height estimation. And the relationship of distance. In the present embodiment, as shown in FIG. 2B, the distance from the person's foot position to the camera is calculated, and the distance is also calculated from the position of the head (rectangular upper end of the human body region). As a result, if it is determined from either one of the distance calculation results that the same person has moved, it is assumed that the person detected last time has moved.

なお、図2(a),(b)に示すように、カメラ等の撮像手段24からの距離(5m、10m)と、消失点と、頭及び足の位置、撮影画像の画素数等を用いて人物の身長Hを推定する。また、身長推定手段15は、図2(b)に示すように、人物30−1及び人物30−2にそれぞれの位置と高さ、消失点との関係から身長を推定する。 As shown in FIGS. 2A and 2B, the distance (5 m, 10 m) from the imaging means 24 such as a camera, the vanishing point, the positions of the head and feet, the number of pixels of the photographed image, and the like are used. The person's height H is estimated. Further, as shown in FIG. 2B, the height estimating means 15 estimates the height of the person 30-1 and the person 30-2 from the relationship between the position, height, and vanishing point.

具体的には、人体検出手段14は、身長を推定する際、基準物体の実際の高さを示す基準長と、所定の位置に固定されたカメラから基準物体までの実際の距離を示す基準距離と、その基準物体の下端位置を示す基準座標と、基準物体画像中における基準長に相当する第1基準長画素数と、カメラを無限遠に遠ざけた場合に基準物体が位置する基準物体画像中の位置である消失点の位置を示す消失点座標とを保持し、カメラから被写体として人物を含む人物画像を取得し、取得した人物画像中の人物の身長に相当する人物長画素数をカウントし、更に、取得した人物画像中の人物の下端から、人物画像中の消失点までの人物消失点画素数をカウントする。 Specifically, when estimating the height, the human body detection means 14 has a reference length indicating the actual height of the reference object and a reference distance indicating the actual distance from the camera fixed at a predetermined position to the reference object. A reference coordinate indicating the lower end position of the reference object, a first reference length pixel number corresponding to the reference length in the reference object image, and a reference object image in which the reference object is located when the camera is moved to infinity. The vanishing point coordinates indicating the position of the vanishing point that is the position of the person are acquired, a person image including a person is acquired as a subject from the camera, and the number of person length pixels corresponding to the height of the person in the acquired person image is counted. Further, the number of person vanishing point pixels from the lower end of the person in the acquired person image to the vanishing point in the person image is counted.

次に、上述した保持手段が保持する基準座標と消失点座標とに基づいて、基準物体画像中の基準物体の下端位置から消失点の位置までの基準消失点画素数を算出し、特定された人物消失点画素数と基準消失点画素数との比と、保持手段が保持する基準距離とに基づいて、カメラから人物までの実際の人物距離を算出し、算出された人物距離と、保持手段が保持する基準距離と、第1基準長画素数とに基づいて、人物距離に基準物体が配置された場合の基準長に相当する第2基準長画素数を算出する。 Next, based on the reference coordinates and vanishing point coordinates held by the holding means described above, the reference vanishing point pixel number from the lower end position of the reference object to the vanishing point position in the reference object image is calculated and specified. Based on the ratio of the number of person vanishing point pixels to the number of reference vanishing point pixels and the reference distance held by the holding unit, the actual person distance from the camera to the person is calculated, the calculated person distance, and the holding unit The second reference length pixel number corresponding to the reference length when the reference object is arranged at the person distance is calculated based on the reference distance held by the first reference length pixel number and the first reference length pixel number.

更に、その第2基準長画素数と上述した人物長画素数との比と、保持手段が保持する基準長とに基づいて、人物の実際の身長を算出する。 Further, the actual height of the person is calculated based on the ratio between the second reference length pixel number and the above-described person length pixel number and the reference length held by the holding means.

なお、人体検出手段14は、例えば本出願人により出願された特開2008−286638号公報等に示される手法等を用いることができる。また、画像中から人物の身長を算出する手法については、本発明においてはこれに限定されるものではない。 For example, the human body detection unit 14 may use a technique disclosed in Japanese Patent Application Laid-Open No. 2008-286638 filed by the present applicant. Further, the method for calculating the height of a person from an image is not limited to this in the present invention.

また、人体検出手段14では、上述した手法にて身長を推定し、身長情報を同定処理時に用いると共に、人体領域の画像中の縦幅として用いられ、その後、画像の色差情報等から横幅を設定して適切な人体領域を検出する。 The human body detection means 14 estimates the height by the above-described method, uses the height information during the identification process, and also uses it as the vertical width in the image of the human body region, and then sets the horizontal width from the color difference information of the image. Then, an appropriate human body region is detected.

<追跡手段18における追跡手法> 図3は、人物追跡の一例を示す図である。なお、図3(a)は、撮影中の画像において追跡中の人物の足元がフレームアウトしている例を示し、図3(b)は、図3(a)の人物を経時的に追跡した結果を示している。また、図3の画面40は、画面生成手段20により生成され、ディスプレイ等の出力手段12に表示される画面である。 <Tracking Method in Tracking Unit 18> FIG. 3 is a diagram illustrating an example of person tracking. 3A shows an example in which the foot of the person being tracked is out of frame in the image being shot, and FIG. 3B tracks the person in FIG. 3A over time. Results are shown. 3 is a screen generated by the screen generation unit 20 and displayed on the output unit 12 such as a display.

図3に示すように、画面40には、映像表示画面41と、追跡表示画面42とを有している。映像表示画面41には、カメラ等の撮像手段24により撮影された画像に対して人体検出手段14で検出された人体領域43、及び顔検出手段15により検出された顔領域44が画面生成手段20により合成されて表示されている。 As shown in FIG. 3, the screen 40 has a video display screen 41 and a tracking display screen 42. On the video display screen 41, a human body region 43 detected by the human body detection unit 14 with respect to an image taken by the imaging unit 24 such as a camera, and a face region 44 detected by the face detection unit 15 are displayed on the screen generation unit 20. Is synthesized and displayed.

ここで、映像表示画面41に示すように、顔領域44の重心座標を包含する人体領域43があった場合、本実施形態では、顔領域44及び人体領域43は同一人物30によるものであると判断して処理がなされる。 Here, as shown in the video display screen 41, when there is a human body region 43 including the barycentric coordinates of the face region 44, in the present embodiment, the face region 44 and the human body region 43 are attributed to the same person 30. Judgment is made and processing is performed.

また、映像表示画面41には、撮影された時間情報を表示する時間情報表示領域45、検出された人物30に関する人物関連情報(追跡対象か否か
、推定身長、位置同定しているか否か、矩形補正をしたか否か等)46、今まで追跡した追跡ルート(移動方向も含んでもよい)47等が画面生成手段20により合成されて表示されている。
In addition, the video display screen 41 includes a time information display area 45 for displaying captured time information, person-related information regarding the detected person 30 (whether it is a tracking target, an estimated height, whether a position is identified, Whether the rectangle has been corrected, etc.) 46, a tracking route (which may include the moving direction) 47 tracked so far, and the like are synthesized and displayed by the screen generation means 20.

なお、人物関連情報46としては、上述の内容に限定されず、例えば撮影された時間や人物が顔特徴量等を画面から抽出して測定できる場合には、その人物の指名や性別、推定年齢(年代でもよい)を表示させることができる。 Note that the person-related information 46 is not limited to the above-described content. For example, when the photographed time or the person can extract and measure the facial feature amount from the screen, the person's designation, gender, estimated age (May be the age) can be displayed.

本実施形態では、例えば図3の映像表示画面41に示すように、追跡中の人体の一部が足元からフレームアウトした場合には、検出情報選択手段16により顔検出手段15で検出された顔領域44が用いられ、この顔領域44により同定手段17で人物の同定が行われる。 In the present embodiment, for example, as shown in the video display screen 41 of FIG. 3, when a part of the human body being tracked out of the frame from the foot, the face detected by the face detection unit 15 by the detection information selection unit 16 An area 44 is used, and the identification unit 17 identifies a person using the face area 44.

また、図3に示す追跡表示画面42では、カメラ等の撮像手段24の画角48に対する上述した追跡ルート47や現在位置49、現在から予め設定された時間経過後又は所定のフレーム数後に移動可能であると推定できる移動可能範囲50等を取得することができる。 Further, on the tracking display screen 42 shown in FIG. 3, the tracking route 47 and the current position 49 with respect to the angle of view 48 of the imaging means 24 such as a camera can be moved after a preset time period or a predetermined number of frames from the present time. It is possible to acquire a movable range 50 that can be estimated to be.

なお、図3(a)に示すように、追跡中の人物30が足元からフレームアウトした場合には、例えば足元が隠蔽された場合には、画像上の頭部座標から実空間における人物位置を推定し、頭部座標からの追跡を行うこともできる。また、図3に示すように追跡中の人物30がカメラに接近している場合、歩行動作に伴った頭部座標の上下運動が顕著に現れる。そのため、頭部座標から実空間における位置推定を行った場合、前フレームの位置から推定される移動可能な範囲を超え、別人となってしまう場合がある。そこで、本実施形態では、頭部座標からの位置推定処理に関して、カメラから近距離の場合は、その距離に応じて(近ければ近い程)移動可能な範囲を広めに設定することで、正しく追跡を行うことができる。 In addition, as shown in FIG. 3A, when the person 30 being tracked out of the frame from the foot, for example, when the foot is concealed, the position of the person in the real space is determined from the head coordinates on the image. It can also be estimated and tracked from the head coordinates. Further, as shown in FIG. 3, when the person 30 being tracked is approaching the camera, the vertical movement of the head coordinates accompanying the walking motion appears significantly. Therefore, when position estimation in the real space is performed from the head coordinates, the movable range estimated from the position of the previous frame may be exceeded, resulting in another person. Therefore, in the present embodiment, regarding the position estimation processing from the head coordinates, in the case of a short distance from the camera, the tracking is correctly performed by setting a wider movable range according to the distance (the closer the distance is). It can be performed.

また、図4は、追跡手段における実空間上での移動範囲を考慮した人物追跡の一例を示す図である。更に、図5は、時間経過後の移動結果の一例を示す図である。なお、図4及び図5に示す図面は、上述する画面生成手段20によって生成され、ディスプレイ等の出力手段12に表示される画面である。 FIG. 4 is a diagram showing an example of person tracking in consideration of the moving range in the real space in the tracking means. Furthermore, FIG. 5 is a diagram illustrating an example of the movement result after the lapse of time. 4 and 5 are screens generated by the above-described screen generation unit 20 and displayed on the output unit 12 such as a display.

また、図4及び図5に示す画面40には、上述した図3に示す映像表示画面41、追跡表示画面42の他に人物位置情報51が表示されている。ここで、人物位置情報51としては、例えば、カメラ等の撮像手段24からの距離と角度、視界全体の画素数を基準にして人物30の位置を左右の距離(h1,h2)を計測し、その計測結果から得られる人物座標(x,y,z)を取得する。なお、人物位置情報51として、上述した時間情報表示領域45や人物関連情報46等を表示してもよい。 In addition to the video display screen 41 and the tracking display screen 42 shown in FIG. 3 described above, person position information 51 is displayed on the screen 40 shown in FIGS. Here, as the person position information 51, for example, the distance (h1, h2) of the position of the person 30 is measured on the basis of the distance and angle from the imaging means 24 such as a camera and the number of pixels in the entire field of view, The person coordinates (x, y, z) obtained from the measurement result are acquired. The time information display area 45 and the person related information 46 described above may be displayed as the person position information 51.

なお、図4及び図5に示すように、映像中の人物30は、その顔領域が小さく、またカメラに対して顔が正面を向いていないため、正確な顔の特徴量を検出することができない。このような場合には、上述した人体検出手段14により検出された情報を用いて人物を同定する。 As shown in FIGS. 4 and 5, the person 30 in the video has a small face area and the face is not facing the front of the camera. Can not. In such a case, the person is identified using the information detected by the human body detection means 14 described above.

また、図4及び図5に示す、追跡表示画面42は、撮像手段24の画角48(=視界)と、人物位置49、カメラ画像中央からの角度52(20°(中心から左がマイナス表示))が表示され、カメラからの距離(5m,10m等)と、人物位置情報51として画像から計測された位置情報(7.2m)が表示されている。 The tracking display screen 42 shown in FIGS. 4 and 5 includes an angle of view 48 (= field of view) of the image pickup means 24, a person position 49, and an angle 52 (20 ° from the center of the camera image) )) Is displayed, and the distance information (7.2 m) measured from the image as the distance from the camera (5 m, 10 m, etc.) and the person position information 51 are displayed.

図5に示す時間経過後の移動結果では、過去人物認定領域53と、過去と現在の各フレーム(人体領域43,過去人物認定領域53)の位置と、それまでの時間情報を用いて、次に人物43が移動すると推測される移動可能範囲50を設定して、その領域を円形等により表示する。なお、人体領域43、過去人物認定領域53のフレームは、画面上に含まれる人物毎に色分けをして複数の人物が区別できるようにして表示させることもできる。 In the movement result after the elapse of time shown in FIG. 5, the past person recognition area 53, the positions of the past and present frames (human body area 43, past person recognition area 53), and time information up to that time are used. A movable range 50 in which the person 43 is estimated to move is set in the area, and the area is displayed in a circle or the like. It should be noted that the frames of the human body area 43 and the past person authentication area 53 can be displayed by color-coding each person included on the screen so that a plurality of persons can be distinguished.

また、移動可能範囲50の形状は、本発明においてはこれに限定されず、扇形や楕円形、矩形等でもよい。更に、移動可能範囲50は、人体検出手段14等により人物43の向きを計測し、その向きにより得られる方向を基準に設定してもよい。これにより、次の予想範囲を容易に推測することができる。また、移動可能範囲50は、追跡表示画面42にも表示される。 Further, the shape of the movable range 50 is not limited to this in the present invention, and may be a sector, an ellipse, a rectangle, or the like. Further, the movable range 50 may be set based on the direction obtained by measuring the orientation of the person 43 by the human body detection means 14 or the like and by the orientation. Thereby, the next prediction range can be easily estimated. The movable range 50 is also displayed on the tracking display screen 42.

このように、映像中に写し出される人物の大きさ、向き、移動可能範囲等に応じて、顔検出と人体検出とを切り替えて高精度に同定処理や追跡処理を行うことができる。 In this way, identification processing and tracking processing can be performed with high accuracy by switching between face detection and human body detection according to the size, orientation, movable range, etc. of the person projected in the video.

<人体領域の補正処理> また、図6、上述した人体の一部が隠蔽された場合における人体領域の補正処理の一例を示す図である。例えば、図6(a)に示すように、人物30に対して人体領域43や顔領域44が検出されたのであれば、人物関連情報46を含めて表示し、追跡していくことができる。その後、追跡手段18による追跡途中で図6(b)又は図6(c)に示すように、人物の身体の一部(図6の例では、膝下)が遮蔽物(例えばダンボール等)61により隠蔽された場合には、人体領域43は通常膝までの位置となってしまう。そこで、本発明では、上述した場合に人体領域43を補正する。つまり、追跡手段18は、少なくとも1度画面上で足のつま先から頭部までの人体の身長に関する情報が取得できた場合、その後、頭及び足の両方が同時に隠蔽されていなければ、隠蔽部分を推定することができる。 <Human Body Area Correction Process> FIG. 6 is a diagram illustrating an example of a human body area correction process when a part of the human body described above is concealed. For example, as shown in FIG. 6A, if a human body region 43 and a face region 44 are detected for a person 30, the person related information 46 can be displayed and tracked. Thereafter, as shown in FIG. 6 (b) or FIG. 6 (c) during tracking by the tracking means 18, a part of the person's body (under the knee in the example of FIG. 6) is covered by a shield 61 (for example, cardboard). When concealed, the human body region 43 is normally located up to the knee. Therefore, in the present invention, the human body region 43 is corrected in the case described above. That is, if the tracking means 18 can acquire information about the height of the human body from the toes of the feet to the head at least once on the screen, then, if both the head and feet are not concealed at the same time, the tracking means 18 Can be estimated.

具体的には、追跡手段18において、画像中に含まれる人体領域の足、頭の位置とその特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人体の一部が、建物等の遮蔽物で隠蔽されたか否かを判断する。なお、隠蔽される人物の一部とは、例えば下半身や上半身、頭、腕、胴体等である。 Specifically, the tracking unit 18 tracks a person from the position and characteristics of the foot and head of the human body region included in the image, and when the size of the person that can be determined to be the same changes, a part of the human body is It is determined whether or not it is concealed by a shielding object such as a building. The part of the person to be concealed is, for example, the lower body, the upper body, the head, arms, and the torso.

また、追跡手段18は、人体領域の足の先と消失点の距離から、監視カメラと人物の距離を測定し、実空間上の人物位置を算出して、移動可能範囲を計算し、追跡に用いる。また、追跡手段18は、例えば足が隠蔽された場合は、頭の位置と、事前に算出した身長から人物の実空間上の位置を算出し、追跡を継続する。これにより、遮蔽物等により隠蔽された人体の一部を補正して正確な人体領域の検出を行うことができる。また、人物の足元が隠蔽されていることを容易に把握することができる。 Further, the tracking means 18 measures the distance between the surveillance camera and the person from the distance between the tip of the foot of the human body region and the vanishing point, calculates the position of the person in the real space, calculates the movable range, and performs tracking. Use. For example, when the foot is concealed, the tracking unit 18 calculates the position of the person in the real space from the position of the head and the height calculated in advance, and continues tracking. As a result, it is possible to correct a part of the human body concealed by a shield or the like and to accurately detect the human body region. Further, it is possible to easily grasp that the feet of the person are concealed.

<画面生成手段20> 次に、上述した画面生成手段20における画面生成例について図を用いて説明する。画面生成手段20は、上述した図2〜図6に示すような、本実施形態における人体検出における各種画面を生成する。また、画面生成手段20により生成された画面は、ディスプレイ等の表示画面等により表示させることができる。 <Screen Generation Unit 20> Next, a screen generation example in the above-described screen generation unit 20 will be described with reference to the drawings. The screen generation means 20 generates various screens in human body detection in the present embodiment as shown in FIGS. The screen generated by the screen generation means 20 can be displayed on a display screen such as a display.

なお、上述した図4及び図5に示す人物位置情報51としては、例えば上述した「距離」、「角度」、「移動速度」、「人物座標」を表示することができるが、本発明においては特に限定されるものではなく、例えば撮影された時間や、映像に含まれる人物の顔特徴量等を抽出し、抽出された特徴量推定されるその人物の性別や推定年齢(年代でもよい)等を表示させることもできる。 As the person position information 51 shown in FIGS. 4 and 5 described above, for example, the above-mentioned “distance”, “angle”, “movement speed”, and “person coordinates” can be displayed. It is not particularly limited, and for example, the time of shooting, the facial feature amount of a person included in the video, and the like are extracted, and the extracted gender amount and estimated age (or age) of the person are estimated. Can also be displayed.

<ハードウェア構成例> ここで、上述した人物検出装置10は、上述した機能を有する専用の装置構成により制御を行うこともできるが、各機能をコンピュータに実行させることができる実行プログラム(人物検出プログラム)を生成し、例えば、汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における人物検出処理を実現することができる。 <Hardware Configuration Example> Here, the person detection device 10 described above can be controlled by a dedicated device configuration having the above-described functions, but an execution program (person detection) that can cause a computer to execute each function. Program), and the execution program is installed in, for example, a general-purpose personal computer, server, etc., the person detection processing in the present invention can be realized.

本実施形態における人物検出処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図7は、本実施形態における人物検出処理が実現可能なハードウェア構成の一例を示す図である。 A hardware configuration example of a computer capable of realizing the person detection processing in the present embodiment will be described with reference to the drawings. FIG. 7 is a diagram illustrating an example of a hardware configuration capable of realizing the person detection process according to the present embodiment.

図7におけるコンピュータ本体には、入力装置71と、出力装置72と、ドライブ装置73と、補助記憶装置74と、メモリ装置75と、各種制御を行うCPU(Central Processing Unit)76と、ネットワーク接続装置77とを有するよう構成されており、これらはシステムバスBで相互に接続されている。 7 includes an input device 71, an output device 72, a drive device 73, an auxiliary storage device 74, a memory device 75, a CPU (Central Processing Unit) 76 for performing various controls, and a network connection device. 77, which are connected to each other by a system bus B.

入力装置71は、使用者等が操作するキーボード及びマウス等のポインティングデバイスを有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。 The input device 71 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like.

出力装置72は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するモニタを有し、CPU76が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。 The output device 72 has a monitor that displays various windows and data necessary for operating the computer main body for performing processing in the present invention, and displays the program execution progress and results by the control program of the CPU 76. can do.

なお、入力装置71と出力装置72とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合には使用者等の指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。 The input device 71 and the output device 72 may be integrated input / output means such as a touch panel. In this case, the input device 71 and the output device 72 are predetermined using a finger of a user, a pen-type input device, or the like. The position can be touched to input.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体78等により提供される。プログラムを記録した記録媒体78は、ドライブ装置73にセット可能であり、記録媒体78に含まれる実行プログラムが、記録媒体78からドライブ装置73を介して補助記憶装置74にインストールされる。 Here, the execution program installed in the computer main body in the present invention is provided by a portable recording medium 78 such as a USB (Universal Serial Bus) memory or a CD-ROM, for example. The recording medium 78 on which the program is recorded can be set in the drive device 73, and the execution program included in the recording medium 78 is installed from the recording medium 78 to the auxiliary storage device 74 via the drive device 73.

補助記憶装置74は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。 The auxiliary storage device 74 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary.

メモリ装置75は、CPU76により補助記憶装置74から読み出された実行プログラム等を格納する。なお、メモリ装置75は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。 The memory device 75 stores an execution program or the like read from the auxiliary storage device 74 by the CPU 76. The memory device 75 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU76は、OS(Operating System)等の制御プログラム、及びメモリ装置75により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。プログラムの実行中に必要な各種情報等は、補助記憶装置74から取得することができ、また実行結果等を格納することもできる。 The CPU 76 performs various operations and input / output of data with each hardware component based on a control program such as an OS (Operating System) and an execution program read and stored by the memory device 75. Each process can be realized by controlling the process. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 74, and the execution results and the like can also be stored.

ネットワーク接続装置77は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果、又は本発明における実行プログラム自体を他の端末等に提供することができる。上述したようなハードウェア構成により、本発明における人物検出処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物検出処理を容易に実現することができる。次に、人物検出処理の具体的な内容について説明する。 The network connection device 77 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program, or in the present invention. The execution program itself can be provided to other terminals. With the hardware configuration as described above, the person detection process in the present invention can be executed. Further, by installing the program, the person detection process according to the present invention can be easily realized by a general-purpose personal computer or the like. Next, specific contents of the person detection process will be described.

<人物検出処理> 次に、本発明における実行プログラム(人物検出プログラム)で実行される人物検出処理手順についてフローチャートを用いて説明する。図8は、本実施形態における人物検出処理手順の一例を示すフローチャートである。 <Person Detection Process> Next, a person detection process procedure executed by the execution program (person detection program) according to the present invention will be described with reference to a flowchart. FIG. 8 is a flowchart illustrating an example of a person detection processing procedure in the present embodiment.

図8において、まずカメラ等の撮像手段により撮影された映像を入力する(S01)。次に、その映像に含まれる1又は複数の人物に対する人体領域及び顔領域を検出する(S02,S03)。ここで、映像に含まれる人物に対する人体領域及び顔領域の内容からどちらの検出情報を用いるかを選択検索し(S04)、選択された情報に基づいて同定処理を行う(S05)。 In FIG. 8, first, an image taken by an imaging means such as a camera is input (S01). Next, a human body region and a face region for one or more persons included in the video are detected (S02, S03). Here, it is selected and searched which detection information is used from the contents of the human body area and the face area for the person included in the video (S04), and identification processing is performed based on the selected information (S05).

また、経時的に上述の処理を行い人物の追跡を行う(S06)。ここで、S06の処理における人物の追跡結果による人物の行動パターンから、予め蓄積された不審行動パターンとの照合を行い、不審者に該当する人物が存在すれば、その人物を検出する(S07)。また、画面を生成し(S08)、その生成した画面を出力する(S09)。 Further, the above process is performed over time to track the person (S06). Here, the person's action pattern based on the person tracking result in the process of S06 is compared with the suspicious action pattern accumulated in advance, and if there is a person corresponding to the suspicious person, the person is detected (S07). . A screen is generated (S08), and the generated screen is output (S09).

更に、ここで、追跡を終了するか否かを判断し(S10)、追跡を終了しない場合(S10において、NO)、S01に戻り、撮影映像を継続して入力して以降の処理を行う。また、追跡を終了する場合(S10において、YES)、全体の処理を終了する。   Further, it is determined whether or not the tracking is to be ended (S10). If the tracking is not to be ended (NO in S10), the process returns to S01, and the captured image is continuously input to perform the subsequent processing. If the tracking is to be ended (YES in S10), the entire process is ended.

<身長推定における人物同定処理手順> 次に、上述した身長推定を用いた人物同定処理手順についてフローチャートを用いて説明する。図9は、人物同定処理手順を示す一例のフローチャートである。なお、図9では、その人物の位置検出による追跡の概要を示している。図9示す人物同定処理では、まず、映像中に含まれる1又は複数の人物(図9では、人物X1,・・・,Xn)を検出したか否かを判断し(S11)、検出していない場合(S12において、NO)状態遷移図にしたがって状態を更新する(S12)。具体的には、S12の処理において、例えば「初期状態→初期状態」、「照合状態→初期状態」、「追跡状態→消失状態」、「消失状態→消失状態or退去状態or初期状態」、「退去状態→初期状態」等の何れの設定を行う。ここで、「初期状態」とは、追跡情報を格納する領域が、空き領域であることを示している。例えば、追跡可能な人数が3人であった場合、追跡ID1,ID2,ID3という領域が確保され、それぞれが追跡状態や人物情報を保持する。 <Person Identification Processing Procedure in Height Estimation> Next, a person identification processing procedure using the above-described height estimation will be described with reference to a flowchart. FIG. 9 is a flowchart illustrating an example of a person identification processing procedure. FIG. 9 shows an outline of tracking by detecting the position of the person. In the person identification process shown in FIG. 9, first, it is determined whether or not one or more persons (in FIG. 9, persons X1,..., Xn) included in the video have been detected (S11). If not (NO in S12), the state is updated according to the state transition diagram (S12). Specifically, in the process of S12, for example, “initial state → initial state”, “collation state → initial state”, “tracking state → disappearing state”, “disappearing state → disappearing state or leaving state or initial state”, “ Any setting such as “removal state → initial state” is performed. Here, the “initial state” indicates that the area for storing the tracking information is a free area. For example, when the number of people that can be tracked is 3, the areas of tracking ID1, ID2, and ID3 are secured, and each holds a tracking state and personal information.

また、「照合状態」とは、過去に検出された人物と同一人物か否か、確認中である状態を示している。なお、「照合状態」では、新規の人物若しくは追跡中の人物と同一人物であると判定されると、「追跡状態」に移行する。また、「照合状態」では、安定して検出されない領域、人っぽい動きをしない領域(誤検出と思われる領域)と判定された場合は、「初期状態」に戻る。 The “collation state” indicates a state in which it is being confirmed whether or not the person is the same as a person detected in the past. In the “verification state”, if it is determined that the person is the same as the new person or the person being tracked, the state shifts to the “tracking state”. Further, in the “collation state”, when it is determined that the region is not stably detected or the region does not move like human (region that seems to be erroneously detected), the process returns to the “initial state”.

また、「追跡状態」とは、人物を追跡している状態を示している。なお「追跡状態」は、追跡している人物が検出できなくなると、「消失状態」に移行する。また、「消失状態」とは、追跡中の人物が検出できなくなった状態を示している。なお、「消失状態」は、一定時間続いたら、「退去状態」に移行する。また、「消失状態」は、一定時間内に追跡中の人物が再度検出されたら、「追跡状態」に戻る。また、「退去状態」とは、追跡中の人物が、いなくなったと判定された状態を示している。但し、人物が戻ってきた場合(フレームアウトした人物が、再度、フレームインしてきた場合等)には、同定し、追跡を継続できるように追跡情報を一定時間保持しておく。また、「退去状態」とは、一定時間経過すると、情報を破棄し、「初期状態」に戻る。 The “tracking state” indicates a state in which a person is being tracked. The “tracking state” shifts to the “disappearing state” when the person being tracked cannot be detected. The “disappearance state” indicates a state in which the person being tracked can no longer be detected. The “disappearing state” shifts to the “withdrawal state” after a certain period of time. Further, the “disappearing state” returns to the “tracking state” when the person being tracked is detected again within a predetermined time. Further, the “withdrawal state” indicates a state in which it is determined that the person being tracked is gone. However, when the person returns (when the person who is out of the frame comes into the frame again), the tracking information is held for a certain period of time so that the person can be identified and tracked. In addition, the “withdrawal state” means that after a certain time has elapsed, the information is discarded and the state returns to the “initial state”.

また、S11の処理において、1又は複数の人物を検出した場合(S11において、YES)、初期状態でない人物Aが既に存在するか否かを判断する(S13)。ここで、初期状態でない人物が存在しない場合(S13において、NO)、新規人物として登録状態を「初期状態→照合状態」に更新する(S14)。また、初期状態でない人物が存在する場合(S13において、YES)、次に人物Aの移動範囲内であるか否かを判断する(S15)。ここで、移動範囲内でない場合(S15において、NO)、上述したS14に示すように登録状態の更新を行う。 If one or more persons are detected in the process of S11 (YES in S11), it is determined whether or not a person A that is not in an initial state already exists (S13). Here, when there is no person who is not in the initial state (NO in S13), the registration state is updated as “new person to“ initial state → collation state ”(S14). If there is a person who is not in the initial state (YES in S13), it is next determined whether or not the person A is within the moving range (S15). If it is not within the movement range (NO in S15), the registration state is updated as shown in S14 described above.

また、S15の処理において、人物Aの移動範囲内である場合(S15において、YES)、次に、移動範囲内に複数人いるか否かを判断する(S16)。ここで、複数人いる場合(S16において、YES)、人物Aに対して人物X1,・・・,Xnで人物同定処理を行う(S17)。このとき、S17の人物同定処理は、映像から選択された静止画を用いて行う。また、S17の処理において同定された人物がいるか否かを判断し(S18)、同定された人物がいない場合(S18において、NO)、上述したS14に示すように登録状態の更新を行う。 If it is within the movement range of person A in the process of S15 (YES in S15), it is next determined whether or not there are a plurality of persons within the movement range (S16). Here, when there are a plurality of persons (YES in S16), person identification processing is performed on person A with persons X1,..., Xn (S17). At this time, the person identification process in S17 is performed using a still image selected from the video. Further, it is determined whether or not there is a person identified in the process of S17 (S18). If there is no person identified (NO in S18), the registration state is updated as shown in S14 described above.

また、S16の処理において、移動範囲内に複数人いない場合(S16において、NO)、又はS18の処理において、同定された人物がいる場合(S18において、YES)、人物Aと人物Xiを同一人物として状態を更新する(S19)。これにより、映像に含まれる分物が同一人物であるか否かを正確に判定することができる。 Further, if there are not a plurality of persons within the movement range in the process of S16 (NO in S16), or if there is an identified person in the process of S18 (YES in S18), the person A and the person Xi are the same person. The state is updated (S19). This makes it possible to accurately determine whether the fractions included in the video are the same person.

<追跡処理手順> 次に、上述した追跡手段18等における追跡処理手順の具体例についてフローチャートを用いて説明する。図10は、追跡処理手順の一例を示すフローチャートである。図10に示すように、追跡処理手順では、まず現在の画像フレームに検出された人物Aの足から位置を推定する(S21)。次に、人物Bの移動範囲内に人物Aが存在するか否かを判断する(S22)。ここで、人物Bの移動範囲内に人物Aが存在しない場合(S22において、NO)、以下、前回検知された人物Bと同一人物と仮定する(S23)。次に、その人物Bの身長Hbを利用し、頭から人物Aの位置を推定し(S24)、人物Bの移動範囲内に人物Aが存在するか否かを判断する(S25)。ここで、人物Bの移動範囲内に人物Aが存在する場合(S25において、YES)、又は、S22の処理において、人物Bの移動範囲内に人物Aが存在する場合(S22において、YES)、同一人物と判定する(仮定成立)(S26)。また、S25の処理において、人物Bの移動範囲内に人物Aが存在する場合(S25において、NO)、異なる人物と判定する(仮定不成立)(S27)。つまり、上述の処理では、S22の処理において、人物Aが人物Bの移動範囲内に存在すれば、同一人物と即断定し、そうでなければ、同一人物であると仮説を立てて、それが成立するか否かの判定を行う。 <Tracking Process Procedure> Next, a specific example of the tracking process procedure in the tracking unit 18 and the like described above will be described using a flowchart. FIG. 10 is a flowchart illustrating an example of the tracking processing procedure. As shown in FIG. 10, in the tracking processing procedure, first, the position is estimated from the foot of the person A detected in the current image frame (S21). Next, it is determined whether or not the person A exists within the movement range of the person B (S22). Here, when the person A does not exist within the movement range of the person B (NO in S22), it is assumed that the person B is the same person as the person B detected last time (S23). Next, using the height Hb of the person B, the position of the person A is estimated from the head (S24), and it is determined whether or not the person A exists within the movement range of the person B (S25). Here, when person A exists within the movement range of person B (YES in S25), or when person A exists within the movement range of person B in the process of S22 (YES at S22), It is determined that they are the same person (assumed to be established) (S26). Further, in the process of S25, when the person A exists within the movement range of the person B (NO in S25), it is determined that the person is a different person (assuming not established) (S27). In other words, in the above-described process, if the person A is within the movement range of the person B in the process of S22, the person is immediately determined to be the same person. It is determined whether or not it is established.

<隠蔽状態判定処理手順> 次に、上述した追跡手段18等における隠蔽状態判定処理手順の具体例についてフローチャートを用いて説明する。図11は、隠蔽状態判定処理手順の一例を示すフローチャートである。図11に示すように、隠蔽状態判定処理手順では、まず人物Aの足から推定された位置PAf、頭から推定された位置PAhを取得する(S31)。次に、PAfとPAhの位置が一定範囲内であるか否かを判断する(S32)。ここで、PAfとPAhの位置が一定範囲内でない場合(S32において、NO)、以下、前回検知された人物Bと同一人物と仮定する(S33)。 <Concealment State Determination Processing Procedure> Next, a specific example of the concealment state determination processing procedure in the tracking unit 18 and the like described above will be described using a flowchart. FIG. 11 is a flowchart illustrating an example of the concealment state determination processing procedure. As shown in FIG. 11, in the concealment state determination processing procedure, first, a position PAf estimated from the foot of the person A and a position PAh estimated from the head are acquired (S31). Next, it is determined whether or not the positions of PAf and PAh are within a certain range (S32). Here, if the positions of PAf and PAh are not within a certain range (NO in S32), it is assumed that the person is the same as person B detected last time (S33).

次に、人物Aの身長Haを利用し、人物Bの位置PBahを頭から推定する(S34)。その後、またPAfとPBahの位置が一定範囲内であるか否かを判断する(S35)。ここで、PAfとPBahの位置が一定範囲内である場合(S35において、YES)、人物領域Aが足、人物領域Bが頭となる(つまり、胴体が隠蔽されている)と判断する(S36)。また、S35の処理において、PAfとPBahの位置が一定範囲内でない場合(S35において、NO)、人物領域Aの足が隠蔽していると判断する(S37)。また、S32の処理において、PAfとPAhの位置が一定範囲内である場合(S32において、YES)、人物Aは隠蔽領域なしと判断する(S38)。 Next, the position PBah of the person B is estimated from the head using the height Ha of the person A (S34). Thereafter, it is determined whether or not the positions of PAf and PBah are within a certain range (S35). Here, when the positions of PAf and PBah are within a certain range (YES in S35), it is determined that person area A is the foot and person area B is the head (that is, the torso is concealed) (S36). ). In the process of S35, when the positions of PAf and PBah are not within a certain range (NO in S35), it is determined that the feet of the person area A are concealed (S37). In the process of S32, if the positions of PAf and PAh are within a certain range (YES in S32), it is determined that person A has no concealment area (S38).

つまり、上述の処理では、足から推定される位置PAfと頭から推定される位置PAhが同じような位置を示す場合、それは同一人物の足と頭であることが確定する。したがって、頭から足まできれいに領域抽出されていると判定する。また、位置が異なる場合は、何らかの影響で足か頭の領域が欠損している可能性があると判定する。 That is, in the above-described processing, when the position PAf estimated from the foot and the position PAh estimated from the head indicate the same position, it is determined that they are the foot and head of the same person. Therefore, it is determined that the region is clearly extracted from the head to the foot. If the positions are different, it is determined that the foot or head region may be missing due to some influence.

上述した実施形態によれば、体の一部分が撮影された画像から欠けていたり、遮蔽物により一部が遮蔽されていても、顔検出結果等から同一の人物と認識して、人物の追跡等を行うことができ、更に遮蔽物等により隠蔽された人体の一部を補正して正確な人体領域の検出を行うことができる。 According to the above-described embodiment, even if a part of the body is missing from the captured image or part of the body is shielded by a shielding object, the person is recognized as the same person from the face detection result, etc. Furthermore, it is possible to correct a part of the human body concealed by a shield or the like, and to accurately detect the human body region.

上述したように、本発明によれば、人物検出において顔検出フィルタと人体検出フィルタの使い分けを行うことで高速かつ高精度で人物検索することができる。具体的には、カメラ等の撮像手段により撮影される画像や映像について、人体検出を行う際に、カメラから遠く映像における領域が小さい場合には、人体検出用のフィルタを用いて検出を行い、カメラから近く映像における領域が大きい場合には、顔検出用のフィルタを用いて検出を行うことにより人物検出処理の精度を保ったまま高速化を実現することができる。つまり、人体領域による追跡と、顔領域による追跡を予め設定された条件を用いて使い分けることにより、高精度に人物を追跡することができる。 As described above, according to the present invention, it is possible to perform a person search with high speed and high accuracy by properly using a face detection filter and a human body detection filter in person detection. Specifically, when performing human body detection on an image or video captured by an imaging means such as a camera, if the area in the video is small from the camera, detection is performed using a human body detection filter, When the area in the image close to the camera is large, the detection can be performed using the face detection filter, and the speed can be increased while maintaining the accuracy of the person detection process. That is, it is possible to track a person with high accuracy by properly using tracking based on a human body region and tracking based on a face region using preset conditions.

更に、撮影された映像から顔検出を用いて人物を追跡する際、顔さえ検出できれば、体が重なっていてもよいため、重なりに強く、また人物がカメラに近くても検出が可能であるが、カメラから遠いと検出精度が低下し、人物追跡が途切れてしまう。一方、撮影された映像から人体領域検出を用いて人物を追跡する際、人物がカメラから遠くても検出が可能であるが、カメラに近付いてくると人物の重なりが起きやすく、人物追跡が途切れてしまう。したがって、人物がカメラから近い場合には顔検出を行い、遠い場合には人体領域を用いて人物を検出することで、途切れのない人物追跡を行うことができる。 Furthermore, when tracking a person using face detection from a captured image, the body may overlap as long as the face can be detected, so that it is strong against overlap and can be detected even if the person is close to the camera. If it is far from the camera, the detection accuracy is lowered and the person tracking is interrupted. On the other hand, when tracking a person using human body region detection from the captured image, it is possible to detect even if the person is far from the camera, but when the person approaches the camera, the person tends to overlap and the person tracking is interrupted End up. Accordingly, face detection can be performed without interruption by performing face detection when the person is close to the camera and detecting the person using the human body region when the person is far away.

また、本発明によれば、監視画像内の移動物体を精度よく追跡でき、移動物体か否かの判定性能の向上が図れ、しかも、効率のよい画像監視が可能となる監視画像の移動物体追跡方法を提供するができる。 Further, according to the present invention, it is possible to track a moving object in a monitoring image with high accuracy, improve the determination performance as to whether or not the object is a moving object, and enable moving image tracking of a monitoring image that enables efficient image monitoring. Can provide a way.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10 人物検出装置 11 入力手段 12 出力手段 13 蓄積手段 14 人体検出手段 15 顔検出手段 16 検出情報選択手段 17 同定手段 18 追跡手段 19 不審者検出手段 20 画面生成手段 21 通知手段 22 送受信手段 23 制御手段 24 撮像手段 30 人物 40 画面 41 映像表示画面 42 追跡表示画面 43 人体領域 44 顔領域 45 時間情報表示領域 46 人物関連情報 47 追跡ルート 48 画角 49 現在位置 50 移動可能範囲 51 人物位置情報 52 角度 53 過去人物認定領域 61 遮蔽物 71 入力装置 72 出力装置 73 ドライブ装置 74 補助記憶装置 75 メモリ装置 76 CPU(Central Processing Unit) 77 ネットワーク接続装置 78 記録媒体 DESCRIPTION OF SYMBOLS 10 Person detection apparatus 11 Input means 12 Output means 13 Accumulation means 14 Human body detection means 15 Face detection means 16 Detection information selection means 17 Identification means 18 Tracking means 19 Suspicious person detection means 20 Screen generation means 21 Notification means 22 Transmission / reception means 23 Control means 24 imaging means 30 person 40 screen 41 video display screen 42 tracking display screen 43 human body area 44 face area 45 time information display area 46 person related information 47 tracking route 48 angle of view 49 current position 50 movable range 51 person position information 52 angle 53 Past person recognition area 61 Shield 71 Input device 72 Output device 73 Drive device 74 Auxiliary storage device 75 Memory device 76 CPU (Central Processing Unit) 77 Network connection Connecting device 78 Recording medium

Claims (3)

撮像手段により撮影された映像に含まれる人物を検出する人物検出装置において、
前記映像に含まれる時系列の各画像のうち、所定の画像から所定以下の大きさを有する1又は複数の人物に対する人体領域を検出する人体検出手段と、
前記所定の画像から所定以上の大きさを有する1又は複数の顔領域を検出する顔検出手段と、
前記人体検出手段及び顔検出手段により得られる検出結果に基づいて、複数の画像に含まれる人物に対する同定処理を行う同定手段と、
を有することを特徴とする人物検出装置。
In a person detection device for detecting a person included in an image taken by an imaging means,
Human body detection means for detecting a human body region for one or a plurality of persons having a predetermined size or less from a predetermined image among time-series images included in the video;
Face detecting means for detecting one or a plurality of face regions having a predetermined size or more from the predetermined image;
Based on the detection results obtained by the human body detection means and the face detection means, an identification means for performing identification processing for a person included in a plurality of images;
A person detecting device characterized by comprising:
撮像手段により撮影された映像に含まれる人物を検出する人物検出方法において、
前記映像に含まれる時系列の各画像のうち、所定の画像から所定以下の大きさを有する1又は複数の人物に対する人体領域を検出する人体検出手順と、
前記所定の画像から所定以上の大きさを有する1又は複数の顔領域を検出する顔検出手順と、
前記人体検出手順及び顔検出手順により得られる検出結果に基づいて、複数の画像に含まれる人物に対する同定処理を行う同定手順と、
を有することを特徴とする人物検出方法。
In a person detection method for detecting a person included in an image taken by an imaging means,
A human body detection procedure for detecting a human body region for one or a plurality of persons having a predetermined size or less from a predetermined image among the time-series images included in the video;
A face detection procedure for detecting one or more face regions having a size greater than or equal to a predetermined size from the predetermined image;
Based on the detection result obtained by the human body detection procedure and the face detection procedure, an identification procedure for performing identification processing on a person included in a plurality of images,
A person detection method characterized by comprising:
撮像手段により撮影された映像に含まれる人物を検出するための人物検出プログラムにおいて、
コンピュータを、
前記映像に含まれる時系列の各画像のうち、所定の画像から所定以下の大きさを有する1又は複数の人物に対する人体領域を検出する人体検出手段、
前記所定の画像から所定以上の大きさを有する1又は複数の顔領域を検出する顔検出手段、及び、
前記人体検出手段及び前記顔検出手段により得られる検出結果に基づいて、複数の画像に含まれる人物に対する同定処理を行う同定手段、
として機能させるための人物検出プログラム。
In a person detection program for detecting a person included in an image captured by an imaging means,
Computer
Human body detection means for detecting a human body region for one or more persons having a predetermined size or less from a predetermined image among time-series images included in the video,
Face detecting means for detecting one or a plurality of face regions having a size greater than or equal to a predetermined size from the predetermined image; and
Identification means for performing identification processing on a person included in a plurality of images based on detection results obtained by the human body detection means and the face detection means;
Person detection program to function as
JP2009088561A 2009-03-31 2009-03-31 Person detection device, person detection method, and person detection program Active JP5203281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009088561A JP5203281B2 (en) 2009-03-31 2009-03-31 Person detection device, person detection method, and person detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009088561A JP5203281B2 (en) 2009-03-31 2009-03-31 Person detection device, person detection method, and person detection program

Publications (2)

Publication Number Publication Date
JP2010244089A JP2010244089A (en) 2010-10-28
JP5203281B2 true JP5203281B2 (en) 2013-06-05

Family

ID=43097077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009088561A Active JP5203281B2 (en) 2009-03-31 2009-03-31 Person detection device, person detection method, and person detection program

Country Status (1)

Country Link
JP (1) JP5203281B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10896319B2 (en) 2017-07-24 2021-01-19 Fuji Xerox Co., Ltd. Person identification device

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012029518A1 (en) * 2010-08-31 2012-03-08 オムロン株式会社 Behavior analysis device
JP5726596B2 (en) * 2011-03-30 2015-06-03 セコム株式会社 Image monitoring device
CN103210332B (en) 2011-04-18 2015-09-30 松下电器(美国)知识产权公司 The focusing control method of camera head, camera head and integrated circuit
JP2013030116A (en) * 2011-07-29 2013-02-07 Lixil Corp Visitor notification service providing method and visitor notification system
JP5954106B2 (en) * 2012-10-22 2016-07-20 ソニー株式会社 Information processing apparatus, information processing method, program, and information processing system
JP6033044B2 (en) * 2012-11-06 2016-11-30 キヤノン株式会社 Image display apparatus, control method thereof, control program, and imaging apparatus
JP5988894B2 (en) * 2013-02-26 2016-09-07 Kddi株式会社 Subject collation device, subject collation method, and program
KR101448392B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting method
KR101448391B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting system
JP2017034511A (en) * 2015-08-03 2017-02-09 株式会社ブイ・アール・テクノセンター Moving body detection system
US10277836B2 (en) 2016-03-07 2019-04-30 Ricoh Company, Ltd. Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP2017184025A (en) * 2016-03-30 2017-10-05 株式会社リコー Communication terminal, image communication system, image transmission method, image display method, and program
JP6844230B2 (en) * 2016-12-06 2021-03-17 富士通株式会社 Image processing program, image processing device and image processing method
WO2018179202A1 (en) * 2017-03-30 2018-10-04 日本電気株式会社 Information processing device, control method, and program
JP6958020B2 (en) * 2017-06-22 2021-11-02 富士通株式会社 Image analysis program, image analysis device, and image analysis method
KR101967998B1 (en) * 2017-09-05 2019-04-11 주식회사 카카오 Method for creating moving image based key input, and user device for performing the method
CN109859426A (en) * 2019-01-24 2019-06-07 广州市炬盾科技发展有限公司 A kind of community security protection management system
SG10201906302XA (en) * 2019-07-05 2021-02-25 Nec Asia Pacific Pte Ltd Method and apparatus for adaptively identifying a target subject for event throttling
JP7343760B2 (en) * 2019-08-08 2023-09-13 富士通株式会社 Image processing program, image processing method, and image processing device
JPWO2021064937A1 (en) * 2019-10-03 2021-04-08
JP7331610B2 (en) * 2019-10-11 2023-08-23 オムロン株式会社 Image anonymization device, image anonymization method, and program
SG10201913024QA (en) * 2019-12-23 2020-10-29 Sensetime Int Pte Ltd Target Object Identification System, Method And Apparatus, Electronic Device And Storage Medium
CN112703505A (en) * 2019-12-23 2021-04-23 商汤国际私人有限公司 Target object identification system, method and device, electronic equipment and storage medium
WO2022074946A1 (en) * 2020-10-07 2022-04-14 株式会社Jvcケンウッド Image recognition device, image recognition method, and program
CN112464747A (en) * 2020-11-10 2021-03-09 广州富港万嘉智能科技有限公司 Height detection method and device based on image acquisition equipment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3570755B2 (en) * 1994-10-19 2004-09-29 セコム株式会社 Personal identification device
JP2003050783A (en) * 2001-05-30 2003-02-21 Fujitsu Ltd Composite authentication system
JP2004054633A (en) * 2002-07-19 2004-02-19 Sony Communication Network Corp Information synchronization method, information synchronization device and information terminal for using the same method
JP2004297167A (en) * 2003-03-25 2004-10-21 Olympus Corp Image display apparatus and image display system
JP2005228163A (en) * 2004-02-13 2005-08-25 Omron Corp Control system, and control operation determining method
JP4830650B2 (en) * 2005-07-05 2011-12-07 オムロン株式会社 Tracking device
JP2008219367A (en) * 2007-03-02 2008-09-18 Fujifilm Corp Imaging apparatus and imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10896319B2 (en) 2017-07-24 2021-01-19 Fuji Xerox Co., Ltd. Person identification device

Also Published As

Publication number Publication date
JP2010244089A (en) 2010-10-28

Similar Documents

Publication Publication Date Title
JP5203281B2 (en) Person detection device, person detection method, and person detection program
JP5478928B2 (en) Person identification device, person identification method, and person identification program
JP6013241B2 (en) Person recognition apparatus and method
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
JP2010237873A (en) Device, method, and program for detecting attitude change
JP2010237872A (en) Device, method and program for detecting person area
JP5205187B2 (en) Input system and input method
CN109461003A (en) Plurality of human faces scene brush face payment risk preventing control method and equipment based on multi-angle of view
US20150063640A1 (en) Image processing apparatus and image processing method
JP5381569B2 (en) Gesture recognition device, gesture recognition method, and gesture recognition program
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP5613741B2 (en) Image processing apparatus, method, and program
JP6589321B2 (en) System, search method and program
US20190388012A1 (en) Face detection device, face detection system, and face detection method
JP2010123019A (en) Device and method for recognizing motion
JP2018081630A (en) Search device, search method and program
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
JP6283008B2 (en) Tracking device
JP2010199865A (en) Abnormality detection system, abnormality detection method, and abnormality detection program
US20200311438A1 (en) Representative image generation device and representative image generation method
JP5373128B2 (en) Person identification device, person identification method, and person identification program
JP2021196741A (en) Image processing device, image processing method and program
KR101286750B1 (en) Password estimation system using gesture.
JP2016139353A (en) Image determination system and image determination method
JP2010244090A (en) Person information extraction device, person information extraction method, and person information extraction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130213

R150 Certificate of patent or registration of utility model

Ref document number: 5203281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250