JP4667508B2 - Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program - Google Patents

Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program Download PDF

Info

Publication number
JP4667508B2
JP4667508B2 JP2008535230A JP2008535230A JP4667508B2 JP 4667508 B2 JP4667508 B2 JP 4667508B2 JP 2008535230 A JP2008535230 A JP 2008535230A JP 2008535230 A JP2008535230 A JP 2008535230A JP 4667508 B2 JP4667508 B2 JP 4667508B2
Authority
JP
Japan
Prior art keywords
information
image
processing
person
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008535230A
Other languages
Japanese (ja)
Other versions
JPWO2008035411A1 (en
Inventor
收文 中山
大輔 阿部
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2008035411A1 publication Critical patent/JPWO2008035411A1/en
Application granted granted Critical
Publication of JP4667508B2 publication Critical patent/JP4667508B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Description

本発明は、所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラムに関し、特に、撮像装置でパン・ティルト・ズームを行うことなく、移動体の検出と認識とを同時に行うことができる移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラムに関するものである。   The present invention relates to a moving body information detecting device, a moving body information detecting method, and a moving body information detecting program for detecting passing information about a moving body that passes through a predetermined area using an imaging device that captures a predetermined area. The present invention relates to a moving body information detecting apparatus, a moving body information detecting method, and a moving body information detecting program capable of simultaneously detecting and recognizing a moving body without performing pan / tilt / zoom in an imaging apparatus.

従来、天井など、上部に設置されたカメラを用いて通路などを通過する人物を撮影し、その映像を画像処理することによって、人物を自動で検出(認識)する人物情報検出装置が存在する。この人物情報検出装置は、例えば、施設の出入口を入退出する人物を監視する入退出監視システムや、歩道や通路を通過する人物の数を計数する通過人物計数システムに利用されている。   2. Description of the Related Art Conventionally, there is a human information detection device that automatically detects (recognizes) a person by photographing a person passing through a passage using a camera installed on an upper part such as a ceiling and processing the image. This person information detection device is used, for example, in an entrance / exit monitoring system for monitoring a person entering / exiting an entrance / exit of a facility and a passing person counting system for counting the number of persons passing through a sidewalk or a passage.

かかる入退出監視システムや通過人物計数システムにおいては、入退出や通過する人物を漏れなく検出(計数)できることや、導入・運用コストの面から、少ないカメラ台数で実現できることが望まれている。さらに近年では、セキュリティの意識が高まっていることから、通過した人物を特定するための情報として顔映像を取得することも重要視されている。   In such an entry / exit monitoring system and a passing person counting system, it is desired that persons who enter / exit and pass through can be detected (counted) without omission and that it can be realized with a small number of cameras from the viewpoint of introduction / operation costs. Furthermore, in recent years, since security awareness has increased, it is also important to acquire a face image as information for specifying a person who has passed.

このような要望を実現するために、これまでに提案されている方法としては、監視したい領域の上方から真下を撮影するカメラを用いる方法や、複数のカメラを用いる方法や、パン・ティルト・ズーム機能を持つカメラ(PTZカメラ)を用いる方法などがある。   In order to realize such demands, methods proposed so far include a method of using a camera that takes a picture from directly above an area to be monitored, a method of using a plurality of cameras, a pan / tilt / zoom method, and the like. There is a method using a camera having a function (PTZ camera).

監視したい領域の上方から真下を撮影するカメラを用いる方法としては、例えば、特許文献1(特開平6−223157号公報)に記載されている方法がある。図19〜図22は、特許文献1の方法を説明するための図(1)〜(4)である。この方法では、天井にカメラを真下に向けて設置して(図19を参照)、撮影される映像(図20を参照)の変化を画像処理により認識し、この変化を通過した人物として検出する。これにより、カメラと通路とが正対しているため、通過した人物のみを撮影することができ、人物が歩いてくる方向に向けて斜めから撮影する場合(図21を参照)のように、奥行き方向に別の人物が映る(図22を参照)ことがなく、通過する人物を一人ずつ区別して正しく検出することができる。   An example of a method using a camera that captures an image directly below an area to be monitored is described in Patent Document 1 (Japanese Patent Laid-Open No. 6-223157). 19 to 22 are diagrams (1) to (4) for explaining the method of Patent Document 1. FIG. In this method, a camera is placed directly on the ceiling (see FIG. 19), a change in a captured image (see FIG. 20) is recognized by image processing, and a person who has passed this change is detected. . Thereby, since the camera and the passage are facing each other, only the person who has passed can be photographed, and the depth can be obtained as in the case of photographing obliquely in the direction in which the person walks (see FIG. 21). No other person appears in the direction (see FIG. 22), and the passing person can be distinguished and detected correctly one by one.

また、複数のカメラを用いる方法としては、例えば、特許文献2(特開平9−54894号公報)に記載されている方法がある。図23は、特許文献2の技術を説明するための図である。同図に示すように、この方法では、真下のみではなく、人物が歩いてくる方向にもカメラを設置して、通過する人物の顔も認識する。これにより、通過する人物の計数のみではなく、通過した人物の顔映像の取得および認識を行うことができる。   As a method using a plurality of cameras, for example, there is a method described in Patent Document 2 (Japanese Patent Laid-Open No. 9-54894). FIG. 23 is a diagram for explaining the technique of Patent Document 2. In FIG. As shown in the figure, in this method, not only directly below but also in the direction in which the person walks, a camera is installed to recognize the face of the passing person. Thereby, it is possible to acquire and recognize not only the number of passing persons but also the face images of the passing persons.

また、PTZカメラを用いる方法としては、例えば、特許文献3(特開平10−188145号公報)に記載されている方法がある。図24は、特許文献3の方法を説明するための図である。同図に示すように、この方法では、広く撮影した映像の中から通過する人物を検出し、検出した位置にカメラをパン・ティルト・ズームすることで、人物の顔映像の取得、認識を行う。これにより、1台のカメラで人物の検出(計数)と顔映像の取得、認識を行うことができる。   As a method using a PTZ camera, for example, there is a method described in Patent Document 3 (Japanese Patent Laid-Open No. 10-188145). FIG. 24 is a diagram for explaining the method of Patent Document 3. As shown in the figure, in this method, a passing person is detected from widely captured images, and the camera is panned, tilted, and zoomed at the detected position to acquire and recognize a person's face image. . This makes it possible to detect (count) a person and acquire and recognize a face image with one camera.

以上のように、通過する人物を検出する従来技術は様々提案されており、それぞれ特長も異なっている。   As described above, various conventional techniques for detecting a passing person have been proposed, and their features are also different.

特開平6−223157号公報JP-A-6-223157 特開平9−54894号公報JP-A-9-54894 特開平10−188145号公報Japanese Patent Laid-Open No. 10-188145

しかしながら、特許文献1、2および3に代表される従来の技術では、以下のような問題点がある。   However, the conventional techniques represented by Patent Documents 1, 2, and 3 have the following problems.

まず、監視したい領域の上方から真下を撮影するカメラを用いる方法では、通過する人物の計数は行えるものの、人物を認識するための顔映像を取得できず、セキュリティの用途には適さないという問題がある。   First of all, the method using a camera that captures the image from directly above the area to be monitored can count the number of people passing through, but cannot acquire facial images for recognizing people, and is not suitable for security purposes. is there.

また、複数のカメラを用いる方法では、次のような問題点がある。図25は、複数のカメラを用いる方法の問題点を説明するための図である。同図に示すように、この方法では、異なるカメラに映る同一人物を画像処理により同一人物と対応付けるためには、各カメラを厳密に設置することが必要であり、経年変化などにより設置位置がずれることを考慮すると、現場調整のコストが大きいという問題がある。また、この方法では、複数台のカメラを使用するため、導入コストおよび設置スペースの問題がある。   Further, the method using a plurality of cameras has the following problems. FIG. 25 is a diagram for explaining the problem of the method using a plurality of cameras. As shown in the figure, in this method, in order to associate the same person appearing in different cameras with the same person by image processing, it is necessary to strictly install each camera, and the installation position shifts due to secular change or the like. Considering this, there is a problem that the cost of on-site adjustment is large. Further, since this method uses a plurality of cameras, there is a problem of introduction cost and installation space.

また、PTZカメラを用いる方法では、次のような問題点がある。図26は、PTZカメラを用いる方法の問題点を説明するための図である。同図に示すように、この方法では、通過する一人の人物に着目するようにカメラをパン・ティルト・ズームするため、複数の人物が同時に監視領域を通過した場合には、全ての通過人物を検出できないという問題がある。この問題に対して、複数台のPTZカメラを用いた場合には、複数のカメラを用いる方法と同じ問題がある。また、パン・ティルト・ズームの動作は、カメラに機械的な磨耗が発生するため、長時間の使用を保証することが難しいという問題がある。   Further, the method using the PTZ camera has the following problems. FIG. 26 is a diagram for explaining a problem of the method using the PTZ camera. As shown in the figure, this method pans, tilts, and zooms the camera so as to focus on one passing person, so if multiple persons pass through the monitoring area at the same time, There is a problem that it cannot be detected. In contrast to this problem, when a plurality of PTZ cameras are used, there is the same problem as a method using a plurality of cameras. In addition, the pan / tilt / zoom operation has a problem that it is difficult to guarantee a long-time use because the camera is mechanically worn.

この発明は、上述した従来技術による問題点を解消するためになされたものであり、撮像装置でパン・ティルト・ズームを行うことなく、移動体の検出と認識とを同時に行うことができる移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems caused by the prior art, and is capable of simultaneously detecting and recognizing a moving object without performing pan / tilt / zoom in an imaging apparatus. An object of the present invention is to provide an information detection apparatus, a mobile object information detection method, and a mobile object information detection program.

上述した課題を解決し、目的を達成するため、本発明は、所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する移動体情報検出装置であって、前記撮像装置により撮影された領域内の中央部分に映された移動体の映像を用いて第一の画像処理を行う中央領域処理手段と、前記撮像装置により撮影された領域内の前記中央部分の周辺部分に映された移動体の映像を用いて第二の画像処理を行う周辺領域処理手段と、前記中央領域処理手段による第一の画像処理で検出された第一の情報および前記周辺領域処理手段による第二の画像処理で検出された第二の情報を移動体ごとに対応付けた情報を前記通過情報として検出する通過情報検出手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention provides a moving body information detection apparatus that detects passing information about a moving body that passes through a predetermined area using an imaging device that captures a predetermined area. A central area processing means for performing first image processing using a moving body image projected on a central portion in the area photographed by the imaging device; and the central portion in the area photographed by the imaging device. Peripheral area processing means for performing second image processing using a moving body image projected on the peripheral part of the first information, the first information detected in the first image processing by the central area processing means, and the peripheral area Passage information detecting means for detecting, as the passage information, information in which second information detected by the second image processing by the processing means is associated with each moving object.

また、本発明は、上記の発明において、前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方は、それぞれ検出した前記第一の情報および前記第二の情報の少なくとも一方の信頼度を算出し、前記通過情報検出手段は、前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方により算出された信頼度に基づいて、前記第一の情報と前記第二の情報とを対応付けることを特徴とする。 Further, the present invention is the above invention, wherein at least one of the central area processing means and the peripheral area processing means calculates the reliability of at least one of the detected first information and second information, respectively. The passage information detecting means associates the first information with the second information based on the reliability calculated by at least one of the central area processing means and the peripheral area processing means. To do.

また、本発明は、上記の発明において、前記通過情報検出手段は、前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方により算出された信頼度が低い場合に、前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方に対して前記第一の情報および/または前記第二の情報の再検出を行うように指示することを特徴とする。 The present invention, in the above invention, the passage information detection means, wherein, when the central region processing means and reliability calculated by at least one of said peripheral region processing means is low, the central region processing means and said It is characterized in that at least one of the peripheral area processing means is instructed to redetect the first information and / or the second information.

また、本発明は、上記の発明において、前記中央領域処理手段による第一の画像処理において検出された第一の情報および前記周辺領域処理手段による第二の画像処理において検出された第二の情報の少なくとも一方を、あらかじめ蓄積された移動体特定用情報と照合することによって該移動体を特定する移動体照合手段をさらに備えたことを特徴とする。 Further, the present invention provides the first information detected in the first image processing by the central region processing means and the second information detected in the second image processing by the peripheral region processing means in the above invention. It is further characterized by further comprising mobile body collating means for identifying the mobile body by collating at least one of the above with the mobile body specifying information stored in advance.

また、本発明は、上記の発明において、前記移動体照合手段は、前記第一の情報および前記第二の情報の少なくとも一方を照合した際に、前記移動体特定用情報の中に一致する情報が存在していなかった場合には、該第一の情報および第二の情報の少なくとも一方を前記移動体特定用情報に追加することを特徴とする。 Also, in the present invention according to the above-mentioned invention, the mobile body collating means matches information in the mobile body specifying information when collating at least one of the first information and the second information. Is not present , at least one of the first information and the second information is added to the mobile object specifying information.

また、本発明は、上記の発明において、前記中央領域処理手段は、前記第一の画像処理において前記移動体の進行経路を検出し、前記周辺領域処理手段は、前記第二の画像処理において前記移動体の属性情報を検出し、前記通過情報検出手段は、前記中央領域処理手段により検出された進行経路と前記周辺領域処理手段により検出された属性情報とを移動体ごとに対応付けた情報を前記通過情報として検出することを特徴とする。   Further, the present invention is the above invention, wherein the central region processing means detects a traveling path of the moving body in the first image processing, and the peripheral region processing means is the second image processing. Detecting the attribute information of the moving object, the passage information detecting means associates the traveling path detected by the central area processing means with the attribute information detected by the peripheral area processing means for each moving object. It is detected as the passage information.

また、本発明は、上記の発明において、前記移動体は人物であり、前記中央領域処理手段は、前記第一の画像処理において前記人物の進行経路を検出し、前記周辺領域処理手段は、前記第二の画像処理において前記人物の顔情報を検出し、前記通過情報検出手段は、前記周辺領域処理手段により検出された顔情報と前記中央領域処理手段により検出された進行経路とを人物ごとに対応付けた情報を前記通過情報として検出することを特徴とする。   Further, the present invention is the above invention, wherein the moving body is a person, the central area processing means detects a travel route of the person in the first image processing, and the peripheral area processing means In the second image processing, the face information of the person is detected, and the passage information detecting means determines the face information detected by the peripheral area processing means and the travel path detected by the central area processing means for each person. The associated information is detected as the passing information.

また、本発明は、上記の発明において、前記撮像装置は、広角レンズを用いて前記所定の領域を撮影することを特徴とする。   In addition, the present invention is characterized in that, in the above-mentioned invention, the imaging device photographs the predetermined area using a wide-angle lens.

また、本発明は、上記の発明において、前記撮像装置は、魚眼レンズを用いて前記所定の領域を撮影することを特徴とする。   In addition, the present invention is characterized in that, in the above invention, the imaging device photographs the predetermined area using a fisheye lens.

また、本発明は、所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する移動体情報検出方法であって、前記撮像装置により撮影された領域内の中央部分に映された移動体の画像を用いて第一の画像処理を行う中央領域処理工程と、前記撮像装置により撮影された領域内の前記中央部分の周辺部分に映された移動体の画像を用いて第二の画像処理を行う周辺領域処理工程と、前記中央領域処理工程による第一の画像処理で検出された第一の情報および前記周辺領域処理工程による第二の画像処理で検出された第二の情報を移動体ごとに対応付けた情報を前記通過情報として検出する通過情報検出工程と、を含んだことを特徴とする。   The present invention also provides a moving body information detection method for detecting passage information relating to a moving body that passes through a predetermined area using an imaging apparatus that captures a predetermined area, the area being captured by the imaging apparatus. A central area processing step of performing first image processing using an image of a moving body projected on the central portion, and an image of the moving body projected on a peripheral portion of the central portion in the area photographed by the imaging device A peripheral region processing step for performing second image processing using the first information detected by the first image processing by the central region processing step and the second image processing by the peripheral region processing step. And a passage information detection step of detecting information associating the second information for each moving body as the passage information.

また、本発明は、所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する移動体情報検出プログラムであって、前記撮像装置により撮影された領域内の中央部分に映された移動体の画像を用いて第一の画像処理を行う中央領域処理手順と、前記撮像装置により撮影された領域内の前記中央部分の周辺部分に映された移動体の画像を用いて第二の画像処理を行う周辺領域処理手順と、前記中央領域処理手順による第一の画像処理で検出された第一の情報および前記周辺領域処理手順による第二の画像処理で検出された第二の情報を移動体ごとに対応付けた情報を前記通過情報として検出する通過情報検出手順と、をコンピュータに実行させることを特徴とする。   Further, the present invention is a moving body information detection program for detecting passage information regarding a moving body that passes through a predetermined area using an imaging apparatus that captures a predetermined area, wherein the information is stored in the area captured by the imaging apparatus. A central area processing procedure for performing first image processing using an image of a moving object projected on the central portion, and an image of the moving object projected on a peripheral portion of the central portion in the area photographed by the imaging device The peripheral area processing procedure for performing the second image processing using the first information detected by the first image processing by the central area processing procedure and the second image processing by the peripheral area processing procedure. And a passage information detection procedure for detecting, as the passage information, information in which the second information is associated with each moving body.

本発明によれば、撮像装置により撮影された領域内の中央部分に映された移動体の画像を用いて第一の画像処理を行い、撮像装置により撮影された領域内の中央部分の周辺部分に映された移動体の画像を用いて第二の画像処理を行い、第一の画像処理で検出した第一の情報および第二の画像処理で検出した第二の情報を移動体ごとに対応付けた情報を通過情報として検出するよう構成したので、第一の情報に基づいて移動体の通過数や進行経路などを検出するとともに第二の情報に基づいて移動体を認識することが可能になり、撮像装置でパン・ティルト・ズームを行うことなく、移動体の検出および認識を同時に行うことができるという効果を奏する。また、この構成は一台の撮像装置でも実現が可能なため、設置現場での煩雑な位置調整や、導入にかかるコストを低減することができるという効果も奏する。   According to the present invention, the first image processing is performed using the image of the moving body projected on the central portion in the region photographed by the imaging device, and the peripheral portion of the central portion in the region photographed by the imaging device The second image processing is performed using the image of the moving object displayed on the screen, and the first information detected by the first image processing and the second information detected by the second image processing are handled for each moving object. Since the attached information is detected as passing information, it is possible to detect the passing number of the moving body and the traveling route based on the first information and to recognize the moving body based on the second information. Thus, the moving object can be detected and recognized at the same time without performing pan / tilt / zoom in the imaging apparatus. In addition, since this configuration can be realized even with a single image pickup apparatus, there is an effect that it is possible to perform complicated position adjustment at the installation site and reduce the cost for introduction.

また、本発明によれば、それぞれ検出した第一の情報および第二の情報の少なくとも一方の信頼度を算出し、算出した信頼度に基づいて、第一の情報と第二の情報とを対応付けるよう構成したので、照度変化などの外乱要素によって移動体の検出性能が低下するなどの悪影響を抑え、安定して人物の通過情報を検出することができるという効果を奏する。 According to the present invention, the reliability of at least one of the detected first information and second information is calculated, and the first information and the second information are associated with each other based on the calculated reliability. Since it comprised in this way, it has the effect that the bad influence of the detection performance of a moving body falling by disturbance elements, such as an illumination intensity change, can be suppressed, and the passage information of a person can be detected stably.

また、本発明によれば、算出した信頼度が低い場合に、第一の情報および第二の情報の少なくとも一方の再検出を行うように指示するよう構成したので、照度変化などの外乱要素によって移動体の検出に誤差が生じやすい状態が発生した場合でも、高い精度で移動体情報を検出することができるという効果を奏する。 In addition, according to the present invention, when the calculated reliability is low, it is configured to instruct to perform redetection of at least one of the first information and the second information. Even when a state in which an error is likely to occur in the detection of the moving body occurs, the moving body information can be detected with high accuracy.

また、本発明によれば、第一の画像処理において検出された第一の情報および第二の画像処理の少なくとも一方において検出された第二の情報を、あらかじめ蓄積された移動体特定用情報と照合することによって移動体を特定するよう構成したので、移動体を認識するだけでなく、特定することも可能になる。これにより、移動体ごとに通過回数を集計したり、あらかじめ決めておいた監視すべき移動体を検知したりすることが可能になり、移動体検出機能の高機能化を図ることができるという効果を奏する。 According to the present invention, the first information detected in the first image processing and the second information detected in at least one of the second image processing are used as the mobile object specifying information accumulated in advance. Since the mobile object is specified by collating, not only the mobile object can be recognized but also specified. As a result, it is possible to count the number of passes for each moving object, or to detect a moving object to be monitored, which has been determined in advance, and an effect that the moving object detection function can be enhanced. Play.

また、本発明によれば、第一の情報および第二の情報の少なくとも一方を照合した際に、移動体特定用情報の中に一致する情報が存在していなかった場合には、第一の情報および第二の情報の少なくとも一方を移動体特定用情報に追加するよう構成したので、特定できる移動体を学習して増やすことが可能になり、移動体の検出機能を自動的に向上させることができるという効果を奏する。
According to the present invention, when at least one of the first information and the second information is collated, if there is no matching information in the mobile object specifying information, the first information Since at least one of the information and the second information is added to the mobile object specifying information, it is possible to learn and increase the number of mobile bodies that can be specified, and automatically improve the detection function of the mobile body There is an effect that can be.

また、本発明によれば、第一の画像処理において移動体の進行経路を検出し、第二の画像処理において移動体の属性情報を検出し、検出した進行経路と属性情報とを移動体ごとに対応付けた情報を通過情報として検出するよう構成したので、属性情報に基づいて移動体を認識すると同時に、その移動体の進行経路を同時に検出することができるという効果を奏する。   Further, according to the present invention, the traveling path of the moving body is detected in the first image processing, the attribute information of the moving body is detected in the second image processing, and the detected traveling path and attribute information are detected for each moving body. Since the information associated with is detected as passing information, the moving body is recognized based on the attribute information, and at the same time, the traveling path of the moving body can be detected at the same time.

また、本発明によれば、移動体は人物であり、第一の画像処理において人物の進行経路を検出し、第二の画像処理において人物の顔情報を検出し、検出した進行経路と顔情報とを人物ごとに対応付けた情報を通過情報として検出するよう構成したので、顔情報に基づいて人物を認識すると同時に、その人物の進行経路を同時に検出することができるという効果を奏する。   Further, according to the present invention, the moving body is a person, the person's travel path is detected in the first image processing, the person's face information is detected in the second image processing, and the detected travel path and face information are detected. Is associated with each person and is detected as passage information, so that the person can be recognized based on the face information, and at the same time, the travel path of the person can be detected at the same time.

また、本発明によれば、撮像装置は、広角レンズを用いて所定の領域を撮影するよう構成したので、撮像装置により撮影される領域が通常のレンズに比べて広くなり、より多くの通過情報を移動体ごとに検出することが可能になり、移動体の検出および認識の精度を高めることができるという効果を奏する。   According to the present invention, since the imaging device is configured to capture a predetermined area using a wide-angle lens, the area captured by the imaging device is wider than that of a normal lens, and more passing information is obtained. Can be detected for each moving body, and the accuracy of detecting and recognizing the moving body can be improved.

また、本発明によれば、撮像装置は、魚眼レンズを用いて所定の領域を撮影するよう構成したので、撮像装置により撮影される領域が通常のレンズや広角レンズに比べてさらに広くなり、より多くの通過情報を移動体ごとに検出することが可能になり、移動体の検出および認識の精度を高めることができるという効果を奏する。   In addition, according to the present invention, the imaging apparatus is configured to capture a predetermined area using a fisheye lens, so that an area captured by the imaging apparatus is further wider than a normal lens or a wide-angle lens, and more The passage information can be detected for each moving body, and the accuracy of detecting and recognizing the moving body can be improved.

以下に添付図面を参照して、この発明に係る移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラムの好適な実施例を詳細に説明する。なお、本実施例では、本発明を、通路を通過する人物に関する通過情報を検出する人物情報検出装置に適用した場合を中心に説明する。   Exemplary embodiments of a mobile object information detection apparatus, a mobile object information detection method, and a mobile object information detection program according to the present invention will be explained below in detail with reference to the accompanying drawings. In the present embodiment, the case where the present invention is applied to a person information detecting apparatus that detects passage information relating to a person passing through a passage will be mainly described.

まず、本実施例1に係る人物情報検出装置の概念について説明する。図1および2は、本実施例1に係る人物情報検出装置の概念を説明するための図(1)および(2)である。   First, the concept of the person information detecting apparatus according to the first embodiment will be described. 1 and 2 are diagrams (1) and (2) for explaining the concept of the human information detecting apparatus according to the first embodiment.

本実施例1に係る人物情報検出装置は、天井など、監視したい領域の上部に設置された監視カメラで撮影された映像について、映像内の領域ごとに異なる画像処理を同時に行うことによって、通過人物の検出と、その人物の顔映像とを、取得および認識するものである。   The person information detection apparatus according to the first embodiment performs passing image processing on a video captured by a monitoring camera installed above an area to be monitored, such as a ceiling, by simultaneously performing different image processing for each area in the video. And detecting and recognizing the person's face image.

ここで使用される監視カメラには、魚眼レンズなどの広角レンズを用いて撮影が行われるカメラが用いられる。広角レンズを有するカメラを用いることにより、撮影される領域が通常のレンズに比べて広くなり、より多くの通過情報を人物ごとに検出することが可能になり、人物の検出および認識の精度を高めることができる。   As the surveillance camera used here, a camera that performs photographing using a wide-angle lens such as a fisheye lens is used. By using a camera having a wide-angle lens, the area to be photographed becomes wider than that of a normal lens, and more passage information can be detected for each person, thereby improving the accuracy of person detection and recognition. be able to.

具体的には、図1に示すように、監視領域の上部に、広角レンズを有するカメラ10が設置され、これにより、通過する人物が撮影される。例えば、同図に示すように、時刻T1からT3の間に人物Aがカメラ10の下を通過したとする。この場合、カメラ10によって、図2に示すような映像が撮影される。同図に示すように、時刻T1では、人物Aはカメラ10の正面よりも離れた場所(周辺部分)にいるため、顔までが撮影され、時刻T2では、人物Aはカメラ10の正面付近(中心部分)にいるため、頭部のみが撮影される(時刻T2)。   Specifically, as shown in FIG. 1, a camera 10 having a wide-angle lens is installed on the upper part of the monitoring area, and thereby a passing person is photographed. For example, as shown in the figure, it is assumed that the person A passes under the camera 10 between times T1 and T3. In this case, the camera 10 captures an image as shown in FIG. As shown in the figure, at time T1, since the person A is in a place (peripheral part) far from the front of the camera 10, the face is photographed. At time T2, the person A is near the front of the camera 10 ( Only the head is photographed (time T2).

そこで、人物情報検出装置は、映像の中央部分を用いて通過する人数を検出する処理と、映像の周辺部分を用いて通過人物の顔映像を検出および認識する処理という2つの異なる画像処理を同時に行う。さらに、周辺部分で検出した顔および中央部分で検出した人物を追跡することで、通過する人物と顔とを一致させる(対応付ける)。   Therefore, the person information detection apparatus simultaneously performs two different image processes, that is, a process of detecting the number of people passing using the central part of the video and a process of detecting and recognizing the face image of the passing person using the peripheral part of the video. Do. Further, by tracking the face detected in the peripheral part and the person detected in the central part, the passing person and the face are matched (associated).

このように、本実施例1に係る人物情報検出装置では、カメラでパン・ティルト・ズームを行うことなく、通過した人物の検出(計数)と顔映像の取得(認識)とを同時に行うことができるともに、通過人物と顔との対応付けを行い、高い精度での通過人物の計数や、通過人物の移動軌跡の取得など、従来技術を解決するだけではなく、新しい機能を提供可能なシステムを実現できる。   As described above, the person information detecting apparatus according to the first embodiment can simultaneously detect (count) passing persons and acquire (recognize) face images without performing pan / tilt / zoom with the camera. A system that not only solves the conventional technology but also provides new functions, such as counting the number of passing people with high accuracy and acquiring the moving trajectory of passing people by associating passing people with faces. realizable.

次に、本実施例1に係る人物情報検出装置の構成について説明する。図3は、本実施例1に係る人物情報検出装置の構成を示す機能ブロック図である。同図に示すように、この人物情報検出装置100は、カメラ10から送られるアナログ映像や、画像記録装置(図示せず)から送られるディジタル映像を入力し、入力した映像から、通過人数や通過した人物の顔映像などを検出して、これらを通過情報として出力する装置であり、A/D変換部110と、画像記憶部111と、周辺領域処理結果記憶部112と、中央領域処理結果記憶部113と、画像制御部114と、処理画像変換部115と、周辺領域処理部116と、中央領域処理部117と、処理結果統合部118とを有する。   Next, the configuration of the person information detection apparatus according to the first embodiment will be described. FIG. 3 is a functional block diagram of the configuration of the person information detecting apparatus according to the first embodiment. As shown in the figure, the person information detecting device 100 inputs an analog video sent from the camera 10 or a digital video sent from an image recording device (not shown). This is a device that detects a face image of a person and outputs them as passage information, and includes an A / D conversion unit 110, an image storage unit 111, a peripheral region processing result storage unit 112, and a central region processing result storage. Unit 113, image control unit 114, processed image conversion unit 115, peripheral region processing unit 116, central region processing unit 117, and processing result integration unit 118.

A/D変換部110は、カメラ10から送られるアナログ映像をディジタル化する処理部である。具体的には、このA/D変換部110は、カメラ10から送られるアナログ映像をディジタル映像に変換し、変換したディジタル映像を画像制御部114に送る。なお、入力される映像がディジタル映像である場合には、このA/D変換部110は、構成上、不要となる。   The A / D conversion unit 110 is a processing unit that digitizes an analog video sent from the camera 10. Specifically, the A / D conversion unit 110 converts an analog video sent from the camera 10 into a digital video, and sends the converted digital video to the image control unit 114. When the input video is a digital video, the A / D conversion unit 110 is not necessary due to the configuration.

画像記憶部111は、ディジタル化された入力映像の映像データを記憶する記憶部である。具体的には、この画像記憶部111は、後述する画像制御部114から順次送られる映像データを、所定の時間間隔で時系列に、所定の期間分、記憶する。   The image storage unit 111 is a storage unit that stores the digitized video data of the input video. Specifically, the image storage unit 111 stores video data sequentially transmitted from an image control unit 114, which will be described later, for a predetermined period of time in a predetermined time interval.

周辺領域処理結果記憶部112は、顔検出処理の処理結果および処理に用いられた映像データを記憶する記憶部である。具体的には、この周辺領域処理結果記憶部112は、後述する周辺領域処理部116から送られる顔検出処理の処理結果と、後述する処理結果統合部118から送られる処理結果統合処理の処理結果とを、それぞれ所定の時間間隔で時系列に記憶する。   The peripheral region processing result storage unit 112 is a storage unit that stores the processing result of the face detection processing and the video data used for the processing. Specifically, the peripheral region processing result storage unit 112 includes a processing result of a face detection process sent from a peripheral region processing unit 116 described later and a processing result of a processing result integration process sent from a processing result integration unit 118 described later. Are stored in time series at predetermined time intervals.

中央領域処理結果記憶部113は、人物検出処理の処理結果および処理に用いられた映像データを記憶する記憶部である。具体的には、この中央領域処理結果記憶部113は、後述する中央領域処理部117から送られる人物検出処理の処理結果と、後述する処理結果統合部118から送られる処理結果統合処理の処理結果とを、それぞれ所定の時間間隔で時系列に記憶する。   The central area processing result storage unit 113 is a storage unit that stores a processing result of the person detection processing and video data used for the processing. Specifically, the central region processing result storage unit 113 includes a processing result of a person detection process sent from a central region processing unit 117 described later and a processing result of a processing result integration process sent from a processing result integration unit 118 described later. Are stored in time series at predetermined time intervals.

画像制御部114は、A/D変換部110や画像記録装置(図示せず)から送られるディジタル映像の入力や、入力したディジタル映像の画像記憶部111への入出力を制御する処理部である。具体的には、この画像制御部114は、A/D変換部110や画像記録装置から送られるディジタル映像を入力し、所定の時間間隔で画像記憶部111に順次送る。また、画像制御部114は、画像記憶部111に映像データが蓄積されており、処理画像変換部115が処理可能な状態である場合には、画像記憶部111に蓄積されている映像データを順次取り出し、処理画像変換部115に順次送る。   The image control unit 114 is a processing unit that controls input of digital video sent from the A / D conversion unit 110 and an image recording apparatus (not shown) and input / output of the input digital video to the image storage unit 111. . Specifically, the image control unit 114 inputs digital video sent from the A / D conversion unit 110 and the image recording apparatus, and sequentially sends them to the image storage unit 111 at predetermined time intervals. The image control unit 114 sequentially stores the video data stored in the image storage unit 111 when the video data is stored in the image storage unit 111 and the processed image conversion unit 115 is in a processable state. The image data is taken out and sequentially sent to the processed image conversion unit 115.

処理画像変換部115は、画像制御部114から順次送られるディジタル映像を周辺領域処理部116および中央領域処理部117で処理するための画像に変換する処理部である。具体的には、この処理画像変換部115は、画像制御部114から順次送られるディジタル映像を周辺部分の画像と中央部分の画像とに分割し、それぞれを変換したうえで、周辺部分の画像は周辺領域処理部116に、中央部分の画像は中央領域処理部117に送る。以下に、周辺部分の画像変換および中央部分の画像変換について説明する。   The processed image conversion unit 115 is a processing unit that converts the digital video sequentially transmitted from the image control unit 114 into an image to be processed by the peripheral region processing unit 116 and the central region processing unit 117. Specifically, the processed image conversion unit 115 divides the digital video sequentially sent from the image control unit 114 into a peripheral part image and a central part image, converts each, and then converts the peripheral part image into the peripheral part image. The image of the central portion is sent to the peripheral area processing unit 116 to the central area processing unit 117. Hereinafter, image conversion of the peripheral part and image conversion of the central part will be described.

まず、周辺部分の画像変換について説明する。図4、5および6は、処理画像変換部115による周辺領域の画像変換の一例を説明するための図(1)、(2)および(3)である。例えば、処理画像変換部115は、図4に示すように、入力した映像について、中央領域を処理対象外とし、線P−Qと線R−Sとを対辺とする長方形の画像になるように周辺領域を展開することによって、周辺部分のみの画像への変換を行う。この場合、同図に示すように、展開した画像を2枚にしてもよいし、1枚にしてもよい。または、処理画像変換部115は、図5に示すように、画像を展開せずに、中央部分を塗りつぶすことによって、処理対象外とする処理を行ってもよい。   First, the image conversion of the peripheral part will be described. 4, 5 and 6 are diagrams (1), (2) and (3) for explaining an example of image conversion of the peripheral region by the processed image conversion unit 115. FIG. For example, as illustrated in FIG. 4, the processed image conversion unit 115 makes the input image a rectangular image that excludes the central region from the processing target and has the line PQ and the line RS as opposite sides. By expanding the peripheral area, conversion to an image of only the peripheral part is performed. In this case, as shown in the figure, the developed images may be two or one. Alternatively, as illustrated in FIG. 5, the processing image conversion unit 115 may perform processing to exclude the processing target by painting the central portion without expanding the image.

また、図6に示すように、入力する映像が魚眼映像である場合には、処理画像変換部115は、当該映像について、公知の映像変換技術を用いて、魚眼映像から通常映像への変換処理を行い、線T−Uと線V−Wとを対辺とする歪みのない長方形の画像へ変換するようにしてもよい。   Also, as shown in FIG. 6, when the input video is a fish-eye video, the processed image conversion unit 115 converts the video from a fish-eye video to a normal video using a known video conversion technique. A conversion process may be performed to convert the line TU and the line VW into a rectangular image without distortion having the opposite sides.

ここで用いられる公知の映像変換技術としては、例えば、「小林他、“魚眼レンズカメラ画像の矯正”、2005総合大会論文集A−4−19、電子情報通信学会」に記載された映像変換技術などが挙げられる。   Known video conversion techniques used here include, for example, video conversion techniques described in “Kobayashi et al.,“ Correction of Fisheye Camera Image ”, 2005 General Conference Proceedings A-4-19, The Institute of Electronics, Information and Communication Engineers”, etc. Is mentioned.

続いて、中央領域の画像変換について説明する。図7および8は、処理画像変換部115による中央領域の画像変換の一例を説明するための図(1)および(2)である。例えば、処理画像変換部115は、図7に示すように、入力画像について、周辺領域を処理対象外とし、中央部分のみの画像への変換を行う。または、処理画像変換部115は、図8に示すように、周辺部分を塗りつぶすことによって、処理対象外とする処理を行ってもよい。   Subsequently, the image conversion of the central area will be described. 7 and 8 are diagrams (1) and (2) for explaining an example of image conversion of the central area by the processed image conversion unit 115. FIG. For example, as illustrated in FIG. 7, the processed image conversion unit 115 converts the input image into an image of only the central portion, excluding the peripheral region from the processing target. Alternatively, the processed image conversion unit 115 may perform processing that is excluded from the processing target by painting the peripheral portion as shown in FIG.

また、図6に示すように、入力する映像が魚眼映像である場合には、処理画像変換部115は、当該映像について、周辺領域の画像変換と同様に、公知の映像変換技術を用いて、魚眼映像から通常映像への変換処理を行うようにしてもよい。   Also, as shown in FIG. 6, when the input video is a fish-eye video, the processed image conversion unit 115 uses a known video conversion technique for the video in the same manner as the image conversion of the peripheral area. Alternatively, a conversion process from fisheye video to normal video may be performed.

周辺領域処理部116は、処理画像変換部115により変換された周辺部分の画像について顔検出処理を行う処理部である。具体的には、この周辺領域処理部116は、処理画像変換部115から送られる周辺部分の画像について、公知の顔検出技術を用いて顔の検出処理を行い、検出結果として、入力画像中の顔の位置と大きさ、顔映像および検出処理での評価値(例えば、顔らしさを表す、ニューラルネットワークの出力値など)を取得する。そして、周辺領域処理部116は、これらの検出結果を周辺領域処理結果記憶部112に送る。   The peripheral region processing unit 116 is a processing unit that performs face detection processing on the peripheral image converted by the processing image conversion unit 115. Specifically, the peripheral region processing unit 116 performs face detection processing using a known face detection technique on the peripheral portion image sent from the processing image conversion unit 115, and the detection result includes The position and size of the face, the face image, and the evaluation value in the detection process (for example, the output value of the neural network representing the likelihood of a face) are acquired. Then, the surrounding area processing unit 116 sends these detection results to the surrounding area processing result storage unit 112.

ここで用いられる公知の顔検出技術としては、例えば、この顔の検出処理には、「H.A.Rowley他、“Neural network-based face detection”、IEEE Trans. on Pattern Analysis and Machine Intelligence、Vol.20、No.1、pp.23-38、1998」に記載されている技術などが挙げられる。   As a known face detection technique used here, for example, this face detection processing includes “HARowley et al.,“ Neural network-based face detection ”, IEEE Trans. On Pattern Analysis and Machine Intelligence, Vol. 20, No. 1, pp. 23-38, 1998 ”.

さらに、周辺領域処理部116は、周辺領域処理結果記憶部112に保持されている前時刻の検出結果と現時刻の検出結果とを比較することによって、画像内の顔の進行経路も検出する。具体的には、例えば、前時刻で検出された顔映像と現時刻で検出された顔映像とを表す値を用いて、以下に示す式(1)で示される正規化相関を計算し、一定以上の相関値が得られた場合に、それぞれの顔映像の顔が同一であると判定する。式(1)において、「X」および「Y」は、それぞれ、前時刻および現時刻で検出した顔映像の画素値を示し、「X^−(バー)」および「Y^−(バー)」は、それぞれ、前時刻および現時刻で検出した顔映像の平均値を示す。   Further, the surrounding area processing unit 116 also detects the advancing path of the face in the image by comparing the detection result of the previous time held in the surrounding area processing result storage unit 112 with the detection result of the current time. Specifically, for example, using the values representing the face image detected at the previous time and the face image detected at the current time, the normalized correlation represented by the following equation (1) is calculated, and constant When the above correlation values are obtained, it is determined that the faces of the face images are the same. In Expression (1), “X” and “Y” indicate pixel values of the face image detected at the previous time and the current time, respectively, “X ^ − (bar)” and “Y ^ − (bar)”. Indicates the average values of the face images detected at the previous time and the current time, respectively.

Figure 0004667508
Figure 0004667508

このように判定することにより、複数の人物が同時に存在する場合にも、各人物を区別して、各人物の進行経路を検出することができる。周辺領域処理部116は、この進行経路の検出結果についても、周辺領域処理結果記憶部112に送る。   By determining in this way, even when a plurality of persons are present at the same time, it is possible to distinguish each person and detect the traveling path of each person. The peripheral area processing unit 116 also sends the detection result of the traveling route to the peripheral area processing result storage unit 112.

また、周辺部分の画像では、人物の背中側のみ撮影されて顔が映らない場合があるが、この場合は、周辺領域処理部116は、例えば、学習時に後頭部の映像を学習させておくことによって、顔の検出結果が後ろ向きの顔であることを判断するか、後述する処理結果統合部118で検出される人物の進行経路情報に基づいて、人物の位置を推定する。   Further, in the peripheral image, there are cases where only the back side of the person is photographed and the face is not reflected. In this case, for example, the peripheral region processing unit 116 learns the image of the back of the head during learning. Then, it is determined that the face detection result is a backward face, or the position of the person is estimated based on the person's travel path information detected by the processing result integration unit 118 described later.

中央領域処理部117は、処理画像変換部115により変換された中央部分画像について人物検出処理を行う処理部である。具体的には、この中央領域処理部117は、処理画像変換部115から送られる中央部分の画像について、公知の人物検出技術を用いて人物(シルエット)の検出処理を行う。   The central area processing unit 117 is a processing unit that performs person detection processing on the central partial image converted by the processing image conversion unit 115. Specifically, the central area processing unit 117 performs a person (silhouette) detection process on the central portion image sent from the processed image conversion unit 115 using a known person detection technique.

ここで用いられる公知の人物検出技術としては、例えば、「辻村他、“背景自動更新による差分システムに関する研究”、電子情報通信学会総合大会、2003」に記載されている技術が挙げられる。当該技術は、背景画像と呼ばれる、検出対象の映っていない基準画像と入力画像との間で差を計算し、差のある領域を物体として検出する背景差分法により、中央領域に存在する人物を検出するものである。   Examples of the known person detection technique used here include techniques described in “Masamura et al.,“ Research on differential system by automatic background update ”, IEICE General Conference, 2003”. The technology calculates a difference between a reference image, which is called a background image, where the detection target is not reflected and the input image, and detects a person existing in the central region by using a background subtraction method that detects a region having a difference as an object. It is to detect.

このような人物検出処理を行うことにより、中央領域処理部117は、人物検出処理による検出結果として、入力画像中の人物の位置と大きさ、人物の映像(人物の頭部部分)および検出処理での評価値を取得する。図9は、中央領域処理部117による人物検出の一例を説明するための図である。例えば、同図に示すように、中央領域処理部117は、予め用意された人物のモデルと背景差分結果とを比較し、それらの一致度を、評価値とする。   By performing such person detection processing, the central region processing unit 117 detects the position and size of the person in the input image, the video of the person (the head part of the person), and detection processing as the detection result by the person detection processing. Get evaluation value at. FIG. 9 is a diagram for explaining an example of person detection by the central area processing unit 117. For example, as shown in the figure, the central region processing unit 117 compares a human model prepared in advance with a background difference result, and uses the degree of coincidence as an evaluation value.

そして、中央領域処理部117は、これらの検出結果を中央領域処理結果記憶部113に送る。また、中央領域処理部117は、周辺領域処理部116と同様に、中央領域処理結果記憶部113に保持されている前時刻の検出結果と現時刻の検出結果とを比較することによって、人物の画像内の進行経路も検出する。例えば、中央領域処理部117は、周辺領域処理部116と同様に、式(1)で示した正規化相関値を用いて、人物映像を比較する。   Then, the central area processing unit 117 sends these detection results to the central area processing result storage unit 113. Similarly to the peripheral region processing unit 116, the central region processing unit 117 compares the detection result of the previous time held in the central region processing result storage unit 113 with the detection result of the current time, thereby The traveling path in the image is also detected. For example, the central area processing unit 117 compares the person videos using the normalized correlation value represented by the expression (1), similarly to the peripheral area processing unit 116.

処理結果統合部118は、周辺領域処理結果記憶部112に保持された顔の検出結果と中央領域処理結果記憶部113に保持された人物の検出結果とを統合し、通過した人物の計数および通過した人物の顔映像の取得を行う処理部である。   The processing result integration unit 118 integrates the face detection result held in the peripheral region processing result storage unit 112 and the person detection result held in the central region processing result storage unit 113, and counts and passes the passing person It is a processing unit that acquires the face image of the person who has performed.

また、処理結果統合部118は、周辺領域処理部116および中央領域処理部117による処理結果を統合し、通過した人物と顔映像とを対応付ける。具体的には、処理結果統合部118は、周辺部分の画像での人物(顔)の進行経路の検出結果と、中央部分の画像での人物の進行経路の検出結果とを比較し、最も人物の動きを満足するものを対応付ける。   Further, the processing result integration unit 118 integrates the processing results obtained by the peripheral region processing unit 116 and the central region processing unit 117, and associates the person who has passed with the face image. Specifically, the processing result integration unit 118 compares the detection result of the person's (face) travel path in the peripheral image with the detection result of the person's travel path in the central image. Corresponding things that satisfy the movement of

例えば、処理結果統合部118は、周辺部分の画像で検出された顔の所定の位置(例えば、顔の上端部など)に定義された点の軌跡と、中央部分の画像で検出された人物の所定の位置(例えば、頭頂部など)に定義された点の軌跡とをそれぞれ解析し、互いの軌跡が最も自然につながる顔と人物とを、同一人物として対応付ける。   For example, the processing result integration unit 118 detects the locus of a point defined at a predetermined position of the face (for example, the upper end portion of the face) detected in the peripheral image and the person detected in the central image. The trajectory of the point defined at a predetermined position (for example, the top of the head) is analyzed, and the face and the person whose trajectories are most naturally connected are associated with each other as the same person.

図10は、処理結果統合部118による人物の対応付けを説明するための図である。例えば、同図に示すように、一定時間の間に、周辺領域において4人の人物(周辺人物1〜4)が検出され、中央領域において2人の人物(中央人物1および2)が検出されたとする(同図左の「入力画像と検出位置」を参照)。この場合、処理結果統合部118は、それぞれの領域での検出結果を統合し、進行経路から、周辺人物1と中央人物1と周辺人物4とを同一人物として対応付け(同図右の「統合結果」に示す「人物1」を参照)、周辺人物2と中央人物2と周辺人物3とを同一人物として対応付ける(同図右の「統合結果」に示す「人物2」を参照)。   FIG. 10 is a diagram for explaining person association by the processing result integration unit 118. For example, as shown in the figure, four persons (peripheral persons 1 to 4) are detected in the peripheral area and two persons (central persons 1 and 2) are detected in the central area during a certain period of time. (See “Input Image and Detection Position” on the left side of the figure). In this case, the processing result integration unit 118 integrates the detection results in the respective regions, and associates the peripheral person 1, the central person 1, and the peripheral person 4 as the same person from the traveling path ("Integration" on the right side of the figure). “Person 1” shown in “Result”), the peripheral person 2, the central person 2, and the peripheral person 3 are associated as the same person (see “Person 2” shown in “Integration result” on the right side of the figure).

そして、処理結果統合部118は、入力画像内での人物の進行経路とその人物の顔映像とを対応付けた結果を、監視センターなどに通知するとともに、周辺領域処理結果記憶部112および中央領域処理結果記憶部113に送る。   Then, the processing result integration unit 118 notifies the monitoring center or the like of the result of associating the person's travel path in the input image with the face image of the person, and also includes the peripheral region processing result storage unit 112 and the central region. The result is sent to the processing result storage unit 113.

次に、本実施例1に係る人物情報検出装置100において行われる処理の処理手順について説明する。図11は、本実施例1に係る人物情報検出装置100の処理手順を示すフローチャートである。同図に示すように、人物情報検出装置100においては、まず、A/D変換部110が、カメラ10から送信されたアナログ映像をディジタル化し(ステップS101)、続いて、画像制御部114が、入力画像を周辺領域と中央領域とに分割する(ステップS102)。   Next, a processing procedure of processing performed in the person information detection apparatus 100 according to the first embodiment will be described. FIG. 11 is a flowchart illustrating the processing procedure of the person information detecting apparatus 100 according to the first embodiment. As shown in the figure, in the person information detection apparatus 100, first, the A / D conversion unit 110 digitizes the analog video transmitted from the camera 10 (step S101), and then the image control unit 114 The input image is divided into a peripheral area and a central area (step S102).

そして、分割された入力画像について、周辺領域処理部116が、周辺部分の画像から顔に関する情報を検出し(ステップS103)、中央領域処理部117が、中央部分の画像から人物に関する情報を検出する(ステップS104)。   Then, with respect to the divided input image, the peripheral area processing unit 116 detects information about the face from the image of the peripheral part (step S103), and the central area processing unit 117 detects information about the person from the image of the central part. (Step S104).

その後、処理結果統合部118が、顔の検出結果と人物の検出結果とを対応付け(ステップS105)、その処理結果を監視センターなどに通知する(ステップS106)。   Thereafter, the processing result integration unit 118 associates the face detection result with the person detection result (step S105), and notifies the monitoring result to the monitoring center (step S106).

上述してきたように、本実施例1では、中央領域処理部117が、カメラ10により撮影された領域内の中央部分に映された人物の画像を用いて個々の人物を検出する画像処理を行い、周辺領域処理部116が、カメラ10により撮影された領域内の中央部分の周辺部分に映された人物の画像を用いて人物の顔を検出する画像処理を行い、処理結果統合部118が、中央領域処理部117により検出された個々の人物および周辺領域処理部116により検出された顔を人物ごとに対応付けた情報を通過情報として検出するので、顔に基づいて人物を認識するとともに、個々に検出した人物に基づいて通過数や進行経路などを検出することが可能になり、カメラ10でパン・ティルト・ズームを行うことなく、人物の検出および認識を同時に行うことができる。また、この構成は一台の撮像装置でも実現が可能なため、設置現場での煩雑な位置調整や、導入にかかるコストを低減することができる。   As described above, in the first embodiment, the central area processing unit 117 performs image processing for detecting individual persons using an image of a person shown in the central portion of the area captured by the camera 10. The peripheral region processing unit 116 performs image processing for detecting a person's face using an image of the person shown in the peripheral part of the central portion in the region captured by the camera 10, and the processing result integrating unit 118 Since the information associated with each person detected by the central area processing unit 117 and the face detected by the peripheral area processing unit 116 is detected as passing information, the person is recognized based on the face, It is possible to detect the number of passages and the traveling route based on the person detected at the same time, and detect and recognize the person at the same time without performing pan / tilt / zoom with the camera 10. It is possible. In addition, since this configuration can be realized even with a single image pickup apparatus, it is possible to reduce complicated position adjustment and installation costs at the installation site.

このようにして検出された通過情報は、さまざまな方法で利用することができる。例えば、かかる通過情報をログ情報として記録しておき、犯罪発生時にそのログ情報を検索することによって不審人物を追跡したり、新しく商業施設を建設する際に立地場所の候補地を通行する人の属性や数を調査したりする場合などに利用することができる。   The passing information detected in this way can be used in various ways. For example, such passing information is recorded as log information, and a suspicious person is tracked by searching the log information when a crime occurs, or a person who goes through a candidate site for a location when a new commercial facility is constructed. This can be used when investigating attributes and numbers.

ところで、上記実施例1では、周辺部分の画像での顔の検出結果と中央部分の画像での人物の検出結果とを単純に統合する場合について説明したが、それぞれの検出処理によって検出された検出結果の信頼度に基づいて再検出を行ったり、信頼度が高い検出結果で信頼度が低い検出結果を補完し合ったりするようにしてもよい。そこで、以下では、かかる信頼度に基づいた制御を行う場合を、実施例2として説明する。   By the way, in the first embodiment, the case where the detection result of the face in the peripheral image and the detection result of the person in the central image are simply integrated has been described, but the detection detected by each detection process Re-detection may be performed based on the reliability of the result, or detection results with high reliability and detection results with low reliability may be complemented. Therefore, hereinafter, a case where control based on the reliability is performed will be described as a second embodiment.

図12は、本実施例2に係る人物情報検出装置の構成を示す機能ブロック図である。なお、同図に示す各機能部のうち、図3に示した人物情報検出装置100が有する機能部と同様の役割を果たすものについては同一の符号を付しており、ここでは、その詳細な説明を省略する。   FIG. 12 is a functional block diagram of the configuration of the person information detection apparatus according to the second embodiment. Of the functional units shown in the figure, those having the same functions as the functional units included in the person information detecting apparatus 100 shown in FIG. 3 are denoted by the same reference numerals. Description is omitted.

同図に示すように、この人物情報検出装置200は、カメラ10から送られるアナログ映像や、画像記録装置(図示せず)から送られるディジタル映像を入力し、入力した映像から、通過人数や通過した人物の顔映像などを検出して、これらを通過情報として出力する装置であり、A/D変換部110と、画像記憶部111と、周辺領域処理結果記憶部112と、中央領域処理結果記憶部113と、画像制御部114と、処理画像変換部115と、周辺領域処理部116と、中央領域処理部117と、処理結果統合部118と、信頼度判定部219とを有する。   As shown in the figure, the person information detecting device 200 inputs an analog video sent from the camera 10 or a digital video sent from an image recording device (not shown). This is a device that detects a face image of a person and outputs them as passage information, and includes an A / D conversion unit 110, an image storage unit 111, a peripheral region processing result storage unit 112, and a central region processing result storage. Unit 113, image control unit 114, processed image conversion unit 115, peripheral region processing unit 116, central region processing unit 117, processing result integration unit 118, and reliability determination unit 219.

信頼度判定部219は、周辺領域処理部116および中央領域処理部117によって検出された検出結果について、その信頼度を判定し、信頼度が低い場合には顔や人物の再検出を行ったり、信頼度が高い検出結果を用いて、信頼度が低い検出結果を補完しながら、各検出結果を統合したりするよう制御する処理部である。なお、ここでいう信頼度には、例えば、周辺部分の画像については、ニューラルネットワークによる顔検出結果の評価値(周辺領域処理部116による顔検出処理の説明を参照)が用いられ、中央部分の画像については、背景差分結果の人物モデルとの一致度(中央領域処理部117による人物検出処理の説明を参照)が用いられる。   The reliability determination unit 219 determines the reliability of the detection results detected by the peripheral region processing unit 116 and the central region processing unit 117, and performs re-detection of a face or a person when the reliability is low, It is a processing unit that controls to integrate each detection result while complementing the detection result with low reliability using the detection result with high reliability. For the reliability here, for example, for the peripheral image, the evaluation value of the face detection result by the neural network (see the description of the face detection processing by the peripheral region processing unit 116) is used, and the reliability of the central portion is used. For the image, the degree of coincidence of the background difference result with the person model (see the description of the person detection process by the central area processing unit 117) is used.

図13は、信頼度判定部219による再検出を説明するための図である。例えば、同図に示すように、周辺領域での顔検出結果の信頼度が小さく、中央領域での人物検出結果の信頼度が大きかったとする(同図左の「入力画像と検出位置」を参照)。この場合、信頼度判定部219は、中央領域での人物検出結果を利用して、人物が通過したと推測される位置周辺について、周辺領域処理部116で再度顔検出を行うように、処理画像変換部115に対して指示する(同図右の「信頼度判定部による再検出」を参照)。   FIG. 13 is a diagram for explaining redetection by the reliability determination unit 219. For example, as shown in the figure, it is assumed that the reliability of the face detection result in the peripheral area is low and the reliability of the person detection result in the central area is high (see “Input Image and Detection Position” on the left of the figure). ). In this case, the reliability determination unit 219 uses the human detection result in the central region to process the processed image so that the peripheral region processing unit 116 performs face detection again around the position where the person is estimated to have passed. The conversion unit 115 is instructed (see “re-detection by the reliability determination unit” on the right side of the figure).

ここで、信頼度判定部219が、信頼度が低い場合に、顔や人物の再検出を行うので、照度変化などの外乱要素によって移動体の検出に誤差が生じやすい状態が発生した場合でも、高い精度で移動体情報を検出することができる。   Here, since the reliability determination unit 219 performs face and person redetection when the reliability is low, even when a state in which an error is likely to occur in the detection of a moving object due to a disturbance element such as an illuminance change occurs, Mobile object information can be detected with high accuracy.

また、信頼度判定部219は、処理結果統合部118において行われる検出結果の統合について、信頼度に基づいて、進行経路の対応付けを行うように制御する。例えば、信頼度判定部219は、中央部分の画像で検出したある一つの進行経路に対して、その進行経路に対応付け得る進行経路が周辺部分の画像内に複数あった場合には、その中で信頼度が最も高いものを、当該中央領域での進行経路に対応付けるよう処理結果統合部118を制御する。   In addition, the reliability determination unit 219 controls the integration of the detection results performed in the processing result integration unit 118 so as to associate the travel route based on the reliability. For example, the reliability determination unit 219, when there is a plurality of travel paths that can be associated with the travel path for a certain travel path detected in the image of the central part, Then, the processing result integration unit 118 is controlled so that the one having the highest reliability is associated with the travel route in the central region.

上述してきたように、本実施例2では、周辺領域処理部116および中央領域処理部117によって検出された検出結果の信頼度を算出し、信頼度判定部219が、算出された信頼度に基づいて、進行経路の対応付けを行うように制御するので、照度変化などの外乱要素によって移動体の検出性能が低下するなどの悪影響を抑え、安定して人物の通過情報を検出することができる。   As described above, in the second embodiment, the reliability of the detection result detected by the peripheral region processing unit 116 and the central region processing unit 117 is calculated, and the reliability determination unit 219 is based on the calculated reliability. Therefore, since the control is performed so that the travel paths are associated with each other, it is possible to suppress a bad influence such as a decrease in detection performance of the moving body due to a disturbance element such as an illuminance change, and to detect passage information of a person stably.

ところで、上記実施例1および2では、周辺領域処理部116において、通過した人物の顔映像や進行経路を検出する場合について説明したが、ここで検出された顔映像をあらかじめ登録された人物の顔映像と比較することによって、通過した人物を特定するようにしてもよい。そこで、以下では、検出された顔映像に基づいて人物を特定する場合を、実施例3として説明する。   By the way, in the first and second embodiments, the case where the peripheral area processing unit 116 detects the face image and the traveling path of the passing person has been described, but the face image detected here is the face of the person registered in advance. You may make it identify the person who passed by comparing with an image | video. Thus, hereinafter, a case where a person is specified based on the detected face image will be described as a third embodiment.

図14は、本実施例3に係る人物情報検出装置の構成を示す機能ブロック図である。なお、同図に示す各機能部のうち、図3に示した人物情報検出装置100が有する機能部と同様の役割を果たすものについては同一の符号を付しており、ここでは、その詳細な説明を省略する。   FIG. 14 is a functional block diagram illustrating the configuration of the person information detecting apparatus according to the third embodiment. Of the functional units shown in the figure, those having the same functions as the functional units included in the person information detecting apparatus 100 shown in FIG. 3 are denoted by the same reference numerals. Description is omitted.

同図に示すように、この人物情報検出装置300は、カメラ10から送られるアナログ映像や、画像記録装置(図示せず)から送られるディジタル映像を入力し、入力した画像から、通過人数や通過した人物の顔映像などを検出して、これらを通過情報として出力する装置であり、A/D変換部110と、画像記憶部111と、周辺領域処理結果記憶部112と、中央領域処理結果記憶部113と、画像制御部114と、処理画像変換部115と、周辺領域処理部116と、中央領域処理部117と、処理結果統合部118と、顔映像照合部320とを有する。   As shown in the figure, the person information detecting device 300 inputs an analog video sent from the camera 10 or a digital video sent from an image recording device (not shown), and from the inputted image, the number of people passing and the number of passing This is a device that detects a face image of a person and outputs them as passage information, and includes an A / D conversion unit 110, an image storage unit 111, a peripheral region processing result storage unit 112, and a central region processing result storage. Unit 113, image control unit 114, processed image conversion unit 115, peripheral region processing unit 116, central region processing unit 117, processing result integration unit 118, and face video collation unit 320.

顔映像照合部320は、周辺領域処理部116によって検出された顔映像に基づいて、通過した人物を特定する処理部である。具体的には、この顔映像照合部320は、周辺領域処理部116によって検出された顔映像と、あらかじめ登録されている人物の顔映像とを公知の顔照合技術を用いて照合することによって、通過した人物を特定する。   The face video collation unit 320 is a processing unit that identifies a person who has passed based on the face video detected by the peripheral region processing unit 116. Specifically, the face image collation unit 320 collates the face image detected by the peripheral region processing unit 116 with a face image of a person registered in advance using a known face collation technique. Identify the person who passed.

ここで用いられる公知の顔照合技術としては、例えば、「小松他、“部分空間法を用いた向きによらない顔の切り出しと認識”、PRU95-191、pp.7-14、1996」が挙げられる。当該技術は、目、鼻、口などの顔の部品位置で構成されるベクトルを、登録している顔映像と検出した顔映像とで比較し、この類似度によって人物を特定、または、類似している人物を列挙するものである。   Known face matching techniques used here include, for example, “Komatsu et al.,“ Cut and recognize faces without orientation using subspace method ”, PRU95-191, pp.7-14, 1996”. It is done. This technology compares a vector composed of face part positions such as eyes, nose, and mouth with a registered face image and a detected face image, and identifies or resembles a person based on this similarity. It enumerates the person who is.

このような顔照合処理を行うことによって、顔映像照合部320は、通過した人物を特定し、どの人物がいつ、何回通過したなどの情報を取得する。また、顔映像照合部320は、検出した顔映像が、その時点で登録されていない顔映像であった場合には、次回通過する際に照合するために、当該顔映像を新たに追加登録する。   By performing such face collation processing, the face image collation unit 320 identifies a person who has passed, and acquires information such as which person has passed, when and how many times. In addition, when the detected face image is a face image that is not registered at that time, the face image collation unit 320 newly registers the face image for collation when it passes next time. .

上述してきたように、本実施例3では、顔映像照合部320が、周辺領域処理部116によって検出された顔映像と、あらかじめ登録されている人物の顔映像とを照合することによって、通過した人物を特定するので、人物を認識するだけでなく、特定することも可能になる。これにより、人物ごとに通過回数を集計したり、あらかじめ決めておいた監視すべき人物を検知したりすることが可能になり、人物検出機能の高機能化を図ることができる。また、人物の追跡精度の向上および、通過した人物の特定が可能となるため、より高機能でセキュリティ用途向けの通過人物の検出システムを実現できる。   As described above, in the third embodiment, the face video collation unit 320 has passed by collating the face video detected by the peripheral area processing unit 116 with the face video of a person registered in advance. Since the person is specified, not only the person but also the person can be specified. As a result, it is possible to count the number of passages for each person, or to detect a person to be monitored that has been determined in advance, so that the person detection function can be enhanced. In addition, since the tracking accuracy of the person can be improved and the person who has passed through can be identified, it is possible to realize a passing person detection system with higher functionality and for security purposes.

また、顔映像照合部320が、顔映像を照合した際に、あらかじめ登録されている人物の顔映像の中に一致する顔映像が存在していなかった場合には、当該顔映像を新たに追加するので、特定できる人物を学習して増やすことが可能になり、人物の検出機能を自動的に向上させることができる。   In addition, when the face video collation unit 320 collates the face video, if there is no matching face video in the face video of the person registered in advance, the face video is newly added. Therefore, it becomes possible to learn and increase the number of persons who can be identified, and to automatically improve the person detection function.

ところで、上記実施例2および3では、実施例1に対して、信頼度に基づいて制御を行うための信頼度判定部219と、検出された顔映像に基づいて人物を特定するための顔映像照合部320とを、それぞれ追加した場合について説明したが、これらの機能部を任意に組み合わせて人物情報検出装置を構成してもよい。そこで、以下では、実施例1、2および3を組み合わせた場合を、実施例4として説明する。   By the way, in the said Example 2 and 3, the reliability determination part 219 for performing control based on reliability with respect to Example 1, and the face image for specifying a person based on the detected face image Although the case where the collation unit 320 is added has been described, the person information detection apparatus may be configured by arbitrarily combining these functional units. Therefore, hereinafter, a case where the first, second, and third embodiments are combined will be described as a fourth embodiment.

図15は、本実施例4に係る人物情報検出装置の構成を示す機能ブロック図である。なお、同図に示す人物情報検出装置400が有する各機能部は、図3に示した人物情報検出装置100、図12に示した人物情報検出装置200または図14に示した人物情報検出装置300が有する機能部を組み合わせただけであるので、ここでは、その詳細な説明を省略する。   FIG. 15 is a functional block diagram of the configuration of the person information detecting apparatus according to the fourth embodiment. It should be noted that each functional unit included in the person information detecting apparatus 400 shown in the figure includes the person information detecting apparatus 100 shown in FIG. 3, the person information detecting apparatus 200 shown in FIG. 12, or the person information detecting apparatus 300 shown in FIG. Therefore, detailed description thereof is omitted here.

上述してきたように、本実施例4では、実施例1、2および3で説明した各機能部を組み合わせることによって、照度変化などの外乱の影響を抑えた実用的な通過人物の検出システムを実現できるとともに、通過人物の認識や特定の人物の通過回数算出など、人物検出機能の高機能化を図ることができる。   As described above, in the fourth embodiment, by combining the functional units described in the first, second, and third embodiments, a practical passing person detection system that suppresses the influence of disturbance such as illuminance change is realized. In addition, it is possible to improve the function of the person detection function such as recognition of a passing person and calculation of the number of times a specific person has passed.

これまで、本発明に係る移動体情報検出装置の実施例として、人物を検出する人物情報検出装置について説明してきたが、本発明はこれに限られず、例えば、ベルトコンベア上を流れる荷物を検出する荷物情報検出装置に適用してもよい。そこで、以下では、本発明を荷物情報検出装置に適用した場合を、実施例5として説明する。   So far, the human information detecting device for detecting a person has been described as an example of the moving body information detecting device according to the present invention. However, the present invention is not limited to this, and for example, a load flowing on a belt conveyor is detected. You may apply to a package information detection apparatus. Thus, hereinafter, a case where the present invention is applied to a package information detection apparatus will be described as a fifth embodiment.

まず、本実施例5に係る荷物情報検出装置の概念について説明する。図16は、本実施例5に係る荷物情報検出装置の概念を説明するための説明図である。   First, the concept of the package information detection apparatus according to the fifth embodiment will be described. FIG. 16 is an explanatory diagram for explaining the concept of the package information detecting apparatus according to the fifth embodiment.

本実施例5に係る荷物情報検出装置は、天井など、荷物が通過するベルトコンベアの上部に設置された監視カメラで撮影された映像について、映像内の領域ごとに異なる画像処理を同時に行うことによって、荷物の側面と上面とをそれぞれ検出するものである。ここで使用される監視カメラとしては、これまで説明した実施例同様、魚眼レンズなどの広角レンズを有するカメラが用いられる。   The baggage information detection apparatus according to the fifth embodiment performs simultaneous image processing different for each region in the video on the video taken by the monitoring camera installed on the upper part of the belt conveyor such as the ceiling. The side and the upper surface of the luggage are detected. As the surveillance camera used here, a camera having a wide-angle lens such as a fisheye lens is used as in the embodiments described so far.

具体的には、図16に示すように、荷物が通過するベルトコンベアの上部に、広角レンズを有するカメラ10が設置され、これにより、ベルトコンベア上を流れる荷物が撮影される。   Specifically, as shown in FIG. 16, a camera 10 having a wide-angle lens is installed on the upper part of the belt conveyor through which the luggage passes, and thereby the luggage flowing on the belt conveyor is photographed.

ベルトコンベア上を流れる荷物には、同図に示すように、その側面と上面とにそれぞれラベルが貼られている。このラベルには、種類や重さなど荷物に関する属性が文字や色などで示されている。そして、荷物がカメラ10の正面よりも離れた場所(周辺部分)にいる時には、側面に貼られたラベルが撮影され、荷物がカメラ10の正面付近(中心部分)にいる時には、上面に貼られたラベルが撮影される。   As shown in the figure, a label is affixed to the side surface and the upper surface of the load flowing on the belt conveyor. In this label, attributes relating to the luggage such as type and weight are indicated by characters or colors. When the baggage is in a place (peripheral part) far from the front of the camera 10, the label attached to the side is photographed, and when the baggage is in the vicinity of the front of the camera 10 (center part), it is attached to the upper surface. The label is shot.

そこで、荷物情報検出装置は、映像の中央部分を用いて荷物を計数する処理と、映像の周辺部分を用いて荷物側面のラベルが示す属性を検出および認識する処理という2つの異なる画像処理を同時に行う。さらに、周辺部分で検出した荷物側面のラベルが示す属性と、中央部分で検出した荷物上面のラベルが示す属性とを対応付けることによって、ベルトコンベア上を流れる荷物を特定する。   Therefore, the package information detection apparatus simultaneously performs two different image processes: a process of counting the package using the central part of the video and a process of detecting and recognizing the attribute indicated by the label on the side of the package using the peripheral part of the video. Do. Further, the load flowing on the belt conveyor is specified by associating the attribute indicated by the label on the side of the load detected in the peripheral portion with the attribute indicated by the label on the upper surface of the load detected in the central portion.

このように、本実施例5に係る荷物情報検出装置では、カメラでパン・ティルト・ズームを行うことなく、ベルトコンベア上を流れる荷物の検出(計数)と、荷物の側面および上面に貼られたラベルの文字の検出を同時に行うことができるともに、側面に貼られたラベルの情報と、上面に貼られたラベルの情報との対応付けを行うことができる。   As described above, in the package information detecting apparatus according to the fifth embodiment, the baggage flowing on the belt conveyor is detected (counted) without being panned, tilted, or zoomed by the camera, and is attached to the side surface and the upper surface of the package. The label characters can be detected at the same time, and the label information affixed to the side surface can be associated with the label information affixed to the top surface.

図17は、本実施例5に係る荷物情報検出装置の構成を示す機能ブロック図である。なお、同図に示す各機能部のうち、図3に示した人物情報検出装置100または図12に示した人物情報検出装置200が有する機能部と同様の役割を果たすものについては同一の符号を付している。これらの機能部については、具体的には、入力画像の周辺領域で検出していた対象が顔から荷物側面のラベルに替わり、中央領域で検出する対象が人物から荷物上面のラベルに替わっただけであるので、ここでは、詳細な説明を省略する。   FIG. 17 is a functional block diagram illustrating the configuration of the package information detection apparatus according to the fifth embodiment. Of the functional units shown in the figure, those having the same functions as the functional units of the human information detecting device 100 shown in FIG. 3 or the human information detecting device 200 shown in FIG. It is attached. For these functional units, specifically, the object detected in the peripheral area of the input image is changed from the face to the label on the side of the luggage, and the object detected in the central area is changed from the person to the label on the upper surface of the luggage. Therefore, detailed description is omitted here.

同図に示すように、この荷物情報検出装置500は、カメラ10から送られるアナログ映像や、画像記録装置(図示せず)などから送られるディジタル映像を入力し、入力した画像から、ベルトコンベア上を流れる荷物の数や、荷物の側面および上面の映像などを検出して、これらを通過情報として出力する装置であり、A/D変換部110と、画像記憶部111と、周辺領域処理結果記憶部112と、中央領域処理結果記憶部113と、画像制御部114と、処理画像変換部115と、周辺領域処理部116と、中央領域処理部117と、処理結果統合部118と、信頼度判定部219と、側面映像照合部521と、上面映像照合部522とを有する。   As shown in the figure, the baggage information detection device 500 inputs an analog video sent from the camera 10 or a digital video sent from an image recording device (not shown), etc. Is a device that detects the number of luggage flowing through the vehicle, images of the side and top surfaces of the luggage, and outputs these as passing information, and includes an A / D conversion unit 110, an image storage unit 111, and a peripheral region processing result storage Unit 112, central region processing result storage unit 113, image control unit 114, processed image conversion unit 115, peripheral region processing unit 116, central region processing unit 117, processing result integration unit 118, and reliability determination Unit 219, side image collation unit 521, and top image collation unit 522.

側面映像照合部521は、周辺領域処理部116によって検出された荷物側面のラベルの映像に基づいて、ベルトコンベア上を流れる荷物の属性を特定する処理部である。具体的には、この側面映像照合部521は、周辺領域処理部116によって検出された荷物側面のラベルの映像から、当該ラベルに示された文字を検出し、検出した文字と、あらかじめ登録されている文字とを公知の文字照合技術を用いて照合することによって、荷物の属性を特定する。   The side image collating unit 521 is a processing unit that identifies the attribute of the load flowing on the belt conveyor based on the image of the label on the side surface of the load detected by the peripheral region processing unit 116. Specifically, the side image collating unit 521 detects the character indicated by the label from the image of the label on the side of the luggage detected by the peripheral region processing unit 116, and the detected character is registered in advance. The attributes of the package are specified by collating the existing characters with a known character collation technique.

上面映像照合部522は、中央領域処理部117によって検出された荷物上面のラベルの映像に基づいて、ベルトコンベア上を流れる荷物の属性を特定する処理部である。具体的には、この上面映像照合部522は、中央領域処理部117によって検出された荷物上面のラベルの映像から、当該ラベルに示された文字を検出し、検出した文字と、あらかじめ登録されている文字とを公知の文字照合技術を用いて照合することによって、荷物の属性を特定する。   The upper surface image collating unit 522 is a processing unit that identifies the attribute of the load flowing on the belt conveyor based on the image of the label on the upper surface of the load detected by the central region processing unit 117. Specifically, the upper surface image collating unit 522 detects the character indicated by the label from the image of the label on the upper surface of the luggage detected by the central region processing unit 117, and the detected character and the registered character are registered in advance. The attributes of the package are specified by collating the existing characters with a known character collation technique.

側面映像照合部521および上面映像照合部522で用いられる公知の文字照合技術としては、例えば、「根岸他、“情景画像中文字認識のための変形を許容する高速なテンプレートマッチング”、PRMU2005-247、pp.101-106、2005」に記載されているテンプレートマッチング法が挙げられる。当該技術は、あらかじめ登録された辞書画像と比較することによって、文字を照合するものである。   For example, “Negishi et al.,“ High-speed template matching that allows deformation for character recognition in a scene image ”, PRMU2005-247, is known publicly used in the side image matching unit 521 and the top image matching unit 522. , Pp. 101-106, 2005 ”. The technique is to collate characters by comparing with a dictionary image registered in advance.

このように、側面映像照合部521が、周辺領域処理部116により検出された荷物側面のラベルに示された情報をあらかじめ蓄積された移動体特定用の情報と照合し、上面映像照合部522が、中央領域処理部117により検出された荷物上面のラベルに示された情報をあらかじめ蓄積された移動体特定用の情報と照合することによって荷物を特定するので、荷物を認識するだけでなく、特定することも可能になる。これにより、あらかじめ決めておいた検出すべき荷物を検知することが可能になり、荷物検出機能の高機能化を図ることができる。   As described above, the side image collating unit 521 collates the information indicated on the label on the side surface of the luggage detected by the peripheral region processing unit 116 with the information for identifying the moving body accumulated in advance, and the upper surface image collating unit 522 The package is identified by collating the information indicated on the label on the upper surface of the package detected by the central area processing unit 117 with the information for identifying the moving body stored in advance, so that not only the package is recognized but also identified It is also possible to do. As a result, it is possible to detect a package to be detected, which has been determined in advance, so that the package detection function can be enhanced.

なお、ここでは、ラベルに示された文字を用いて荷物の属性を特定する場合について説明したが、文字ではなく、色を用いて荷物の属性を特定するようにしてもよい。   Although the case where the package attribute is specified using the characters indicated on the label has been described here, the package attribute may be specified using a color instead of the characters.

上述してきたように、本実施例5では、周辺領域処理部116が、カメラ10により撮影された領域の周辺部分に映された荷物の画像を用いて、荷物上面のラベルに示された情報を検出する画像処理を行い、中央領域処理部117が、カメラ10により撮影された領域の中央部分に映された荷物の画像を用いて、荷物側面のラベルに示された情報を検出する画像処理を行い、処理結果統合部118が、周辺領域処理部116により検出されたラベルの情報および中央領域処理部117により検出されたラベルの情報を荷物ごとに対応付けた情報を通過情報として検出するので、通過する荷物の計数と荷物の側面および上面の認識を同時に行うことができる。   As described above, in the fifth embodiment, the peripheral area processing unit 116 uses the image of the baggage displayed in the peripheral part of the area captured by the camera 10 to display the information indicated on the label on the upper surface of the baggage. The image processing to detect is performed, and the center region processing unit 117 performs image processing to detect the information indicated on the label on the side of the baggage by using the baggage image displayed in the central portion of the region shot by the camera 10. The processing result integration unit 118 detects the information associated with the label information detected by the peripheral region processing unit 116 and the label information detected by the central region processing unit 117 for each package as passage information. It is possible to simultaneously count the number of packages passing through and recognize the side and top surfaces of the packages.

ところで、上記実施例1〜5では、移動体情報検出装置(人物情報検出装置および荷物情報検出装置)について説明してきたが、移動体情報検出装置が有する構成をソフトウェアによって実現することで、同様の機能を有する移動体情報検出プログラムを得ることができる。そこで、この移動体情報検出プログラムを実行するコンピュータについて説明する。   By the way, in the said Examples 1-5, although the mobile body information detection apparatus (person information detection apparatus and package information detection apparatus) was demonstrated, the structure which a mobile body information detection apparatus has is implement | achieved by software, and the same A moving body information detection program having a function can be obtained. Therefore, a computer that executes the mobile body information detection program will be described.

図18は、本実施例に係る移動体情報検出プログラムを実行するコンピュータの構成を示す機能ブロック図である。同図に示すように、このコンピュータ600は、RAM(Random Access Memory)610と、CPU(Central Processing Unit)620と、ROM(Read Only Memory)630と、LAN(Local Area Network)インタフェース640と、カメラインタフェース650とを有する。   FIG. 18 is a functional block diagram illustrating a configuration of a computer that executes a moving body information detection program according to the present embodiment. As shown in the figure, this computer 600 includes a RAM (Random Access Memory) 610, a CPU (Central Processing Unit) 620, a ROM (Read Only Memory) 630, a LAN (Local Area Network) interface 640, a camera. Interface 650.

RAM610は、プログラムやプログラムの実行途中結果などを記憶するメモリであり、CPU620は、RAM610やROM630からプログラムを読み出して実行する中央処理装置である。   The RAM 610 is a memory that stores programs and results of program execution, and the CPU 620 is a central processing unit that reads and executes programs from the RAM 610 and ROM 630.

ROM630は、プログラムやデータを格納するメモリであり、LANインタフェース640は、コンピュータ600をLAN経由で他のコンピュータや監視センターの端末装置などに接続するためのインタフェースであり、カメラインタフェース650は、監視カメラを接続するためのインタフェースである。   The ROM 630 is a memory for storing programs and data, the LAN interface 640 is an interface for connecting the computer 600 to another computer or a terminal device of a monitoring center via the LAN, and the camera interface 650 is a monitoring camera. Is an interface for connecting

そして、このコンピュータ600において実行される移動体情報検出プログラム611は、あらかじめROM630に記憶され、CPU620によって移動体情報検出タスク621として実行される。   A moving body information detection program 611 executed in the computer 600 is stored in the ROM 630 in advance, and is executed as a moving body information detection task 621 by the CPU 620.

また、本実施例では、人物を検出する人物情報検出装置および荷物を検出する荷物情報検出装置について説明したが、本発明はこれに限定されるものではなく、例えば、道路を走行している車を検出する場合などにも同様に適用することができる。   In the present embodiment, the person information detecting device for detecting a person and the baggage information detecting device for detecting a baggage have been described. However, the present invention is not limited to this, for example, a vehicle traveling on a road The present invention can be applied in the same manner to the case where it is detected.

また、本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。   In addition, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method.

この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Each component of each illustrated device is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

以上のように、本発明に係る移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラムは、所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する場合に有用であり、特に、撮像装置でパン・ティルト・ズームを行うことなく、移動体の検出と認識とを同時に行う場合に適している。   As described above, the mobile object information detection device, the mobile object information detection method, and the mobile object information detection program according to the present invention use the imaging device that captures a predetermined area, and pass information about the mobile object that passes through the area. This is particularly useful when detecting and recognizing a moving object at the same time without performing pan / tilt / zoom in an imaging apparatus.

図1は、本実施例1に係る人物情報検出装置の概念を説明するための図(1)である。FIG. 1 is a diagram (1) for explaining the concept of the person information detecting apparatus according to the first embodiment. 図2は、本実施例1に係る人物情報検出装置の概念を説明するための図(2)である。FIG. 2 is a diagram (2) for explaining the concept of the person information detecting apparatus according to the first embodiment. 図3は、本実施例1に係る人物情報検出装置の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram of the configuration of the person information detecting apparatus according to the first embodiment. 図4は、処理画像変換部による周辺領域の画像変換の一例を説明するための図(1)である。FIG. 4 is a diagram (1) for explaining an example of the image conversion of the peripheral area by the processed image conversion unit. 図5は、処理画像変換部による周辺領域の画像変換の一例を説明するための図(2)である。FIG. 5 is a diagram (2) for explaining an example of the image conversion of the peripheral area by the processed image conversion unit. 図6は、処理画像変換部による周辺領域の画像変換の一例を説明するための図(3)である。FIG. 6 is a diagram (3) for explaining an example of the image conversion of the peripheral area by the processed image conversion unit. 図7は、処理画像変換部による中央領域の画像変換の一例を説明するための図(1)である。FIG. 7 is a diagram (1) for explaining an example of image conversion of the central region by the processed image conversion unit. 図8は、処理画像変換部による中央領域の画像変換の一例を説明するための図(2)である。FIG. 8 is a diagram (2) for explaining an example of the image conversion of the central area by the processed image conversion unit. 図9は、中央領域処理部による人物検出の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of person detection by the central region processing unit. 図10は、処理結果統合部による人物の対応付けを説明するための図である。FIG. 10 is a diagram for explaining person association by the processing result integration unit. 図11は、本実施例1に係る人物情報検出装置の処理手順を示すフローチャートである。FIG. 11 is a flowchart illustrating the processing procedure of the person information detecting apparatus according to the first embodiment. 図12は、本実施例2に係る人物情報検出装置の構成を示す機能ブロック図である。FIG. 12 is a functional block diagram of the configuration of the person information detection apparatus according to the second embodiment. 図13は、信頼度判定部による再検出を説明するための図である。FIG. 13 is a diagram for explaining re-detection by the reliability determination unit. 図14は、本実施例3に係る人物情報検出装置の構成を示す機能ブロック図である。FIG. 14 is a functional block diagram illustrating the configuration of the person information detecting apparatus according to the third embodiment. 図15は、本実施例4に係る人物情報検出装置の構成を示す機能ブロック図である。FIG. 15 is a functional block diagram of the configuration of the person information detecting apparatus according to the fourth embodiment. 図16は、本実施例5に係る荷物情報検出装置の概念を説明するための説明図である。FIG. 16 is an explanatory diagram for explaining the concept of the package information detecting apparatus according to the fifth embodiment. 図17は、本実施例5に係る荷物情報検出装置の構成を示す機能ブロック図である。FIG. 17 is a functional block diagram illustrating the configuration of the package information detection apparatus according to the fifth embodiment. 図18は、本実施例に係る移動体情報検出プログラムを実行するコンピュータの構成を示す機能ブロック図である。FIG. 18 is a functional block diagram illustrating a configuration of a computer that executes a moving body information detection program according to the present embodiment. 図19は、特許文献1の方法を説明するための図(1)である。FIG. 19 is a diagram (1) for explaining the method of Patent Document 1. FIG. 図20は、特許文献1の方法を説明するための図(2)である。FIG. 20 is a diagram (2) for explaining the method of Patent Document 1. FIG. 図21は、特許文献1の方法を説明するための図(3)である。FIG. 21 is a diagram (3) for explaining the method of Patent Document 1. FIG. 図22は、特許文献1の方法を説明するための図(4)である。FIG. 22 is a diagram (4) for explaining the method of Patent Document 1. FIG. 図23は、特許文献2の方法を説明するための図である。FIG. 23 is a diagram for explaining the method of Patent Document 2. In FIG. 図24は、特許文献3の方法を説明するための図である。FIG. 24 is a diagram for explaining the method of Patent Document 3. 図25は、複数のカメラを用いる方法の問題点を説明するための図である。FIG. 25 is a diagram for explaining the problem of the method using a plurality of cameras. 図26は、PTZカメラを用いる方法の問題点を説明するための図である。FIG. 26 is a diagram for explaining a problem of the method using the PTZ camera.

符号の説明Explanation of symbols

100,200,300,400 人物情報検出装置
500 荷物情報検出装置
110 A/D変換部
111 画像記憶部
112 周辺領域処理結果記憶部
113 中央領域処理結果記憶部
114 画像制御部
115 処理画像変換部
116 周辺領域処理部
117 中央領域処理部
118 処理結果統合部
219 信頼度判定部
320 顔映像照合部
521 側面映像照合部
522 上面映像照合部
600 コンピュータ
610 RAM
611 移動体情報検出プログラム
620 CPU
621 移動体情報検出タスク
630 ROM
640 LANインタフェース
650 カメラインタフェース
100, 200, 300, 400 Person information detection device 500 Baggage information detection device 110 A / D conversion unit 111 Image storage unit 112 Peripheral region processing result storage unit 113 Central region processing result storage unit 114 Image control unit 115 Processing image conversion unit 116 Peripheral region processing unit 117 Central region processing unit 118 Processing result integration unit 219 Reliability determination unit 320 Face image matching unit 521 Side image matching unit 522 Top surface image matching unit 600 Computer 610 RAM
611 Moving object information detection program 620 CPU
621 Mobile object information detection task 630 ROM
640 LAN interface 650 Camera interface

Claims (8)

所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する移動体情報検出装置であって、
前記撮像装置により撮影された領域内の中央部分に映された移動体の画像を用いて第一の画像処理を行う中央領域処理手段と、
前記撮像装置により撮影された領域内の前記中央部分の周辺部分に映された移動体の画像を用いて第二の画像処理を行う周辺領域処理手段と、
前記中央領域処理手段による第一の画像処理で検出された第一の情報および前記周辺領域処理手段による第二の画像処理で検出された第二の情報を移動体ごとに対応付けた情報を前記通過情報として検出する通過情報検出手段と、
を備え
前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方は、それぞれ検出した前記第一の情報および前記第二の情報の少なくとも一方の信頼度を算出し、
前記通過情報検出手段は、前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方により算出された信頼度に基づいて、前記第一の情報と前記第二の情報とを対応付けることを特徴とする移動体情報検出装置。
A moving body information detecting device that detects passage information about a moving body that passes through a predetermined area using an imaging device that captures a predetermined area,
A central area processing means for performing first image processing using an image of a moving body projected on a central portion in an area captured by the imaging device;
Peripheral area processing means for performing second image processing using an image of a moving body projected on the peripheral part of the central part in the area captured by the imaging device;
Information that associates the first information detected by the first image processing by the central region processing means and the second information detected by the second image processing by the peripheral region processing means for each moving object Passage information detecting means for detecting passage information;
Equipped with a,
At least one of the central area processing means and the peripheral area processing means calculates the reliability of at least one of the detected first information and the second information,
The passage information detecting means associates the first information with the second information based on the reliability calculated by at least one of the central area processing means and the peripheral area processing means. Mobile body information detection device.
前記通過情報検出手段は、前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方により算出された信頼度が低い場合に、前記中央領域処理手段および前記周辺領域処理手段の少なくとも一方に対して前記第一の情報および前記第二の情報の少なくとも一方の再検出を行うように指示することを特徴とする請求項に記載の移動体情報検出装置。The passage information detection means, wherein when the reliability calculated by the at least one central region processing means and the peripheral region processing means is low, the relative at least one of said central region processing means and the peripheral region processing means The mobile body information detection apparatus according to claim 1 , wherein an instruction is given to redetect at least one of the first information and the second information. 前記中央領域処理手段による第一の画像処理において検出された第一の情報および前記周辺領域処理手段による第二の画像処理において検出された第二の情報の少なくとも一方を、あらかじめ蓄積された移動体特定用情報と照合することによって該移動体を特定する移動体照合手段をさらに備えたことを特徴とする請求項1に記載の移動体情報検出装置。A moving body in which at least one of the first information detected in the first image processing by the central region processing means and the second information detected in the second image processing by the peripheral region processing means is stored in advance. The mobile body information detecting apparatus according to claim 1, further comprising a mobile body collating unit that identifies the mobile body by collating with identification information. 前記移動体照合手段は、前記第一の情報および前記第二の情報の少なくとも一方を照合した際に、前記移動体特定用情報の中に一致する情報が存在していなかった場合には、該第一の情報および第二の情報の少なくとも一方を前記移動体特定用情報に追加することを特徴とする請求項に記載の移動体情報検出装置。When the mobile body collating means collates at least one of the first information and the second information, and there is no matching information in the mobile body specifying information, The mobile body information detecting apparatus according to claim 3 , wherein at least one of the first information and the second information is added to the mobile body specifying information. 前記中央領域処理手段は、前記第一の画像処理において前記移動体の進行経路を検出し、
前記周辺領域処理手段は、前記第二の画像処理において前記移動体の属性情報を検出し、
前記通過情報検出手段は、前記中央領域処理手段により検出された進行経路と前記周辺領域処理手段により検出された属性情報とを移動体ごとに対応付けた情報を前記通過情報として検出することを特徴とする請求項1に記載の移動体情報検出装置。
The central area processing means detects a traveling path of the moving body in the first image processing,
The peripheral area processing means detects attribute information of the moving body in the second image processing,
The passage information detection unit detects, as the passage information, information in which a traveling path detected by the central region processing unit and attribute information detected by the peripheral region processing unit are associated with each moving object. The moving body information detection apparatus according to claim 1.
前記移動体は人物であり、
前記中央領域処理手段は、前記第一の画像処理において前記人物の進行経路を検出し、
前記周辺領域処理手段は、前記第二の画像処理において前記人物の顔情報を検出し、
前記通過情報検出手段は、前記中央領域処理手段により検出された進行経路と前記周辺領域処理手段により検出された顔情報とを人物ごとに対応付けた情報を前記通過情報として検出することを特徴とする請求項1に記載の移動体情報検出装置。
The moving body is a person,
The central area processing means detects a travel path of the person in the first image processing,
The peripheral area processing means detects the face information of the person in the second image processing,
The passage information detection means detects information associating a travel path detected by the central area processing means with face information detected by the peripheral area processing means for each person as the passage information. The moving body information detection apparatus according to claim 1.
所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する移動体情報検出装置により行われる移動体情報検出方法であって、
移動体情報検出装置が、前記撮像装置により撮影された領域内の中央部分に映された移動体の画像を用いて第一の画像処理を行う中央領域処理工程と、
移動体情報検出装置が、前記撮像装置により撮影された領域内の前記中央部分の周辺部分に映された移動体の画像を用いて第二の画像処理を行う周辺領域処理工程と、
移動体情報検出装置が、前記中央領域処理工程による第一の画像処理で検出された第一の情報および前記周辺領域処理工程による第二の画像処理で検出された第二の情報を移動体ごとに対応付けた情報を前記通過情報として検出する通過情報検出工程と、
を含み
前記中央領域処理工程および前記周辺領域処理工程の少なくとも一方において、移動体情報検出装置は、それぞれ検出した前記第一の情報および前記第二の情報の少なくとも一方の信頼度を算出し、
前記通過情報検出工程において、移動体情報検出装置は、前記中央領域処理工程および前記周辺領域処理工程の少なくとも一方により算出された信頼度に基づいて、前記第一の情報と前記第二の情報とを対応付けることを特徴とする移動体情報検出方法。
A moving body information detection method performed by a moving body information detection apparatus that detects passage information regarding a moving body that passes through a predetermined area using an imaging device that captures a predetermined area,
A central area processing step in which the mobile body information detection device performs first image processing using an image of the mobile body projected on a central portion in the area captured by the imaging device;
A peripheral area processing step in which the mobile body information detection device performs second image processing using an image of the mobile body projected on the peripheral portion of the central portion in the area captured by the imaging device;
The mobile body information detection device is configured to detect, for each mobile body, the first information detected by the first image processing by the central region processing step and the second information detected by the second image processing by the peripheral region processing step. A passage information detection step of detecting information associated with the passage information as the passage information;
It includes,
In at least one of the central region processing step and the peripheral region processing step, the mobile body information detection device calculates the reliability of at least one of the detected first information and the second information, respectively.
In the passage information detection step, the mobile body information detection device is configured to determine the first information and the second information based on the reliability calculated by at least one of the central region processing step and the peripheral region processing step. The moving body information detection method characterized by matching.
所定の領域を撮影する撮像装置を用いて、該領域を通過する移動体に関する通過情報を検出する移動体情報検出プログラムであって、
前記撮像装置により撮影された領域内の中央部分に映された移動体の画像を用いて第一の画像処理を行う中央領域処理手順と、
前記撮像装置により撮影された領域内の前記中央部分の周辺部分に映された移動体の画像を用いて第二の画像処理を行う周辺領域処理手順と、
前記中央領域処理手順による第一の画像処理で検出された第一の情報および前記周辺領域処理手順による第二の画像処理で検出された第二の情報を移動体ごとに対応付けた情報を前記通過情報として検出する通過情報検出手順と、
をコンピュータに実行させ
前記中央領域処理手順および前記周辺領域処理手順の少なくとも一方は、それぞれ検出した前記第一の情報および前記第二の情報の少なくとも一方の信頼度を算出し、
前記通過情報検出手順は、前記中央領域処理手順および前記周辺領域処理手順の少なくとも一方により算出された信頼度に基づいて、前記第一の情報と前記第二の情報とを対応付けることを特徴とする移動体情報検出プログラム。
A moving body information detection program for detecting passage information relating to a moving body that passes through a predetermined area using an imaging device that captures a predetermined area,
A central region processing procedure for performing first image processing using an image of a moving body projected on a central portion in a region captured by the imaging device;
A peripheral region processing procedure for performing second image processing using an image of a moving body projected on a peripheral portion of the central portion in the region captured by the imaging device;
Information that associates the first information detected by the first image processing by the central region processing procedure and the second information detected by the second image processing by the peripheral region processing procedure for each moving object Passage information detection procedure to detect as passage information;
To the computer ,
At least one of the central area processing procedure and the peripheral area processing procedure calculates the reliability of at least one of the detected first information and the second information, respectively.
The passing information detection procedure associates the first information with the second information based on the reliability calculated by at least one of the central region processing procedure and the peripheral region processing procedure. Mobile object information detection program.
JP2008535230A 2006-09-20 2006-09-20 Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program Expired - Fee Related JP4667508B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/318635 WO2008035411A1 (en) 2006-09-20 2006-09-20 Mobile body information detection device, mobile body information detection method, and mobile body information detection program

Publications (2)

Publication Number Publication Date
JPWO2008035411A1 JPWO2008035411A1 (en) 2010-01-28
JP4667508B2 true JP4667508B2 (en) 2011-04-13

Family

ID=39200244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008535230A Expired - Fee Related JP4667508B2 (en) 2006-09-20 2006-09-20 Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program

Country Status (2)

Country Link
JP (1) JP4667508B2 (en)
WO (1) WO2008035411A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3496390B1 (en) * 2017-12-05 2023-04-26 Canon Kabushiki Kaisha Information processing device, information processing method, and storage medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5053136B2 (en) * 2008-03-13 2012-10-17 セコム株式会社 Moving object tracking device
JP2010250571A (en) * 2009-04-16 2010-11-04 Mitsubishi Electric Corp Person counting device
JP5397281B2 (en) * 2010-03-15 2014-01-22 オムロン株式会社 Surveillance camera terminal
JP6381353B2 (en) * 2014-08-08 2018-08-29 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
JP6942940B2 (en) * 2016-03-14 2021-09-29 カシオ計算機株式会社 Image processing equipment, image processing methods and programs
JP7150462B2 (en) * 2018-04-25 2022-10-11 キヤノン株式会社 Information processing device, information processing method and program
JP7353864B2 (en) * 2018-10-25 2023-10-02 キヤノン株式会社 Information processing device, control method and program for information processing device, imaging system
JP6875646B2 (en) * 2019-06-13 2021-05-26 富士通クライアントコンピューティング株式会社 Image processing device and image processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203160A (en) * 1992-12-28 1994-07-22 Nippon Telegr & Teleph Corp <Ntt> Following method for object in image and device therefor
JPH0954894A (en) * 1995-08-18 1997-02-25 Nippon Telegr & Teleph Corp <Ntt> Mobile object monitoring and measuring device
JPH11175730A (en) * 1997-12-05 1999-07-02 Omron Corp Human body detection and trace system
JP2000200357A (en) * 1998-10-27 2000-07-18 Toshiba Tec Corp Method and device for collecting human movement line information
JP2003276963A (en) * 2003-02-03 2003-10-02 Toshiba Corp Elevator controller by use of image monitoring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203160A (en) * 1992-12-28 1994-07-22 Nippon Telegr & Teleph Corp <Ntt> Following method for object in image and device therefor
JPH0954894A (en) * 1995-08-18 1997-02-25 Nippon Telegr & Teleph Corp <Ntt> Mobile object monitoring and measuring device
JPH11175730A (en) * 1997-12-05 1999-07-02 Omron Corp Human body detection and trace system
JP2000200357A (en) * 1998-10-27 2000-07-18 Toshiba Tec Corp Method and device for collecting human movement line information
JP2003276963A (en) * 2003-02-03 2003-10-02 Toshiba Corp Elevator controller by use of image monitoring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3496390B1 (en) * 2017-12-05 2023-04-26 Canon Kabushiki Kaisha Information processing device, information processing method, and storage medium

Also Published As

Publication number Publication date
JPWO2008035411A1 (en) 2010-01-28
WO2008035411A1 (en) 2008-03-27

Similar Documents

Publication Publication Date Title
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP5390322B2 (en) Image processing apparatus and image processing method
KR102465532B1 (en) Method for recognizing an object and apparatus thereof
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
Vishwakarma et al. Automatic detection of human fall in video
KR100831122B1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
KR101615254B1 (en) Detecting facial expressions in digital images
US20070116364A1 (en) Apparatus and method for feature recognition
JP6555906B2 (en) Information processing apparatus, information processing method, and program
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
JP2016162232A (en) Method and device for image recognition and program
JP2007148988A (en) Face authentication unit, face authentication method, and entrance/exit management device
TW201411500A (en) Video analysis
JP2008071172A (en) Face authentication system, face authentication method, and access control device
JP2010198566A (en) Device, method and program for measuring number of people
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
US8923552B2 (en) Object detection apparatus and object detection method
JP2009059073A (en) Unit and method for imaging, and unit and method for person recognition
CN114140745A (en) Method, system, device and medium for detecting personnel attributes of construction site
US9154682B2 (en) Method of detecting predetermined object from image and apparatus therefor
KR100885418B1 (en) System and method for detecting and tracking people from overhead camera video
JP2007249298A (en) Face authentication apparatus and face authentication method
JP2009044526A (en) Photographing device, photographing method, and apparatus and method for recognizing person
KR20200010690A (en) Moving Object Linkage Tracking System and Method Using Multiple Cameras
KR20200010691A (en) Character recognition and traffic control system using heterogeneous camera

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees