JP2018093283A - Monitoring information gathering system - Google Patents

Monitoring information gathering system Download PDF

Info

Publication number
JP2018093283A
JP2018093283A JP2016232989A JP2016232989A JP2018093283A JP 2018093283 A JP2018093283 A JP 2018093283A JP 2016232989 A JP2016232989 A JP 2016232989A JP 2016232989 A JP2016232989 A JP 2016232989A JP 2018093283 A JP2018093283 A JP 2018093283A
Authority
JP
Japan
Prior art keywords
person
face
face data
image
movement trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016232989A
Other languages
Japanese (ja)
Other versions
JP6909575B2 (en
Inventor
大坪 宏安
Hiroyasu Otsubo
宏安 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Holdings Ltd filed Critical Maxell Holdings Ltd
Priority to JP2016232989A priority Critical patent/JP6909575B2/en
Publication of JP2018093283A publication Critical patent/JP2018093283A/en
Application granted granted Critical
Publication of JP6909575B2 publication Critical patent/JP6909575B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring information gathering system which records the movement trajectory of a human obtained from an image captured by a monitor camera, and can distinguish from other human subjected to face recognition, by performing face recognition of a human whose movement trajectory is obtained.SOLUTION: A camera 1 of a monitoring information gathering system includes: detection recognition means 3 having human detection means for detecting a human from an image captured by imaging means 2, trajectory analysis means for obtaining the movement trajectory by analyzing a human detected by the human detection means on the image, and face recognition means for recognizing the face by obtaining face data that can be distinguished from other face on the image of a human detected by the human detection means and whose movement trajectory is obtained by the trajectory analysis means; recording means 5 for associating each face data with ID and recording the face data and the movement trajectory corresponding to the face data; and communication means 6 performing data communication with other camera 1 or server.SELECTED DRAWING: Figure 2

Description

本発明は、カメラで撮影された人物を識別するとともに、識別される人物の移動軌跡を求める監視情報収集システムに関する。   The present invention relates to a monitoring information collecting system for identifying a person photographed by a camera and obtaining a movement locus of the identified person.

監視カメラで撮影された人の顔認識を行い、例えば、人の顔の特徴点と、人の氏名、住所、職業等の属性情報とが紐づけされて登録されたデータベースから顔認識された人の属性情報を抽出するような監視システムが開発されている。この場合に、データベースに登録される人物は、例えば、指名手配犯であってもよい。
指名手配犯の顔の特徴点をデータベースに登録しておけば、潜伏している指名手配犯の発見に利用可能となる。
A person who recognizes the face of a person photographed with a surveillance camera, for example, a person whose face is recognized from a database in which feature points of a person's face are associated with attribute information such as a person's name, address, and occupation A monitoring system has been developed to extract attribute information. In this case, the person registered in the database may be a wanted crime, for example.
If the feature points of the wanted offender's face are registered in the database, they can be used to find hidden wanted offenders.

また、例えば、従業員等の関係者の顔をデータベースに登録しておけば、監視カメラにより関係者以外立入禁止の区域で人物が撮影された際に、顔認識によりデータベースに登録された関係者か否かを判定し、関係者の場合に警報を発しないようにすることで誤報を減らすことが提案されている(例えば、特許文献1参照)。   In addition, for example, if the faces of employees and other related persons are registered in the database, the persons registered in the database by face recognition when a person is photographed in a restricted area other than the related persons by the surveillance camera. It has been proposed to reduce false alarms by determining whether or not a person concerned is not alerted (for example, see Patent Document 1).

また、レーザレーダを用いて、人物や車両等の移動体までの距離に基づいて移動体の移動軌跡を求めるとともに、その後の移動軌跡を予測し、例えば、二つの移動体が同時刻に同一位置に移動すると予測された場合に、犯罪や事故等が発生する可能性があると判断することが提案されている(例えば、特許文献2参照)。   In addition, using a laser radar, the movement trajectory of the moving object is obtained based on the distance to the moving object such as a person or a vehicle, and the subsequent movement trajectory is predicted. For example, two moving objects are located at the same position at the same time. It is proposed to judge that there is a possibility that a crime, an accident, or the like will occur when it is predicted to move to (see, for example, Patent Document 2).

特開2013−134675号公報JP2013-134675A 特開2014−194686号公報JP 2014-194686 A

ところで、監視カメラに撮影された人物の顔を認識しても、例えば、データベースに登録された顔と一致しないと、顔認識された人物のデータの使い道がない。特に、空港等のように犯罪者の移動に利用されるような施設ではなく、コンビニエンスストア等の店舗の監視カメラでの顔認識で、指名手配犯が見つかる頻度はそれ程高くはないので、監視カメラの役割は、事故や事件が発生した場合のための記録や、監視していることを示すことによる犯罪の抑止であり、実質的には有効に利用されていない。   By the way, even if the face of a person photographed by the surveillance camera is recognized, for example, if it does not match the face registered in the database, there is no way to use the data of the person whose face is recognized. In particular, it is not a facility that is used for the movement of criminals like airports, but the frequency of finding wanted criminals is not so high by face recognition with surveillance cameras in stores such as convenience stores. The role of is to prevent crimes by recording records when accidents or incidents occur, and by indicating that they are monitoring, and is not effectively used.

また、レーザレーダを用いた移動軌跡の監視と予想により、事故等を予測する場合に、レーザレーダでは移動する人物の顔を認識することができないので、移動体の移動速度や移動軌跡やサイズから自動車、自転車、歩行者、動物等を判断することはできても、人物や自動車の車名を特定することができず、用途が限られたものとなる。   In addition, when predicting an accident or the like by monitoring and predicting a moving locus using a laser radar, the laser radar cannot recognize the face of a moving person. Even if an automobile, bicycle, pedestrian, animal, or the like can be determined, the name of the person or the automobile cannot be specified, and the application is limited.

また、監視カメラの映像は、事故や事件が発生した後に、真相解明のために利用されるが、事件や事故発生から長い期間が経過してしまうと撮影された画像データが消去されてしまい、真相解明に利用できない可能性がある。特に、複数の監視カメラが、高画素数で比較的フレームレイトが高い動画を撮影して記憶(記録)する場合に、記憶装置の記憶容量の問題で長い期間に渡って画像データを記憶保存することは難しい。   In addition, the video of the surveillance camera is used to elucidate the truth after an accident or incident occurs, but if a long period of time has passed since the incident or accident occurred, the captured image data will be erased, There is a possibility that it cannot be used to elucidate the truth. In particular, when a plurality of surveillance cameras capture and store (record) moving images with a high number of pixels and a relatively high frame rate, the image data is stored and saved over a long period due to the storage capacity of the storage device. It ’s difficult.

本発明は、前記事情に鑑みてなされたものであり、監視カメラに撮影された画像から人物の移動軌跡を求めて記録するとともに、移動軌跡が求められる人物に対して顔認識を行うことにより、顔認識される他の人物と識別可能とすることが可能な監視情報収集システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and by obtaining and recording a movement trajectory of a person from an image taken by a surveillance camera, and performing face recognition on the person for whom the movement trajectory is required, It is an object of the present invention to provide a monitoring information collecting system that can be distinguished from other persons whose faces are recognized.

前記課題を解決するために、本発明の監視情報収集システムは、監視用の撮像手段と、
前記撮像手段で撮影される画像から人を検知する人検知手段と、
前記人検知手段で検知された人を前記画像上で解析して移動軌跡を求める軌跡解析手段と、
前記人検知手段で検知されるとともに前記軌跡解析手段で前記移動軌跡が求められる人の前記画像上の顔から他の顔と識別可能な顔データを求めて顔を認識する顔認識手段と、
異なる人の前記顔データを互いに識別可能とする識別符号に関連付けて前記顔データと前記顔データに対応する前記移動軌跡を記録する記録手段と、
前記記録手段に記録されている前記顔データに対して前記顔認識手段で求められた前記顔データを比較し、これら顔データが所定の条件を満たすか否かを判定する顏判定手段と、
前記条件を満たす場合に、前記顔認識手段で求められた前記顔データに対応する前記移動軌跡を、当該顔データと一致する前記記録手段に記録された前記顔データに関連付けられた前記識別符号と関連付けて前記記録手段に記録し、
前記条件を満たさない場合に、前記顔認識手段で求められた前記顔データおよび当該顔データに対応する前記移動軌跡に、未だ前記顔データに関連付けられていない前記識別符号を関連付けて前記記録手段に記録する顔データ取集手段とを備えることを特徴とする。
In order to solve the above problems, the monitoring information collection system of the present invention includes an imaging means for monitoring,
Human detection means for detecting a person from an image captured by the imaging means;
Trajectory analysis means for analyzing the person detected by the human detection means on the image to obtain a movement trajectory;
Face recognition means for recognizing a face by obtaining face data that can be distinguished from other faces from the face on the image of the person detected by the person detection means and whose movement locus is obtained by the locus analysis means;
Recording means for recording the face data and the movement trajectory corresponding to the face data in association with identification codes that enable identification of the face data of different people from each other;
A wrinkle determination unit that compares the face data obtained by the face recognition unit with the face data recorded in the recording unit and determines whether or not the face data satisfies a predetermined condition;
When the condition is satisfied, the movement trajectory corresponding to the face data obtained by the face recognition unit is converted to the identification code associated with the face data recorded in the recording unit that matches the face data. Record in association with the recording means,
When the condition is not satisfied, the face data obtained by the face recognition unit and the movement locus corresponding to the face data are associated with the identification code not yet associated with the face data to the recording unit. And a face data collecting means for recording.

このような構成によれば、撮像手段の撮影範囲内に居る人をそれぞれの顔データで識別して、各人の移動軌跡を記録することができる。すなわち、人を識別可能とする顔データと、当該顔データに対応する人の移動軌跡を識別符号に関連付けて記録できる。事故や事件が発生した際の検証の際に顔データと移動軌跡を利用することができる。この顔データおよび移動軌跡は、動画データに比較して記憶容量が少なく、記憶装置の限られた記憶容量であっても長期間保存可能であり、過去の事故や事件の再検証等に有効に活用することができる。   According to such a configuration, it is possible to identify a person who is within the shooting range of the image pickup means by each face data and record the movement trajectory of each person. That is, the face data that can identify a person and the movement trajectory of the person corresponding to the face data can be recorded in association with the identification code. The face data and movement trajectory can be used for verification when an accident or incident occurs. This face data and movement trajectory has less storage capacity than video data, and can be stored for a long time even if the storage capacity of the storage device is limited, which is effective for re-examination of past accidents and incidents. Can be used.

また、顔データで識別可能な複数の人の移動軌跡は、例えば、一つの画面に同時に表示可能であり、動画データを見た場合よりも、短時間で多くの情報を得ることができる。また、顏認識により、日付が違っても同じ人が通ったか否かを判定可能であり、長い期間に渡って、同じ人の行動を監視可能となる。また、例えば、店舗内の人の移動軌跡は、商品の陳列を考える際に参考にすることが可能である。また、移動軌跡は、商店街等の道路の人の流れを把握し、信号の制御や交通規制等を決める際に利用可能である。   Further, the movement trajectories of a plurality of persons identifiable by face data can be displayed simultaneously on one screen, for example, and more information can be obtained in a shorter time than when moving image data is viewed. In addition, it is possible to determine whether or not the same person has passed even if the dates are different, and it is possible to monitor the behavior of the same person over a long period. Further, for example, the movement trajectory of the person in the store can be used as a reference when considering the display of goods. The movement trajectory can be used when grasping the flow of people on a road such as a shopping street and determining signal control, traffic regulation, and the like.

また、本発明における顏認識による人の識別は、撮像手段で撮影されている顏と他の顔とを識別するもの、言い換えれば、同じ人の顔を同じ顔と判定し、異なる人の顔を異なる顏と判定可能とすればよいので、必ずしも、顔データに氏名や住所等の個人情報を紐付けする必要はなく、例えば、コンビニエンスストアで書籍売り場によく居る客の顔と、弁当売り場によく居る客の顔とが識別可能となっていればよい。これにより、店舗において、個人情報に関係なく顧客管理を行うことが可能になり、客の嗜好に応じたサービス等の提供が可能になる。また、介護施設や病院等において、患者だけでなく訪問者の管理が容易になる。   In addition, the identification of a person by wrinkle recognition in the present invention is to identify a wrinkle photographed by the imaging means and another face, in other words, the same person's face is determined to be the same face, and different person's faces are determined. It is not necessary to link personal information such as name and address to face data, so it is not necessary to associate personal information such as name and address with face data. For example, it is often used for the face of a customer who is often at a book store at a convenience store, It only needs to be distinguishable from the face of the customer. As a result, customer management can be performed in the store regardless of personal information, and services according to customer preferences can be provided. In addition, it is easy to manage not only patients but also visitors in nursing homes and hospitals.

本発明の前記構成において、複数の前記撮像手段を備え、前記軌跡解析手段は、複数の前記撮像手段でそれぞれ撮影される画像に基づいて、複数の前記撮像手段の各撮影範囲を合わせた範囲内で移動軌跡を求めることが好ましい。   In the configuration of the present invention, the image processing apparatus includes a plurality of the imaging units, and the trajectory analysis unit is within a range obtained by combining the imaging ranges of the plurality of imaging units based on images captured by the plurality of imaging units. It is preferable to obtain the movement locus by

このような構成によれば、複数の撮像手段の撮影範囲に渡って同じ人が移動した場合でも移動軌跡を求めることができる。また、人が撮影範囲から一時的にはずれて移動先を追跡できなくても再び顏認識可能になった際に再び移動軌跡を求めることができ、一部途切れても同一人物の連続する移動軌跡を推定することが可能である。したがって、入り組んだ構造の店舗や施設において、人物の移動先を見失うことなく移動軌跡を求めることが可能になる。   According to such a configuration, the movement trajectory can be obtained even when the same person moves over the imaging ranges of the plurality of imaging means. In addition, even if a person temporarily deviates from the shooting range and can not track the destination, the movement locus can be obtained again when it becomes possible to recognize the eyelid again. Can be estimated. Accordingly, it is possible to obtain a movement trajectory without losing sight of a person's destination in a complicated store or facility.

本発明の前記構成において、前記顔データの属性となる属性情報を、少なくとも前記画像、前記移動軌跡または外部から入力される外部情報から求める属性解析手段を備え、
前記記録手段は、前記属性解析手段により求められた前記属性情報を前記識別符号に関連付けて記録することが好ましい。
In the configuration of the present invention, the apparatus includes attribute analysis means for obtaining attribute information that is an attribute of the face data from at least the image, the movement locus, or external information input from the outside,
The recording unit preferably records the attribute information obtained by the attribute analysis unit in association with the identification code.

このような構成によれば、各移動軌跡に対応する顔データに属性情報を付加することが可能であり、例えば、撮像手段で撮影された画像から顏認識される人物の身長や体形を解析して属性情報としてもよいし、顔データに係員等の関係者か否かの属性情報を付加することにより、関係者を監視対象から外すことができる。例えば、関係者以外立入禁止の場所に関係者の移動軌跡が重なっても警報を発することなく無視することができる。また、移動軌跡から解析される情報として、例えば、特定の人間の行動パターン、例えば、所定の曜日の所定時間に所定位置を通る等の行動パターンを属性情報として記録することができる。   According to such a configuration, it is possible to add attribute information to the face data corresponding to each movement trajectory. For example, by analyzing the height and body shape of a person who is recognized by the image from the image taken by the imaging means. The attribute information may be used, or by adding attribute information indicating whether or not the person is a member such as a staff member to the face data, the person concerned can be excluded from the monitoring target. For example, even if the movement trajectory of a related person overlaps a place where entry is prohibited except for the related person, it can be ignored without issuing an alarm. Further, as information analyzed from the movement trajectory, for example, a specific human behavior pattern, for example, a behavior pattern such as passing a predetermined position at a predetermined time on a predetermined day of the week can be recorded as attribute information.

本発明の前記構成において、前記撮像手段が、商品が陳列されている店舗に配置され、
前記属性解析手段は、前記外部情報として前記商品の配置を示す配置情報が入力され、前記配置情報および前記移動軌跡とに基づいて、顏認識された人が近づいた商品を示す情報を前記属性情報とすることが好ましい。
In the configuration of the present invention, the imaging means is disposed in a store where merchandise is displayed,
The attribute analysis unit receives, as the external information, arrangement information indicating the arrangement of the product, and based on the arrangement information and the movement trajectory, indicates information indicating a product approached by a person who has been recognized as wrinkles. It is preferable that

このような構成によれば、外部情報として商品の配置の情報が入力されて記憶されている場合に、属性解析手段は、移動軌跡と商品の配置を参照して客が近づいた商品を属性情報とすることができる。なお、客が近づいた際に立ち止まったか否かを解析してもよい。また、客が近づいた商品を一種に特定できない場合は、一緒に配置されている同種の商品の分類を商品として特定してもよく、例えば、カップ麺や、文房具等を商品として特定するようにしてもよい。
したがって、顔データで識別される各顧客がよく利用する売り場を把握して顧客管理に利用可能であるとともに、商品の陳列の仕方を検討する際に客の移動軌跡と商品の配列の関係を容易に把握することができる。属性解析の際に撮影された画像も利用すれば、顧客が手に取った商品や、買い物かごに入れた商品を画像認識して属性情報とすることも可能である。
According to such a configuration, when the information on the arrangement of the product is input and stored as external information, the attribute analysis unit refers to the movement trajectory and the arrangement of the product with respect to the product that the customer has approached. It can be. In addition, you may analyze whether the customer stopped when approaching. In addition, if the product that the customer has approached cannot be identified as a kind, the classification of the same type of product that is placed together may be identified as the product. For example, cup noodles, stationery, etc. may be identified as the product. May be.
Therefore, it is possible to grasp the sales floor frequently used by each customer identified by the face data and use it for customer management, and easily consider the relationship between the customer's movement trajectory and the product arrangement when examining how to display the product. Can grasp. If an image taken at the time of attribute analysis is also used, it is possible to recognize an image of a product picked up by a customer or a product put in a shopping basket and use it as attribute information.

本発明の前記構成において、前記撮像手段が、会計された商品を示す会計情報を出力可能なキャッシュレジスタを有する店舗に配置され、
前記属性解析手段は、前記外部情報として入力された前記会計情報を、当該会計情報に対応する会計が前記キャッシュレジスタで行われた際に、前記キャッシュレジスタに近い位置となる前記移動軌跡に対応する前記属性情報とすることが好ましい。
In the above configuration of the present invention, the imaging means is disposed in a store having a cash register capable of outputting accounting information indicating a product for which accounting is performed
The attribute analysis means corresponds to the movement trajectory that is close to the cash register when the accounting corresponding to the accounting information is performed in the cash register. The attribute information is preferably used.

このような構成によれば、移動軌跡と実際に購入した商品とを関連付けることが可能であり、移動軌跡と購入商品の関係を解析することが可能となる。さらに、移動軌跡、購入商品に加えて上述の商品の配置が分かれば、商品の陳列方法の検討をより詳細に行うことが可能となる。   According to such a configuration, the movement trajectory can be associated with the actually purchased product, and the relationship between the movement trajectory and the purchased product can be analyzed. Furthermore, if the arrangement of the above-mentioned products is known in addition to the movement trajectory and the purchased products, it becomes possible to examine the method for displaying the products in more detail.

本発明の前記構成において、前記記録手段には、特定の人に対する顔データが特定の人であることを識別可能に記録され、前記顔認識手段は、前記顔データから特定の人を識別することが好ましい。   In the configuration of the present invention, the recording means records the face data for a specific person so as to be identifiable as a specific person, and the face recognition means identifies the specific person from the face data. Is preferred.

このような構成によれば、特定の人として上述のように関係者であることを属性情報とすることで関係者を監視対象から外したり、窃盗経験者を特定の人として窃盗経験者の来店を報知するようにしたり、お得意様を特定の人としてお得意様の来店を報知するようにしたりすることが可能となる。   According to such a configuration, as a specific person, as described above, the attribute information indicates that the person is a related person, or the related person is excluded from the monitoring target, or the theft experienced person visits the shop as a specific person. It is possible to notify the customer of the customer or the customer as a specific person.

本発明によれば、人物毎に識別して各人物の移動軌跡を記録して利用可能となる。   According to the present invention, each person can be identified and the movement trajectory of each person can be recorded and used.

本発明の実施の形態の監視情報収集システムを店舗に設置した場合を示す概略図である。It is the schematic which shows the case where the monitoring information collection system of embodiment of this invention is installed in the store. 同、監視情報収集システムを示すブロック図である。It is a block diagram which shows a monitoring information collection system. 同、監視情報収集システムの検知/認識手段を示すブロック図である。It is a block diagram which shows the detection / recognition means of the monitoring information collection system. 同、監視情報収集システムのカメラの撮影範囲を説明する図である。It is a figure explaining the imaging | photography range of the camera of a monitoring information collection system. 同、監視情報収集システムで収集される監視情報を説明するための図である。It is a figure for demonstrating the monitoring information collected by a monitoring information collection system similarly. 同、監視情報収集システムによる監視情報収集方法を説明するためのフローチャートである。3 is a flowchart for explaining a monitoring information collecting method by the monitoring information collecting system.

以下、本発明の実施の形態について説明する。
図1に示すように、本実施の形態の監視情報収集システムは、監視エリアに設置される監視用のカメラ1を有するものである。本実施の形態では、カメラ1は、単に監視エリアを撮影するものではなく、人の検知、検知した人の移動軌跡の解析、検知されて移動軌跡を解析される人の顔認識等を行い、これらの監視情報を識別符号としてのIDに関連付けて記録する機能を有する。なお、これらの機能の全てをカメラ1に設ける必要はなく、撮影と画像出力以外の機能を、カメラ1から出力される画像が入力されるサーバ等の外部機器側に設けるものとしてもよい。
Embodiments of the present invention will be described below.
As shown in FIG. 1, the monitoring information collection system of the present embodiment has a monitoring camera 1 installed in a monitoring area. In the present embodiment, the camera 1 does not simply shoot the monitoring area, but performs human detection, analysis of the detected human movement trajectory, human face recognition that is detected and analyzed for the movement trajectory, etc. The monitoring information is recorded in association with an ID as an identification code. It is not necessary to provide all of these functions in the camera 1, and functions other than shooting and image output may be provided on the external device side such as a server to which an image output from the camera 1 is input.

本実施の形態において、カメラ1が設置される監視エリアは、例えば、コンビニエンスストア等の店舗50である。店舗50には、客用入出口56があり、この客用入出口56から人である客40が入店するようになっている。店の50内には、一つの壁際にレジスタ51を有するレジカウンタ52が前記壁から少し離れて壁面と平行に配置されており、このレジカウンタ52と壁との間が、店舗50における特定の人である店員等の関係者41以外の客40(人)の立ち入りが禁止された立入禁止エリア53となっている。   In the present embodiment, the monitoring area where the camera 1 is installed is, for example, a store 50 such as a convenience store. The store 50 has a customer entrance / exit 56, and a customer 40 who is a person enters the store from the customer entrance / exit 56. In the store 50, a cashier counter 52 having a register 51 at one wall is disposed slightly apart from the wall and in parallel with the wall surface. This is a no-entry area 53 in which customers 40 (persons) other than the related person 41 such as a store clerk are prohibited.

また、店舗50内には、壁から離れた位置に、島状に複数の商品棚54がマトリックス状に縦横に配置されている。また、上述のレジカウンタ52がある壁以外の壁には、壁際に商品棚55が配置されている。店内には、監視用として、本実施の形態のカメラ1が3台配置されている。この例では、レジカウンタ52側の壁に1台、レジカウンタ52の反対側の壁に2台配置されている。カメラ1の配置は、任意に設定することができ、一台でも複数台でもよいが、できるだけ、店舗50内の多くの部分を撮影可能となっていることが好ましい。   In the store 50, a plurality of merchandise shelves 54 are arranged vertically and horizontally in a matrix at locations away from the wall. Further, a product shelf 55 is arranged on the wall other than the wall where the above-described register counter 52 is located. In the store, three cameras 1 of the present embodiment are arranged for monitoring. In this example, one unit is arranged on the wall on the cashier counter 52 side, and two units are arranged on the wall on the opposite side of the cashier counter 52. The arrangement of the camera 1 can be arbitrarily set, and may be one or more, but it is preferable that as many parts of the store 50 as possible can be photographed.

各カメラ1は、本実施の形態の監視情報収集システムを構成するものであって、図2に示すように、例えば、レンズや固体撮像素子等を有する撮像手段2と、撮像手段2に撮影される画像から人を検知し、検知された人の移動軌跡を解析し、移動軌跡が解析される人の顔を認識するための検知/認識手段3(検知認識手段3)と、撮像手段2で撮影された画像データや、検知/認識手段3で検知および認識されることにより得られる監視情報を記録する記録手段5と、ネットワーク7(通信回線)を介して外部の機器と通信する通信手段6と、これら撮像手段2、検知/認識手段3、記録手段5および通信手段6を制御する制御手段4を有する。   Each camera 1 constitutes the monitoring information collection system of the present embodiment. As shown in FIG. 2, for example, the camera 1 is photographed by an imaging means 2 having a lens, a solid-state imaging device, and the like, and the imaging means 2. A detection / recognition means 3 (detection recognition means 3) for recognizing the person's face from which the person is detected from the detected image, the movement locus of the detected person is analyzed, and the movement locus is analyzed; A recording unit 5 that records captured image data and monitoring information obtained by detection and recognition by the detection / recognition unit 3 and a communication unit 6 that communicates with an external device via a network 7 (communication line). And control means 4 for controlling the image pickup means 2, detection / recognition means 3, recording means 5 and communication means 6.

なお、上述の構成要素の全てをカメラ1に備える構成とせずに、撮像手段2および通信手段6をカメラ1に配置し、その他の構成要素をカメラ1の外部のサーバ等のコンピュータシステムやその他の機器に設けるものとしてもよい。また、店舗50等の撮影エリアに複数台のカメラ1を配置する場合に、1台のカメラ1に上述の構成要素の全てを配置し、残りのカメラ1には、基本的に撮像手段2と通信手段6だけを設けるようにしてもよい。すなわち、カメラ1が複数台ある場合に、1台のカメラ1にコンピュータシステムとしての機能を付加し、残りのカメラ1を撮影した画像を出力する一般的な監視カメラとして用いるものとしてもよい。いずれにしろ、監視情報収集システムを複数台のカメラ1から構成することが可能である。   The imaging unit 2 and the communication unit 6 are not provided in the camera 1 with all the above-described components provided in the camera 1, and other components are arranged in a computer system such as a server outside the camera 1 or other It is good also as what is provided in an apparatus. When a plurality of cameras 1 are arranged in a shooting area such as a store 50, all of the above-described components are arranged in one camera 1, and the remaining cameras 1 basically have an imaging means 2 and Only the communication means 6 may be provided. That is, when there are a plurality of cameras 1, a function as a computer system may be added to one camera 1, and the remaining cameras 1 may be used as a general monitoring camera that outputs images. In any case, the monitoring information collection system can be composed of a plurality of cameras 1.

撮像手段2は、例えば、一般的な監視カメラと同様の構成を有するもので、例えば、カメラ1の向きに応じて設定された画角に対応する撮影範囲を撮影して、撮影した画像を動画として送信するようになっている。この撮像手段2としては、本実施の形態において、視差から距離/サイズを算出可能なステレオカメラを用いるようになっている。このステレオカメラを用いることにより、被写体の形状を算出可能であり、画像上の特徴点から各種認識を行う際に立体形状から特徴点を求められるのでより正確に認識が可能となり、人検知を容易に行うことが可能となるとともに、顔認識をより詳細に行うことが可能となる。   The imaging unit 2 has a configuration similar to that of, for example, a general surveillance camera. For example, the imaging unit 2 captures an imaging range corresponding to an angle of view set according to the orientation of the camera 1 and converts the captured image into a moving image. To send as. In this embodiment, a stereo camera capable of calculating the distance / size from the parallax is used as the imaging unit 2. By using this stereo camera, the shape of the subject can be calculated, and when performing various recognitions from the feature points on the image, the feature points can be obtained from the three-dimensional shape, enabling more accurate recognition and facilitating human detection. It is possible to perform face recognition in more detail.

また、検知された人までの距離の変化を視差から算出可能であり、人の移動軌跡の解析をカメラ1から検知された人までの距離に基づいて容易に行うことができる。また、ステレオカメラの画像に基づいて、検知された人の属性情報として、身長、体形、服装等を求められるとともに、それらに基づいて、以下のような推定を行うことが可能である。すなわち、ステレオカメラで撮影された人が、大人か子供か、太っているか痩せているか(体形)、男性か女性か等を推定して属性情報としてもよい。なお、店舗50内の客40の行動を画像認識して、所謂万引き等の犯罪行為を検出するものとしてもよく、例えば、手に取った商品を認識し、商品が元に戻されるか、買い物カゴに入れられるか、それ以外かを判定して、それ以外の場合に関係者41に通知するものとしてもよい。また、機械学習により万引きを行ったか否かを動画上の人の動きから判断するような構成としてもよい、   Further, the change in the distance to the detected person can be calculated from the parallax, and the movement trajectory of the person can be easily analyzed based on the distance from the camera 1 to the detected person. Further, height, body shape, clothes, and the like are required as the attribute information of the detected person based on the stereo camera image, and the following estimation can be performed based on them. That is, the attribute information may be obtained by estimating whether a person photographed with a stereo camera is an adult or a child, whether he / she is fat or thin (body shape), male or female, and the like. The behavior of the customer 40 in the store 50 may be image-recognized to detect criminal acts such as so-called shoplifting. For example, a product taken in the hand is recognized and the product is returned to its original state or shopping It may be determined whether it can be put in a basket or other than that, and the person concerned 41 is notified in other cases. Moreover, it is good also as a structure which judges from the movement of the person on a moving image whether shoplifting was performed by machine learning.

また、カメラ1には、撮像手段2に加えて音声を入力する音声入力手段を設けてもよく、監視エリア内の音声をデジタル録音可能としたり、音声認識したりしてもよく、音声認識した場合に、監視エリア内の秩序を乱しているか否か等を判定してもよい。   Further, the camera 1 may be provided with a voice input means for inputting voice in addition to the imaging means 2, and the voice in the monitoring area may be digitally recordable or voice-recognized. In this case, it may be determined whether or not the order in the monitoring area is disturbed.

また、撮像手段2は、ステレオカメラに限られるものではなく、単眼カメラであってもよい。この場合に、視差から距離を算出できないので、人の背景となる店舗50の商品棚54,55の位置や、これらの各棚板の高さなど、人と比較して、高さやサイズや距離を算出可能な背景となる構成要素の位置と形状を記憶しておき、これに基づいて人の検知と、人の移動軌跡の解析と、人の身長、体形等を求めるようにしてもよい。また、撮像手段2として、例えば、距離画像センサを用いてもよい。距離画像センサとしては、例えば、TOF(Time Of Flight)を用いることができる。TOFは、投射したレーザーが対象まで往復するのにかかる時間から、距離を計測する。   Further, the imaging unit 2 is not limited to a stereo camera, and may be a monocular camera. In this case, since the distance cannot be calculated from the parallax, the height, size, and distance compared to the person such as the position of the product shelves 54 and 55 of the store 50 as the background of the person and the height of each shelf board are compared. It is also possible to store the position and shape of the constituent elements that can calculate the background, and to detect the person, analyze the movement trajectory of the person, and determine the height, body shape, etc. of the person based on this. For example, a distance image sensor may be used as the imaging unit 2. As the distance image sensor, for example, TOF (Time Of Flight) can be used. The TOF measures the distance from the time taken for the projected laser to reciprocate to the target.

距離画像センサを撮像手段2として用いれば、被写体までの距離が求められるとともに、解像度を高くすることで顔認識等も可能になり、距離画像センサで、人検知、移動軌跡、顔認識が可能となる。なお、距離画像の解像度が十分でなく、顔認識の精度が上がらない場合に、距離画像に単眼カメラによる画像を組み合わせて顔認識を行ってもよい。   If the distance image sensor is used as the imaging means 2, the distance to the subject can be obtained, and the face can be recognized by increasing the resolution, and the distance image sensor can perform human detection, movement trajectory, and face recognition. Become. When the resolution of the distance image is not sufficient and the accuracy of face recognition does not increase, the face recognition may be performed by combining the distance image with an image from a monocular camera.

検知/認識手段3は、演算処理装置とメモリとを備えるコンピュータシステムであり、画像認識を行うものである。すなわち、撮像手段2で撮影された画像から画像認識により人検知、人追跡(移動軌跡)、顔認識等の画像解析および画像認識を行うようになっている。人検知においては、画像上の被写体が人か否かを画像認識により判定することになる。ここで、店舗50では、入出口56から人が入店することになり、入店する人を検知することになる。なお、人検知において、入出口56から店内に移動する被写体は、人候補である。   The detection / recognition means 3 is a computer system including an arithmetic processing unit and a memory, and performs image recognition. That is, image analysis and image recognition such as human detection, human tracking (movement trajectory), face recognition and the like are performed by image recognition from an image taken by the imaging means 2. In human detection, it is determined by image recognition whether the subject on the image is a person. Here, in the store 50, a person enters from the entrance / exit 56, and a person entering the store is detected. In the human detection, the subject moving from the entrance 56 to the store is a human candidate.

人検知では、人か否かを判断するが顔認識では、顔の画像認識により、顔の特徴点・特徴量等を求めこれを顔データとして記憶するようになっている。複数の顔データを比較した場合に、同じ人の顔データは、例えば、特徴点や特徴量が近似する部分が多く、違う人の顔データでは、同じ人の場合のように近似しない。したがって、顔データを比較した場合に近似する特徴点や特徴量の数等の条件など、周知の比較条件により比較した2つの顔データが同じ人のものか違う人のものかを判定することができる。すなわち、顔画像のマッチングを行うことができる。実際には、例えば、画像認識に関連する機能のライブラリであるOpenCV(Open Computer Vision Library)、および、ディープラーニングによる認識を利用して、上述の人検知、人追跡、顔認識を行うことができる。最新のOpenCVライブラリには、機械学習機能も含まれ、例えば、ディープラーニングモジュールも備える。   In human detection, it is determined whether or not a person is present. In face recognition, facial feature points, feature amounts, and the like are obtained by face image recognition and stored as face data. When comparing a plurality of face data, for example, the face data of the same person has many portions where the feature points and feature amounts approximate, and the face data of different people does not approximate as in the case of the same person. Therefore, it is possible to determine whether the two face data compared are those of the same person or different persons according to a known comparison condition, such as conditions such as the number of feature points approximated when comparing face data and the number of feature quantities. it can. That is, face image matching can be performed. Actually, for example, the above-described human detection, human tracking, and face recognition can be performed by using OpenCV (Open Computer Vision Library), which is a library of functions related to image recognition, and recognition by deep learning. . The latest OpenCV library also includes a machine learning function, for example, a deep learning module.

ここで、本実施の形態では、画像上で人を追跡するだけではなく、ステレオ画像の視差で求められる距離に基づいて、画像上で追跡される人の実際の店舗50内の位置を求め、この位置の時間経過による変化を軌跡として求めるようになっている。なお、人検知における人か否かの判断や、顔認識においても、ステレオ画像から得られる3次元画像に基づいて行われる。したがって、特徴点も三次元の立体画像上で求められる。ただし、上述のように、撮像手段2で単眼カメラが用いられる場合には、背景となる固定構造物と人検知および追跡された被写体との位置関係を推定して、人の店舗50内の位置を決定してもよい。   Here, in the present embodiment, not only the person is tracked on the image, but also the position of the person tracked on the image in the store 50 is determined based on the distance determined by the parallax of the stereo image. The change of this position over time is obtained as a trajectory. Note that the determination of whether or not a person is in human detection and face recognition are also performed based on a three-dimensional image obtained from a stereo image. Therefore, feature points are also obtained on a three-dimensional stereoscopic image. However, as described above, when a monocular camera is used in the imaging unit 2, the positional relationship between the fixed structure as a background and the subject detected and tracked is estimated, and the position in the person's store 50 is estimated. May be determined.

また、TOF等の距離画像センサで測定された距離に基づいて、店舗50内の人の位置を求めて、この位置の移動を軌跡として記録するものとしてもよい。この場合に、人検知、人追跡、顔認識を距離画像センサから出力される距離画像に基づいて行うことが可能であり、この場合も3次元画像を画像認識することになる。また、距離画像センサの距離画像と単眼カメラの画像とを組み合わせて画像認識を行うようにしてもよく、距離画像による各画素までの距離と、距離画像より解像度の高い単眼カメラの画像とを用いて画像認識することができる。   Further, the position of a person in the store 50 may be obtained based on the distance measured by a distance image sensor such as TOF, and the movement of this position may be recorded as a trajectory. In this case, it is possible to perform person detection, person tracking, and face recognition based on the distance image output from the distance image sensor, and in this case as well, a three-dimensional image is recognized. Further, the distance image of the distance image sensor and the image of the monocular camera may be combined to perform image recognition, and the distance to each pixel by the distance image and the image of the monocular camera having a higher resolution than the distance image are used. Image recognition.

以上のことから検知/認識手段3は、図3に示すように、画像から人を検知する人検知手段31と、画像から検知された人を画像上で追跡するとともに当該人の位置を解析して人の移動軌跡を求める軌跡解析手段32と、検知された人の顔認識を行う顔認識手段33とを備える。これら人検知手段31と、軌跡解析手段32と、顔認識手段33は、制御手段4を介して記録手段5に接続され、人検知手段31で検知された人のID、軌跡解析手段32で求められた移動軌跡、顔認識手段33で得られた顔データが記憶される。   From the above, the detection / recognition means 3, as shown in FIG. 3, detects the person from the image, tracks the person detected from the image on the image, and analyzes the position of the person. A trajectory analysis means 32 for obtaining a movement trajectory of the person and a face recognition means 33 for recognizing the detected human face. These human detection means 31, trajectory analysis means 32, and face recognition means 33 are connected to the recording means 5 via the control means 4, and the human ID detected by the human detection means 31 is obtained by the trajectory analysis means 32. The obtained movement trajectory and the face data obtained by the face recognition means 33 are stored.

なお、人の目、鼻、口、顎、額、髪等の特徴点を抽出する上では、画像中における顔の大きさが問題になり、人として検知可能な画像中の人のサイズより、顔認識可能な画像中の顔のサイズの方が大きくなる可能性が高い。すなわち、カメラ1の撮影範囲内で、人検知可能なカメラ1から人までの距離より顔認識可能なカメラ1から人までの距離の方が短い。すなわち、図4に示すようにカメラ1の撮影範囲のうちのカメラ1に近い範囲が顔認識エリア10となり、顔認識エリア10より広い範囲が人検知エリア11となる。   In extracting feature points such as human eyes, nose, mouth, chin, forehead, and hair, the size of the face in the image becomes a problem, and from the size of the person in the image that can be detected as a person, There is a high possibility that the size of the face in the image capable of face recognition is larger. That is, within the shooting range of the camera 1, the distance from the camera 1 capable of recognizing the face to the person is shorter than the distance from the camera 1 capable of detecting the person. That is, as shown in FIG. 4, the range close to the camera 1 in the shooting range of the camera 1 is the face recognition area 10, and the range wider than the face recognition area 10 is the human detection area 11.

なお、人検知エリア11には、顔認識エリア10が含まれる。この場合に、例えば、コンビニエンスストア等の店舗50内において、店舗50内の全ての範囲をカメラ1の顔認識エリア10内に収めようとすると、カメラ1の台数を増やしたり、カメラ1の解像度を高めたりする必要が生じ、コストが増大する場合に、図1に示すように店舗50内の一部のエリアだけを顔認識エリア10としてもよい。例えば、図1に示すように、カメラ1を3台設置して、店舗内の全ての範囲がカメラの撮影範囲に入るとともに、カメラ1の人検知エリア11に入るようにした場合に、顔認識エリア10が店舗50内の一部だけをカバーするものであってもよい。   The human detection area 11 includes a face recognition area 10. In this case, for example, in a store 50 such as a convenience store, if the entire range in the store 50 is to be stored in the face recognition area 10 of the camera 1, the number of cameras 1 is increased or the resolution of the camera 1 is increased. When it is necessary to increase the cost and the cost increases, only a part of the area in the store 50 may be set as the face recognition area 10 as shown in FIG. For example, as shown in FIG. 1, when three cameras 1 are installed so that the entire range in the store is within the shooting range of the camera and the human detection area 11 of the camera 1 is recognized. The area 10 may cover only a part of the store 50.

本実施の形態では、図1に示す店舗50において、右下のカメラ1の人検知エリア11(撮影範囲)内に店舗50のほぼ全域が入るようになっているが、実際には商品棚54に邪魔されて、人検知エリア11内でも撮影されない部分が生じる。この撮影できない部分をカバーするように、店舗50の左右端部にそれぞれカメラ1が配置されている。しかし、顔認識エリア10は、店舗50の一部しかカバーしていない。   In the present embodiment, in the store 50 shown in FIG. 1, almost the entire area of the store 50 falls within the human detection area 11 (shooting range) of the camera 1 on the lower right. The part which is not image | photographed also in the person detection area 11 is disturbed by. Cameras 1 are arranged at the left and right ends of the store 50 so as to cover the portions that cannot be photographed. However, the face recognition area 10 covers only a part of the store 50.

また、店舗50の左端部に配置されたカメラ1の顔認識エリア10に店舗50の入出口56が含まれており、店舗50内の一部だけが顔認識エリア10であっても、入出口56から入店する全ての客40の顔が認識可能となっており、客40は入店時に顔認識されて、例えば、既存の客40か新規の客40かが判断されるようになっている。また、図1上の右側のカメラ1は、図中左側のレジカウンタ52およびレジカウンタ52内の立入禁止エリア53を撮影可能となっており、関係者41ではない客40が立入禁止エリア53内に入るのを監視可能となっているとともに、キャッシュレジスタへの不正アクセスを監視可能となっている。   Even if the face recognition area 10 of the camera 1 arranged at the left end of the store 50 includes the entrance / exit 56 of the store 50 and only a part of the store 50 is the face recognition area 10, the entrance / exit The faces of all the customers 40 entering the store from 56 can be recognized, and the customers 40 are recognized at the time of entering the store, and for example, it is determined whether the customer 40 is an existing customer 40 or a new customer 40. Yes. Further, the camera 1 on the right side in FIG. 1 can photograph the registration counter 52 on the left side in the drawing and the entry prohibition area 53 in the registration counter 52, and the customer 40 who is not the related person 41 can enter the entry prohibition area 53. Can be monitored as well as unauthorized access to the cash register.

なお、この実施の形態では、各客を識別できればよく、例えば、昨日の朝来店した客と、今朝来店した客が同じ人か違う人かを判定するのに顔認識を用いており、必ずしも、顔データと氏名、住所等の個人情報を紐付ける必要はない。ただし、後述のようにレジスタ51から出力される購入品、購入額、購入日時、現金払いプリペイドカード払い等の会計情報のデータを紐付けするものとしてもよい。すなわち、顧客管理の一貫としてIDで識別される各顧客を識別して、各顧客の購入を含む行動を記録するようになっている。   In this embodiment, it is only necessary to be able to identify each customer.For example, facial recognition is used to determine whether the customer who visited yesterday morning and the customer who visited this morning are the same person or different people, There is no need to associate face data with personal information such as name and address. However, as will be described later, accounting data such as purchased items, purchase amount, purchase date and time, cash payment prepaid card payment, etc., output from the register 51 may be linked. That is, each customer identified by an ID is identified as part of customer management, and actions including purchase of each customer are recorded.

制御手段4は、撮像手段2による撮影の開始、終了を制御するとともに、焦点調節、露出補正等を制御してもよい。また、制御手段4は、撮像手段2で撮影された画像のデータを記録手段5に記録する。また、制御手段4は、検知/認識手段3で認識された顔データと、顔データ毎の移動軌跡のデータと、画像から認識される身長等の体格や体形の身体情報と、これら身体情報や画像からよみ取られる服装や顔認識時に認識された化粧等の情報から推定される年齢、性別、人種等の推定情報を監視情報の一部である付属情報として顔データ、移動軌跡データに付随させてIDに関連付けて記録手段5に記録する。   The control unit 4 may control the start and end of shooting by the imaging unit 2 and may control focus adjustment, exposure correction, and the like. Further, the control unit 4 records the data of the image captured by the imaging unit 2 in the recording unit 5. The control unit 4 also includes face data recognized by the detection / recognition unit 3, movement trajectory data for each face data, body information such as height and body shape recognized from the image, Estimated information such as age, sex, race, etc. estimated from information such as clothes read from images and makeup recognized during face recognition is attached to face data and movement trajectory data as attached information that is part of monitoring information Then, it is recorded in the recording means 5 in association with the ID.

通信手段6は、ネットワーク7を介して、他のカメラ1と通信し、情報供給と人の移動軌跡の引き継ぎを行う。移動軌跡の引き継ぎは、基本的に撮影エリアが重なる部分で位置が一致する人の移動軌跡を引き継ぐようになっているが、各カメラ1で顔認識されている場合には、同一人物の各カメラ1で解析された各移動軌跡を顔認識で得られた顔データの所定の一致条件を満たすことに基づいてつなぎ合わせてもよい。   The communication means 6 communicates with other cameras 1 via the network 7 to supply information and take over the movement locus of a person. Inheritance of the movement trajectory basically takes over the movement trajectory of the person whose position is the same in the portion where the shooting areas overlap, but when each camera 1 recognizes the face, each camera of the same person is used. The movement trajectories analyzed in 1 may be joined based on satisfying a predetermined matching condition of face data obtained by face recognition.

また、撮影情報収集システムにおける情報収集装置としては、上述の撮像手段2、検知/認識手段3、記録手段5、通信手段6、制御手段4が各カメラ1に備えられているが、収集された情報を見るための装置を設けてもよく、例えば、ディスプレイとキーボード、ポインティングデバイス等の入力装置と、演算処理装置とを備えた端末を、ネットワーク7を介して各カメラ1の通信手段6に接続してもよい。この端末により、カメラ1の記録手段5に記憶された画像、移動軌跡、付属情報等のデータの閲覧や管理を行うことができる。   Further, as the information collecting device in the photographing information collecting system, each camera 1 includes the above-described imaging means 2, detection / recognition means 3, recording means 5, communication means 6, and control means 4, but they are collected. An apparatus for viewing information may be provided. For example, a terminal including an input device such as a display, a keyboard, a pointing device, and an arithmetic processing device is connected to the communication means 6 of each camera 1 via the network 7. May be. With this terminal, it is possible to browse and manage data such as images, movement trajectories, and attached information stored in the recording means 5 of the camera 1.

なお、カメラ1の画像を常時監視している必要はなく、例えば、立入禁止エリアに関係者41以外が侵入した場合に警報を鳴すような機能により、カメラ1が画像認識に基づいて自動で処理する構成となっていてもよい。また、記録手段5のデータを外部のコンピュータシステムに出力して、当該コンピュータシステムで顧客管理、商品の陳列方法等の検討が可能となっていればよく、店舗50に端末がなくてもよい。   The image of the camera 1 does not need to be constantly monitored. For example, when a person other than the related person 41 enters the restricted entry area, the camera 1 automatically sounds based on the image recognition. It may be configured to process. Further, it is only necessary that the data stored in the recording means 5 is output to an external computer system so that customer management, product display methods, and the like can be examined by the computer system.

また、カメラ1の通信手段6は、ネットワーク7を介してキャッシュレジスタ51と接続されるようになっている。キャッシュレジスタ51は、例えば、POSシステム(販売時点情報管理システム)用のPOSレジであり、販売時に客40が購入した商品の商品名、価格、購入日時、支払い方法(現金、カード払い等)、ポイントカードの点数等を出力する。本実施の形態では、キャッシュレジスタ51から上述の各種情報がカメラ1に送信される。   The communication means 6 of the camera 1 is connected to the cash register 51 via the network 7. The cash register 51 is, for example, a POS cash register for a POS system (point-of-sale information management system). The product name, price, purchase date / time, payment method (cash, card payment, etc.) The point card score is output. In the present embodiment, the above-described various information is transmitted from the cash register 51 to the camera 1.

カメラ1の制御手段4は、キャッシュレジスタ51から商品の購入に対応する情報が入力した場合に、この情報が入力した際にレジカウンタ52の立入禁止エリア53の外側でキャッシュレジスタに最も近い客40のIDに関連付けて、キャッシュレジスタ51から送信された購入商品等に関する情報を記録手段5に記録するようになっている。記録手段5では、キャッシュレジスタ51から送信された情報がIDに関連付けられて付随情報として記録される。   When the information corresponding to the purchase of the product is input from the cash register 51, the control means 4 of the camera 1 receives the customer 40 closest to the cash register outside the entry prohibition area 53 of the register counter 52 when the information is input. The information relating to the purchased product transmitted from the cash register 51 is recorded in the recording means 5 in association with the ID. In the recording means 5, the information transmitted from the cash register 51 is recorded as accompanying information in association with the ID.

これにより、客40の購入商品が分かるとともに、購入した商品と移動軌跡が分かるので、商品の陳列方法を検討する場合の基礎資料として利用可能である。すなわち、商品を購入する前や後にどの商品のそばを通ったかを解析し、商品の陳列と客40の移動との関連性を求めることなどが可能になる。また、移動軌跡が雑誌売場の前で止まった客がその後どのような商品を購入したのか、お弁当売り場の前で止まった客がお弁当を購入しているか否かなどの情報を分析することにより、商品の陳列方法や、お弁当等の陳列時間が短い商品の最適な入れ替え時期や、飲料系の商品とお弁当系の商品の好適な陳列方法などを得ることができる。   As a result, the purchased product of the customer 40 can be understood, and the purchased product and the movement trajectory can be understood, so that it can be used as a basic material when examining the display method of the product. That is, it is possible to analyze which product has passed before or after purchasing the product, and to obtain the relationship between the display of the product and the movement of the customer 40. In addition, analyze the information such as what kind of products the customer whose movement trajectory stopped in front of the magazine department then purchased, and whether the customer who stopped in front of the lunch box department purchased lunch Accordingly, it is possible to obtain a product display method, an optimal replacement time for a product such as a lunch box with a short display time, a suitable display method for a beverage-type product and a lunch-type product, and the like.

次に、記録手段5において、ID(a)と関連付けて記憶されるデータについて説明する。ID(a)と関連付けて記憶されるデータは、顔データ(b)と、プロファイル(c)と、購入履歴(d)と、移動軌跡(e)とである。顔データ(b)は、上述のように、特徴点や特徴量等であり、2つの顔の画像がある場合に、同じ人か別の人かを識別可能とするデータである。プロファイル(c)は、カメラ1で撮影された画像の解析(認識)によって得られるデータと、外部から入力されたデータであり、顔データ(b)や移動軌跡(e)に対して付随する付随情報である。   Next, data stored in association with ID (a) in the recording unit 5 will be described. Data stored in association with ID (a) is face data (b), profile (c), purchase history (d), and movement locus (e). As described above, the face data (b) is feature points, feature amounts, and the like, and is data that makes it possible to identify the same person or different persons when there are two face images. The profile (c) is data obtained by analysis (recognition) of an image photographed by the camera 1 and data input from the outside, and is associated with the face data (b) and the movement trajectory (e). Information.

プロファイル(c)には、例えば、身長、体形、大人/小人、性別、服装(色等)等の画像認識に基づくデータが含まれるとともに、後述の関係者(立ち入り禁止エリア53への入出許可者)か否か等の外部から入力されたデータが含まれる。購入履歴(d)は、キャッシュレジスタ51から入力されるデータであり、購入した商品の商品名(商品ID)、数量、購入額、購入品の種類等がある。移動軌跡(e)は、基本的に店舗50内の位置と日時のデータを有するとともに、位置を時間順でつなぎ合わせたものである。なお、プロファイル(c)には、要注意人物等の情報を登録するようにしてもよい。   The profile (c) includes, for example, data based on image recognition such as height, body shape, adult / dwarf, gender, clothes (color, etc.), and a later-mentioned related person (entry / exit permission to enter / exit area 53) Data entered from the outside, such as whether or not a person is). The purchase history (d) is data input from the cash register 51, and includes the product name (product ID) of the purchased product, the quantity, the purchase price, the type of the purchased product, and the like. The movement trajectory (e) basically has position and date / time data in the store 50, and the positions are connected in time order. In the profile (c), information such as a person requiring attention may be registered.

次に、このような監視情報収集システムによる監視情報の収集方法と、監視方法について図6のフローチャートを参照して説明する。なお、フローチャートで示される処理は基本的に制御手段4における処理である。
まず、店舗50の入出口56から客40が入店すると、入店した客40がカメラ1に撮影され、撮影された画像において入出口56から入店する客40がカメラ1の検知/認識手段3に人として検知される(ステップS1)。画像上で検知された人を検知認識手段3が追跡して移動を解析し、検知された人の検知がなくなるまで、例えば、店舗50から退出するまでの移動軌跡を時間経過に対応して検出する(ステップS2)。
Next, a monitoring information collecting method and a monitoring method by such a monitoring information collecting system will be described with reference to the flowchart of FIG. The processing shown in the flowchart is basically processing in the control means 4.
First, when the customer 40 enters the store 50 from the entrance / exit 56, the customer 40 who has entered the store is photographed by the camera 1, and the customer 40 entering the store from the entrance / exit 56 in the photographed image is detected / recognized by the camera 1. 3 is detected as a person (step S1). The detection recognition means 3 tracks the person detected on the image, analyzes the movement, and detects the movement trajectory until the exit from the store 50, for example, corresponding to the passage of time until the detected person is no longer detected. (Step S2).

検知されて移動軌跡を求めるために画像上で追跡される人の顔を検知認識手段が検知するとともに認識して、顔の特徴点や特徴量を求め、これを顔データとして記録手段5に記録する(ステップS3)。なお、顔認識は、例えば、客40が入出口56から入店した際にカメラ1に撮影されることで行われるが、ここで顔認識に失敗した場合には、移動軌跡を求めながら、次にいずれかのカメラ1の顔認識エリア10に入って、顔をカメラ1側に向けた際に顔認識が行われる。   The detection / recognition means detects and recognizes the face of the person who is detected and tracked on the image in order to obtain the movement trajectory, and obtains facial feature points and feature quantities, which are recorded in the recording means 5 as face data. (Step S3). Note that face recognition is performed by, for example, being photographed by the camera 1 when the customer 40 enters the store through the entrance / exit 56. If the face recognition fails here, the next step is performed while obtaining the movement trajectory. Face recognition is performed when the camera enters the face recognition area 10 of any camera 1 and faces the camera 1 side.

顔認識が行われると、既に顔認識されて後述のようにIDと関連付けて記憶された顔データと、今回顔認識されて取得された顔データを比較し、新たに認識された顔データが既に記録された顔データであるか否か、すなわち、認識された顔データが登録済みの顔データか否かが判定される(ステップS4)。この際には、顔データの特徴点や特徴量の一致点が少なく一致条件を満たさない場合に、新たな客40として、未使用の新規IDが登録される(ステップS5)。この新規IDに関連付けられて顔データや付随情報等の情報がプロファイルとして認識される(ステップS6)。   When face recognition is performed, the face data that has already been recognized and stored in association with the ID as described later is compared with the face data that has been acquired through face recognition this time. It is determined whether or not the face data is recorded, that is, whether or not the recognized face data is registered face data (step S4). In this case, when there are few feature points or feature amount matching points of the face data and the matching condition is not satisfied, an unused new ID is registered as a new customer 40 (step S5). Information such as face data and accompanying information associated with the new ID is recognized as a profile (step S6).

一方、新たに認識された顔データと、既にIDと関連付けて記録された顔データとを比較した際に、特徴点や特徴量の一致点が多く、一致条件を満たしていると判定された場合、すなわち、認識された顔データが既に登録済みである場合に、上述の顔データ、付随情報が登録済みのIDのプロファイルとして認識される(ステップS7)。そして、登録済みのIDに関連付けて認識されたプロファイルが登録済みIDのプロファイルとして記録手段5で更新される(ステップS8)。   On the other hand, when the newly recognized face data is compared with the face data already recorded in association with the ID, it is determined that there are many feature points and feature quantity matching points and the matching conditions are satisfied. That is, when the recognized face data has already been registered, the face data and accompanying information described above are recognized as a registered ID profile (step S7). Then, the profile recognized in association with the registered ID is updated by the recording unit 5 as the profile of the registered ID (step S8).

上述のように新規のIDまたは登録済みのIDとともに新たなプロファイルが記憶されるとともに、これらIDのいずれかに関連付けて移動軌跡のデータが軌跡プロファイルとして記録手段5に記録される(ステップS9)。なお、移動軌跡は、基本的に客40が店外に出るまで検出されることになり、定期的に軌跡プロファイルが更新される。
次に客40が未だ店舗50内(エリア内)に居るか否かが判定される(ステップS10)。客40が店舗50内に居らず、エリア外と判断された場合には、移動軌跡の検出が終了し、記録手段5において、移動軌跡の情報を含むIDに関連付けられた情報の記録(ファイル等)がクローズされる(ステップS11)。
As described above, the new profile is stored together with the new ID or the registered ID, and the data of the movement trajectory is recorded in the recording unit 5 as a trajectory profile in association with any of these IDs (step S9). The movement trajectory is basically detected until the customer 40 goes out of the store, and the trajectory profile is periodically updated.
Next, it is determined whether or not the customer 40 is still in the store 50 (in the area) (step S10). When it is determined that the customer 40 is not in the store 50 and is out of the area, the detection of the movement trajectory is completed, and the recording means 5 records information (file or the like) associated with the ID including the information of the movement trajectory. ) Is closed (step S11).

未だ店舗50内((監視)エリア内)に検知された人がいる場合には、現在の移動軌跡または所定時間内の移動軌跡が、立入禁止エリア53(禁止エリア)と重なるか否かを判定する(ステップS12)。すなわち、検知された客40が立入禁止エリア53内に侵入しているか否かを判定する。次に侵入した客40のIDに関連付けられて記録手段5に記録されたプロファイルを参照し、当該IDのプロファイルに店員等の店舗50の関係者で、立入禁止エリア53への侵入が許可されているIDの人か否かを判定する(ステップS13)。   If there is still a person detected in the store 50 (in the (monitoring) area), it is determined whether the current movement trajectory or the movement trajectory within a predetermined time overlaps the restricted entry area 53 (prohibited area). (Step S12). In other words, it is determined whether or not the detected customer 40 has entered the inaccessible area 53. Next, referring to the profile recorded in the recording means 5 in association with the ID of the invading customer 40, the person in the store 50 such as a store clerk is allowed to enter the off-limits area 53 according to the profile of the ID. It is determined whether or not the person has an ID (step S13).

記録手段5のID毎に登録されるプロファイルには、画像から認識された項目やさらに画像や認識された項目から推定される項目以外に、外部から入力された付属情報が記憶可能となっており、ここでは、付属情報(プロファイル)として、店舗関係者41のプロファイルに、例えば、立入禁止エリア53への入出許可を有することが記録されている。   In the profile registered for each ID of the recording means 5, in addition to the items recognized from the images and the items estimated from the images and the recognized items, the attached information input from the outside can be stored. In this case, as the attached information (profile), it is recorded in the profile of the store-related person 41 that, for example, the entry / exit permission for the entry prohibition area 53 is granted.

したがって、関係者41の顔データを認識してIDが読み出された際に、IDに関連付けられた付属情報として立入禁止エリアへの入出許可があるので、関係者41の移動軌跡と立入禁止エリア53と重なっても警報を鳴らさないようになっている。なお、店舗50には、警報を発する警報装置が設置されており、カメラ1の制御手段4は、通信手段6およびネットワークを介して警報装置に警報(アラーム)の開始と終了を示すコマンドを出力可能となっている。   Therefore, when the face data of the related person 41 is recognized and the ID is read out, there is permission to enter and leave the off-limit area as auxiliary information associated with the ID. The alarm is not sounded even if it overlaps with 53. The store 50 is provided with an alarm device for issuing an alarm, and the control means 4 of the camera 1 outputs a command indicating the start and end of the alarm (alarm) to the alarm device via the communication means 6 and the network. It is possible.

したがって、移動軌跡が立入禁止エリア53と重なる人のIDに関連付けられて立入禁止エリア53への入出許可がない場合に、制御手段4が警報装置にアラーム開始のコメンドをセットし(ステップS14)、次の処理で通信手段6を介して警報装置にアラーム開始のコマンドが出力される。一方、上述のIDに関連付けて立入禁止エリア53への入出許可がプロファイルに記録されている場合に、制御手段4はアラームのコマンドをセットしない。   Therefore, when the movement locus is associated with the ID of the person who overlaps with the entry prohibition area 53 and the entry / exit permission to the entry prohibition area 53 is not permitted, the control means 4 sets an alarm start command in the alarm device (step S14). In the next processing, an alarm start command is output to the alarm device via the communication means 6. On the other hand, when entry / exit permission to the entry prohibition area 53 is recorded in the profile in association with the ID, the control means 4 does not set an alarm command.

上述の制御手段4による処理は、実際にはリアルタイムの処理であるとともに、検知/認識手段3が複数の人の移動軌跡を同時に検出できるようになっており、検知/認識手段3が、同時に複数の人の移動軌跡を出力可能となっている。それに対して制御手段4が移動軌跡やプロファイルの更新等をリアルタイムで行うようになっている。   The processing by the control means 4 described above is actually real-time processing, and the detection / recognition means 3 can simultaneously detect the movement trajectories of a plurality of people. The movement trajectory of the person can be output. On the other hand, the control means 4 updates the movement trajectory and profile in real time.

また、複数のカメラ1がある場合に、カメラ1同士は、連動しており、各カメラ1で同時に撮影されている人が同じ人か違う人かを移動軌跡や顔データに基づいて判定するようになっているとともに、同じIDの人が複数のカメラ1で撮影されている場合に、一つのIDに対して一つの移動軌跡が得られるように各カメラ1で連携するようになっている。   In addition, when there are a plurality of cameras 1, the cameras 1 are linked to each other, and it is determined based on the movement trajectory and face data whether the people photographed simultaneously by the cameras 1 are the same or different. In addition, when a person with the same ID is photographed by a plurality of cameras 1, the cameras 1 cooperate with each other so that one movement trajectory is obtained for one ID.

したがって、人が複数のカメラ1の互いに重ならない撮影範囲を順次移動した場合に、各カメラ1で解析される移動軌跡をつなぎ合わせるようになっている。この際に、一方のカメラ1で顔認識され、他方のカメラ1で顔認識されていない人の場合に、顔認識された時点でIDが確定するとともに、顔認識されていないカメラ1でも移動軌跡が顔認識したカメラ1で検出された移動軌跡につながる場合に同じIDが移動軌跡に付けられ、各カメラ1で検出された移動軌跡が接続される。   Therefore, when a person sequentially moves the imaging ranges of the plurality of cameras 1 that do not overlap each other, the movement trajectories analyzed by the cameras 1 are connected together. At this time, in the case of a person whose face is recognized by one camera 1 and whose face is not recognized by the other camera 1, the ID is determined when the face is recognized, and the movement trajectory of the camera 1 whose face is not recognized is also determined. Are connected to the movement locus detected by the camera 1 that has recognized the face, the same ID is attached to the movement locus, and the movement locus detected by each camera 1 is connected.

本実施の形態の監視情報収集システムによれば、人検知と顔認識とにより、監視エリア内に入った人が識別されて識別されたそれぞれの人にIDが付けられるので、監視エリア内の人の氏名等の個人情報がわかっていなくとも、IDで管理可能となる。すなわち、監視エリア内の人が初めて監視エリア内に入った人か、過去に監視エリアに入ったことのある人か、頻繁に監視エリアに入る人かを判断することができ、初めての人が監視エリアに入ったことや、いつも来る人が監視エリアに入ったことを関係者41に報知するようなことが可能となる。   According to the monitoring information collection system of the present embodiment, the person in the monitoring area is identified by the person detection and the face recognition, and each identified person is assigned an ID. Even if personal information such as name is not known, it can be managed by ID. In other words, it is possible to determine whether a person in the monitoring area has entered the monitoring area for the first time, a person who has previously entered the monitoring area, or a person who frequently enters the monitoring area. It becomes possible to notify the related person 41 that the monitoring area has been entered or that a person who has always come into the monitoring area.

監視エリアを店舗50とした場合に、常連の客40が来たことや、初めての客40が来たことを店員に報知することが可能であり、顧客への対応が容易になる。また、店舗50内の各客40の移動と、客40の購入した商品等が分かることにより、各商品の配置や、各商品棚の配置等の店舗50内のレイアウトの参考にすることが可能である。
また、店舗50内のレイアウトの検討用データとしては、記録手段5に外部から入力されて外部情報として、商品の配置(商品棚の配置を含む)を示す配置情報を記録している状態で、上述のように求められた移動軌跡と商品の配置を解析して、客が近づいた商品、客が近づいて立ち止まった商品等を属性情報として記録するようにしてもよい。この場合の商品は、大まかな商品種類であってもよく、例えば、メーカー等が分かる商品名であってもよいが、そこまで特定できない場合に、ノートや文房具を商品の情報としてもよい。
さらに、画像認識により、商品棚54,55の客40が立ち止まった位置にある商品の情報や、客40が商品を手に取った際の商品の画像や手に取られる前の商品の位置から客が手に取った商品の情報を記録してもよい。
When the monitoring area is the store 50, it is possible to notify the store clerk that the regular customer 40 has arrived or the first customer 40 has come, and it is easy to deal with the customer. In addition, by knowing the movement of each customer 40 in the store 50 and the products purchased by the customer 40, it is possible to refer to the layout in the store 50 such as the arrangement of each product and the arrangement of each product shelf. It is.
In addition, as the data for reviewing the layout in the store 50, in the state where the arrangement information indicating the arrangement of the products (including the arrangement of the product shelves) is recorded as the external information input to the recording unit 5 from the outside, The movement trajectory obtained as described above and the arrangement of the products may be analyzed, and the product that the customer has approached, the product that the customer has approached and stopped, and the like may be recorded as attribute information. The product in this case may be a general product type, for example, a product name that can be identified by the manufacturer or the like, but if it cannot be specified to that extent, a notebook or stationery may be used as product information.
Furthermore, by image recognition, the information on the product at the position where the customer 40 of the product shelves 54 and 55 stops, the image of the product when the customer 40 picks up the product, and the position of the product before being picked up by the hand. You may record the information of the goods which the customer took.

これら記録手段5に記録されたデータは、客40毎のデータとして顧客管理に利用され、例えば客が再来店するリピート率や、同じ商品を買うリピート率や、新製品を買う率や、同じ移動軌跡で移動するかなどが求められる。また、当該店舗50または複数の店舗50の全ての客40のデータをまとめて、画像認識される客40の種類(大人/小人、性別など)の構成比、すなわち、小人が多いとか、女性が多いとかや、各客40の移動軌跡と購入商品との相関関係や、各客40の移動軌跡と各客40のプロファイル(属性)との相関関係などを求めることができる。すなわち、マーケティング等のための情報収集において、客40の移動軌跡を利用することが可能となる。   The data recorded in these recording means 5 is used for customer management as data for each customer 40. For example, the repeat rate at which the customer revisits the store, the repeat rate at which the same product is purchased, the rate at which a new product is purchased, and the same movement It is required to move along the trajectory. In addition, the data of all the customers 40 of the store 50 or a plurality of stores 50 are collected and the composition ratio of the types of customers 40 (adult / dwarf, sex, etc.) that are image-recognized, that is, there are many dwarfs, It can be obtained that there are many women, the correlation between the movement trajectory of each customer 40 and the purchased product, the correlation between the movement trajectory of each customer 40 and the profile (attribute) of each customer 40, and the like. That is, the movement trajectory of the customer 40 can be used in collecting information for marketing or the like.

また、監視情報収集システムは、一般的な監視装置として、犯罪発生後に犯罪の関係者の画像を探すことができるが、例えば、被害者や加害者の犯罪関係者の写真等の画像がある場合に、当該写真をカメラ1で撮影して顔認識させて、監視情報収集システムの記録手段5に同一人物が記録されているか否かの判定が可能となる。この際には、必ずしも撮影された動画のデータが無くても、記録された顔データで同一人物が居るか否かを判定できる。したがって、データ容量の大きな動画データを長期間保存しなくても、顔データ等が長期間保存されていれば、犯罪関係者が来たか否かと、来た場合の移動軌跡や購入した商品を知ることが可能となる。   In addition, the monitoring information collection system can search for an image of a criminal related person after a crime occurs as a general monitoring device. For example, when there is an image such as a picture of a criminal related to a victim or a perpetrator In addition, it is possible to determine whether or not the same person is recorded in the recording means 5 of the monitoring information collection system by taking the photograph with the camera 1 and recognizing the face. In this case, it is possible to determine whether or not the same person is present in the recorded face data even if there is no captured moving image data. Therefore, even if video data with a large amount of data is not stored for a long period of time, if face data etc. are stored for a long period of time, it is possible to know whether or not a criminal has arrived, and the movement trajectory and product purchased It becomes possible.

なお、本実施の形態の監視情報収集システムにおける監視エリアは、店舗50に限られるものではなく、集合住宅、テナントビル、工場、美術館、博物館、オフィスビル等の各種施設を監視エリアとすることができる。これら施設を監視エリアとした場合も、人を検知するとともに識別して移動軌跡を検出することができるので、移動軌跡から不審者を見つけることができる。例えば、集合住宅では、エントランスから自分の部屋へ最短のコースで移動するのが通常であり、それ以外の移動軌跡を描く人を要注意者としてもよい。   In addition, the monitoring area in the monitoring information collection system of this Embodiment is not restricted to the store 50, Various facilities, such as a housing complex, a tenant building, a factory, a museum, a museum, an office building, may be used as a monitoring area. it can. Even when these facilities are set as monitoring areas, a person can be detected and identified to detect a movement locus, so that a suspicious person can be found from the movement locus. For example, in an apartment house, it is normal to move from the entrance to your room on the shortest course, and the person who draws the other movement trajectory may be watched.

また、集合住宅以外の施設でも、移動軌跡によって、不審者か否かを判定できる可能性が高く、特に、関係者以外立ち入らないような場所に関係者以外の人が立ち入った場合などに不審者と判定することが可能である。また、上述のように本実施の形態の監視情報収集システムによれば、顔写真等の画像が手に入れば、監視エリア内に立ち入ったか否かを自動で判定可能であるとともに、その移動軌跡とプロファイルを求めることが可能であり、人間がカメラ1の録画された画像を解析するより容易に犯罪関係者が居たか否かを判定することができる。また、客40が出入りする店舗50等の施設ではなく、関係者以外が立ち入ることが少ない施設では、予め関係者を登録しておくことにより、不審者を容易に発見することができる。また、このような施設においては、既に認識されている人物以外の初めて認識された人物を不審者と判定することも可能である。   Also, in facilities other than apartment buildings, there is a high possibility that it is possible to determine whether or not a person is a suspicious person based on the movement trajectory, especially when a person other than the related person enters a place where only a related person cannot enter. Can be determined. Further, as described above, according to the monitoring information collection system of the present embodiment, when an image such as a facial photograph is obtained, it is possible to automatically determine whether or not the person has entered the monitoring area, and the movement locus thereof. The profile can be obtained, and it can be determined whether or not there is a criminal related person more easily than when a human analyzes the recorded image of the camera 1. In addition, it is possible to easily find a suspicious person by registering a related person in advance in a facility where a person other than the related person rarely enters instead of a facility such as the store 50 where the customer 40 enters and exits. In such a facility, it is also possible to determine a person who is recognized for the first time other than a person who has already been recognized as a suspicious person.

1 カメラ
2 撮像手段
3 検知/認識手段
31 人検知手段
32 軌跡解析手段
33 顔認識手段
4 制御手段(顔データ取集手段、顏判定手段、属性解析手段)
5 記録手段
6 通信手段
DESCRIPTION OF SYMBOLS 1 Camera 2 Imaging means 3 Detection / recognition means 31 Human detection means 32 Trajectory analysis means 33 Face recognition means 4 Control means (Face data collection means, wrinkle determination means, attribute analysis means)
5 Recording means 6 Communication means

Claims (6)

監視用の撮像手段と、
前記撮像手段で撮影される画像から人を検知する人検知手段と、
前記人検知手段で検知された人を前記画像上で解析して移動軌跡を求める軌跡解析手段と、
前記人検知手段で検知されるとともに前記軌跡解析手段で前記移動軌跡が求められる人の前記画像上の顔から他の顔と識別可能な顔データを求めて顔を認識する顔認識手段と、
異なる人の前記顔データを互いに識別可能とする識別符号に関連付けて前記顔データと前記顔データに対応する前記移動軌跡を記録する記録手段と、
前記記録手段に記録されている前記顔データに対して前記顔認識手段で求められた前記顔データを比較し、これら顔データが所定の条件を満たすか否かを判定する顏判定手段と、
前記条件を満たす場合に、前記顔認識手段で求められた前記顔データに対応する前記移動軌跡を、当該顔データと一致する前記記録手段に記録された前記顔データに関連付けられた前記識別符号と関連付けて前記記録手段に記録し、
前記条件を満たさない場合に、前記顔認識手段で求められた前記顔データおよび当該顔データに対応する前記移動軌跡に、未だ前記顔データに関連付けられていない前記識別符号を関連付けて前記記録手段に記録する顔データ取集手段とを備えることを特徴とする監視情報収集システム。
Imaging means for monitoring;
Human detection means for detecting a person from an image captured by the imaging means;
Trajectory analysis means for analyzing the person detected by the human detection means on the image to obtain a movement trajectory;
Face recognition means for recognizing a face by obtaining face data that can be distinguished from other faces from the face on the image of the person detected by the person detection means and whose movement locus is obtained by the locus analysis means;
Recording means for recording the face data and the movement trajectory corresponding to the face data in association with identification codes that enable identification of the face data of different people from each other;
A wrinkle determination unit that compares the face data obtained by the face recognition unit with the face data recorded in the recording unit and determines whether or not the face data satisfies a predetermined condition;
When the condition is satisfied, the movement trajectory corresponding to the face data obtained by the face recognition unit is converted to the identification code associated with the face data recorded in the recording unit that matches the face data. Record in association with the recording means,
When the condition is not satisfied, the face data obtained by the face recognition unit and the movement locus corresponding to the face data are associated with the identification code not yet associated with the face data to the recording unit. A monitoring information collecting system comprising: face data collecting means for recording.
複数の前記撮像手段を備え、前記軌跡解析手段は、複数の前記撮像手段でそれぞれ撮影される画像に基づいて、複数の前記撮像手段の各撮影範囲を合わせた範囲内で移動軌跡を求めることを特徴とする請求項1に記載の監視情報収集システム。   A plurality of the imaging means, and the trajectory analysis means obtains a movement trajectory within a range obtained by combining the imaging ranges of the plurality of imaging means based on images respectively captured by the plurality of imaging means. The monitoring information collection system according to claim 1, wherein 前記顔データの属性となる属性情報を、少なくとも前記画像、前記移動軌跡または外部から入力される外部情報から求める属性解析手段を備え、
前記記録手段は、前記属性解析手段により求められた前記属性情報を前記識別符号に関連付けて記録することを特徴とする請求項1または2に記載の監視情報収集システム。
Attribute analysis means for obtaining attribute information as an attribute of the face data from at least the image, the movement locus, or external information input from the outside,
The monitoring information collection system according to claim 1, wherein the recording unit records the attribute information obtained by the attribute analysis unit in association with the identification code.
前記撮像手段が、商品が陳列されている店舗に配置され、
前記属性解析手段は、前記外部情報として前記商品の配置を示す配置情報が入力され、前記配置情報および前記移動軌跡とに基づいて、顏認識された人が近づいた商品を示す情報を前記属性情報とすることを特徴とする請求項3に記載の監視情報収集システム。
The imaging means is disposed in a store where merchandise is displayed,
The attribute analysis unit receives, as the external information, arrangement information indicating the arrangement of the product, and based on the arrangement information and the movement trajectory, indicates information indicating a product approached by a person who has been recognized as wrinkles. The monitoring information collecting system according to claim 3, wherein:
前記撮像手段が、会計された商品を示す会計情報を出力可能なキャッシュレジスタを有する店舗に配置され、
前記属性解析手段は、前記外部情報として入力された前記会計情報を、当該会計情報に対応する会計が前記キャッシュレジスタで行われた際に、前記キャッシュレジスタに近い位置となる前記移動軌跡に対応する前記属性情報とすることを特徴とする請求項3または請求項4に記載の監視情報収集システム。
The imaging means is disposed in a store having a cash register capable of outputting accounting information indicating a product for which accounting has been performed,
The attribute analysis means corresponds to the movement trajectory that is close to the cash register when the accounting corresponding to the accounting information is performed in the cash register. The monitoring information collection system according to claim 3 or 4, wherein the attribute information is used.
前記記録手段には、特定の人に対する顔データが特定の人であることを識別可能に記録され、前記顔認識手段は、前記顔データから特定の人を識別することを特徴とする請求項1〜請求項5のいずれか1項に記載の監視情報収集システム。
The face data for a specific person is recorded in the recording means so as to be identifiable as a specific person, and the face recognition means identifies the specific person from the face data. The monitoring information collection system according to any one of claims 5 to 6.
JP2016232989A 2016-11-30 2016-11-30 Monitoring information collection system Active JP6909575B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016232989A JP6909575B2 (en) 2016-11-30 2016-11-30 Monitoring information collection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016232989A JP6909575B2 (en) 2016-11-30 2016-11-30 Monitoring information collection system

Publications (2)

Publication Number Publication Date
JP2018093283A true JP2018093283A (en) 2018-06-14
JP6909575B2 JP6909575B2 (en) 2021-07-28

Family

ID=62565681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016232989A Active JP6909575B2 (en) 2016-11-30 2016-11-30 Monitoring information collection system

Country Status (1)

Country Link
JP (1) JP6909575B2 (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543312A (en) * 2018-11-27 2019-03-29 珠海市新德汇信息技术有限公司 A kind of space-time investigation analysis method and system
CN110411455A (en) * 2019-08-22 2019-11-05 广东鉴面智能科技有限公司 A kind of location navigation and trace playback system and method based on recognition of face
JP2020021618A (en) * 2018-07-31 2020-02-06 積水化学工業株式会社 Public facility, server device, server program, and learnt model
CN110969644A (en) * 2018-09-28 2020-04-07 杭州海康威视数字技术股份有限公司 Personnel trajectory tracking method, device and system
CN110992397A (en) * 2019-10-21 2020-04-10 浙江大华技术股份有限公司 Personnel entrance and exit trajectory tracking method and system, computer equipment and storage medium
JP2020091812A (en) * 2018-12-07 2020-06-11 株式会社鈴康 Information processing system, information processing method, and program
JP2020091832A (en) * 2019-08-01 2020-06-11 株式会社鈴康 Information processing system, information processing method, and program
JP2020102135A (en) * 2018-12-25 2020-07-02 清水建設株式会社 Tracking system, tracking processing method, and program
CN111382650A (en) * 2018-12-28 2020-07-07 阿里巴巴集团控股有限公司 Commodity shopping processing system, method and device and electronic equipment
CN111476183A (en) * 2020-04-13 2020-07-31 腾讯科技(深圳)有限公司 Passenger flow information processing method and device
WO2020218463A1 (en) * 2019-04-24 2020-10-29 株式会社日立製作所 Image processing device and image processing method
WO2020241034A1 (en) * 2019-05-30 2020-12-03 アースアイズ株式会社 Monitoring system and monitoring method
JP2020195110A (en) * 2019-05-30 2020-12-03 アースアイズ株式会社 Monitoring system and monitoring method for common space
JP2020204942A (en) * 2019-06-18 2020-12-24 凸版印刷株式会社 Customer information acquisition support system and customer information acquisition support method
JPWO2020261378A1 (en) * 2019-06-25 2020-12-30
CN112305558A (en) * 2020-10-22 2021-02-02 中国人民解放军战略支援部队信息工程大学 Mobile robot track determination method and device by using laser point cloud data
CN112712544A (en) * 2019-10-25 2021-04-27 纬创资通股份有限公司 Person tracking system and person tracking method
CN112906439A (en) * 2019-12-04 2021-06-04 上海稻知信息科技有限公司 Passenger flow analysis method and system based on target tracking and behavior detection
WO2021240889A1 (en) * 2020-05-28 2021-12-02 ソニーグループ株式会社 Information processing device, information processing method, and program
CN115018433A (en) * 2022-08-10 2022-09-06 四川港投新通道物流产业投资集团有限公司 Wine supply chain monitoring method, device, equipment and medium
CN115546703A (en) * 2022-11-21 2022-12-30 浙江莲荷科技有限公司 Risk identification method, device and equipment for self-service cash register and storage medium
CN115576378A (en) * 2022-11-18 2023-01-06 南京运享通信息科技有限公司 Power supply energy consumption optimization analysis method and system for intelligent stadium
WO2023113006A1 (en) * 2021-12-17 2023-06-22 日本電気通信システム株式会社 Information processing device, information processing method, and information processing program
KR20230155432A (en) 2021-03-09 2023-11-10 소니 세미컨덕터 솔루션즈 가부시키가이샤 Imaging device, tracking system and imaging method
JP7447986B2 (en) 2020-03-02 2024-03-12 日本電気株式会社 Customer management device, customer management method, and program
CN117850599A (en) * 2024-02-22 2024-04-09 荣耀终端有限公司 Distance determination method, distance detection model generation method and distance determination system
JP7476681B2 (en) 2020-06-10 2024-05-01 東芝ライテック株式会社 Lighting System

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263641A (en) * 2002-03-11 2003-09-19 Mitsubishi Heavy Ind Ltd Movement analyzing device
JP2009265839A (en) * 2008-04-23 2009-11-12 Toshiba Corp Storage device
JP2010055594A (en) * 2008-07-31 2010-03-11 Nec Software Kyushu Ltd Traffic line management system and program
JP2010113662A (en) * 2008-11-10 2010-05-20 Cec:Kk Purchase analysis system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263641A (en) * 2002-03-11 2003-09-19 Mitsubishi Heavy Ind Ltd Movement analyzing device
JP2009265839A (en) * 2008-04-23 2009-11-12 Toshiba Corp Storage device
JP2010055594A (en) * 2008-07-31 2010-03-11 Nec Software Kyushu Ltd Traffic line management system and program
JP2010113662A (en) * 2008-11-10 2010-05-20 Cec:Kk Purchase analysis system

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021618A (en) * 2018-07-31 2020-02-06 積水化学工業株式会社 Public facility, server device, server program, and learnt model
CN110969644B (en) * 2018-09-28 2023-12-01 杭州海康威视数字技术股份有限公司 Personnel track tracking method, device and system
CN110969644A (en) * 2018-09-28 2020-04-07 杭州海康威视数字技术股份有限公司 Personnel trajectory tracking method, device and system
CN109543312A (en) * 2018-11-27 2019-03-29 珠海市新德汇信息技术有限公司 A kind of space-time investigation analysis method and system
CN109543312B (en) * 2018-11-27 2023-04-07 珠海市新德汇信息技术有限公司 Space-time investigation analysis method and system
JP2020091812A (en) * 2018-12-07 2020-06-11 株式会社鈴康 Information processing system, information processing method, and program
WO2020116482A1 (en) * 2018-12-07 2020-06-11 株式会社鈴康 Information processing system, information processing method, and program
JP2020102135A (en) * 2018-12-25 2020-07-02 清水建設株式会社 Tracking system, tracking processing method, and program
CN111382650B (en) * 2018-12-28 2023-05-02 阿里巴巴集团控股有限公司 Commodity shopping processing system, method and device and electronic equipment
CN111382650A (en) * 2018-12-28 2020-07-07 阿里巴巴集团控股有限公司 Commodity shopping processing system, method and device and electronic equipment
JP7233292B2 (en) 2019-04-24 2023-03-06 株式会社日立製作所 Image processing device and image processing method
WO2020218463A1 (en) * 2019-04-24 2020-10-29 株式会社日立製作所 Image processing device and image processing method
JP2020182063A (en) * 2019-04-24 2020-11-05 株式会社日立製作所 Image processing device and image processing method
WO2020241034A1 (en) * 2019-05-30 2020-12-03 アースアイズ株式会社 Monitoring system and monitoring method
JP2020195110A (en) * 2019-05-30 2020-12-03 アースアイズ株式会社 Monitoring system and monitoring method for common space
JP2020204942A (en) * 2019-06-18 2020-12-24 凸版印刷株式会社 Customer information acquisition support system and customer information acquisition support method
JPWO2020261378A1 (en) * 2019-06-25 2020-12-30
WO2020261378A1 (en) * 2019-06-25 2020-12-30 日本電気株式会社 Trajectory linking device, trajectory linking method, and non-temporary computer-readable medium with program stored therein
JP2020091832A (en) * 2019-08-01 2020-06-11 株式会社鈴康 Information processing system, information processing method, and program
CN110411455A (en) * 2019-08-22 2019-11-05 广东鉴面智能科技有限公司 A kind of location navigation and trace playback system and method based on recognition of face
CN110992397A (en) * 2019-10-21 2020-04-10 浙江大华技术股份有限公司 Personnel entrance and exit trajectory tracking method and system, computer equipment and storage medium
CN112712544A (en) * 2019-10-25 2021-04-27 纬创资通股份有限公司 Person tracking system and person tracking method
CN112906439A (en) * 2019-12-04 2021-06-04 上海稻知信息科技有限公司 Passenger flow analysis method and system based on target tracking and behavior detection
JP7447986B2 (en) 2020-03-02 2024-03-12 日本電気株式会社 Customer management device, customer management method, and program
CN111476183A (en) * 2020-04-13 2020-07-31 腾讯科技(深圳)有限公司 Passenger flow information processing method and device
WO2021240889A1 (en) * 2020-05-28 2021-12-02 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7476681B2 (en) 2020-06-10 2024-05-01 東芝ライテック株式会社 Lighting System
CN112305558B (en) * 2020-10-22 2023-08-01 中国人民解放军战略支援部队信息工程大学 Mobile robot track determination method and device using laser point cloud data
CN112305558A (en) * 2020-10-22 2021-02-02 中国人民解放军战略支援部队信息工程大学 Mobile robot track determination method and device by using laser point cloud data
KR20230155432A (en) 2021-03-09 2023-11-10 소니 세미컨덕터 솔루션즈 가부시키가이샤 Imaging device, tracking system and imaging method
WO2023113006A1 (en) * 2021-12-17 2023-06-22 日本電気通信システム株式会社 Information processing device, information processing method, and information processing program
CN115018433A (en) * 2022-08-10 2022-09-06 四川港投新通道物流产业投资集团有限公司 Wine supply chain monitoring method, device, equipment and medium
CN115576378A (en) * 2022-11-18 2023-01-06 南京运享通信息科技有限公司 Power supply energy consumption optimization analysis method and system for intelligent stadium
CN115546703A (en) * 2022-11-21 2022-12-30 浙江莲荷科技有限公司 Risk identification method, device and equipment for self-service cash register and storage medium
CN117850599A (en) * 2024-02-22 2024-04-09 荣耀终端有限公司 Distance determination method, distance detection model generation method and distance determination system

Also Published As

Publication number Publication date
JP6909575B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP6909575B2 (en) Monitoring information collection system
JP7371614B2 (en) Store management device and store management method
US9858474B2 (en) Object tracking and best shot detection system
TWI778030B (en) Store apparatus, store management method and program
JP7448065B2 (en) Store equipment, store systems, store management methods, programs
JP2020115344A6 (en) Autonomous store tracking system
JP2011248836A (en) Residence detection system and program
WO2018180588A1 (en) Facial image matching system and facial image search system
US11881090B2 (en) Investigation generation in an observation and surveillance system
EP4075399A1 (en) Information processing system
JP2011039959A (en) Monitoring system
JP2006285409A (en) Method for counting number of people and people flow at store or the like, and method for suggesting in-store merchandizing using the same
JP2014160394A (en) Service provision system
TWI671701B (en) System and method for detecting trading behavior
JP2018110023A (en) Target detection method
CA3068692A1 (en) Investigation generation in an observation and surveillance system
JP6305483B2 (en) Computer apparatus, service providing system, service providing method, and program
JP7237871B2 (en) Target detection method
JP6498065B2 (en) Information processing apparatus, processing method, and program
JP7015430B2 (en) Prospect information collection system and its collection method
US20220269890A1 (en) Method and system for visual analysis and assessment of customer interaction at a scene
US20230342746A1 (en) Information processing apparatus, information processing method, and storage medium
JP7135329B2 (en) Information processing method, information processing apparatus, and information processing program
WO2018134854A1 (en) Movement analysis from visual and audio data
US20240161567A1 (en) Investigation generation in an observation and surveillance system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R150 Certificate of patent or registration of utility model

Ref document number: 6909575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111