JP2021106330A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2021106330A
JP2021106330A JP2019236976A JP2019236976A JP2021106330A JP 2021106330 A JP2021106330 A JP 2021106330A JP 2019236976 A JP2019236976 A JP 2019236976A JP 2019236976 A JP2019236976 A JP 2019236976A JP 2021106330 A JP2021106330 A JP 2021106330A
Authority
JP
Japan
Prior art keywords
person
registered
list
information
object list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019236976A
Other languages
Japanese (ja)
Inventor
佑治 河合
Yuji Kawai
佑治 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019236976A priority Critical patent/JP2021106330A/en
Publication of JP2021106330A publication Critical patent/JP2021106330A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To enable information in responding to result of detection of an object to be managed as a list in a preferred manner even when an erroneous detection of the object may occur.SOLUTION: An information processing apparatus 100 manages each object detected from within a region of interest as an object list 104 by associating a feature value corresponding to a detection result of the object. The information processing apparatus 100 compares the number of registered objects in the object list 104 with the estimated number of individuals of the objects existing in the region of interest to perform a process for correcting the object list 104 based on the result of the comparison.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。 The present disclosure relates to information processing devices, information processing methods, and programs.

近年では、各種解析技術の発展に伴い、監視カメラ等の撮像部による撮像結果に応じた画像等の情報から、人物等の所定の対象物を検出することで、当該検出結果を所謂行動解析等のような各種分析に応用する技術の検討が行われている。特許文献1には、複数の監視カメラそれぞれによる撮像結果に応じた映像から同一の人物を検出し、当該検出の結果に基づき当該人物の行動を解析する技術が開示されている。 In recent years, with the development of various analysis technologies, by detecting a predetermined object such as a person from information such as an image according to the image capture result by an imaging unit such as a surveillance camera, the detection result is so-called behavior analysis or the like. The technology to be applied to various analyzes such as the above is being studied. Patent Document 1 discloses a technique of detecting the same person from an image corresponding to an image captured by each of a plurality of surveillance cameras and analyzing the behavior of the person based on the detection result.

対象物の検出結果を各種分析に利用する場合には、対象物の検出結果をリストとして管理する場合がある。このようなリストでは、互いに異なる契機で検出された対象物であったとしても、類似度の判定等に基づきそれらが同一の対象物と判定された場合には、共通の対象物の情報として管理される場合がある。このようなリストを利用することで、検出された人物(対象物)の行動履歴を取得することも可能となり、複数の人物の行動履歴を利用することで当該複数の人物間における行動の相関性の分析等を行うことも可能となる。特許文献2及び3には、対象物の検出結果に応じた上記リストの生成や管理に係る技術が開示されている。 When the detection result of the object is used for various analyzes, the detection result of the object may be managed as a list. In such a list, even if the objects are detected at different moments, if they are determined to be the same object based on the judgment of similarity, etc., they are managed as information of the common object. May be done. By using such a list, it is possible to acquire the behavior history of the detected person (object), and by using the behavior history of a plurality of people, the correlation of the behavior among the plurality of people is possible. It is also possible to analyze the above. Patent Documents 2 and 3 disclose techniques for generating and managing the above list according to the detection result of the object.

特開2014−78150号公報Japanese Unexamined Patent Publication No. 2014-78150 特許第4778532号公報Japanese Patent No. 4778532 特許第4753193号公報Japanese Patent No. 4753193

一方で、対象物の検出に係る精度が必ずしも高いとは限らず、一部の対象物が検出されない場合がある。また、例えば、互いに異なる契機で検出された同一の対象物(例えば、互いに異なる検知部により検知された同一の対象物)が、互いに異なる対象物として認識されるような状況も想定され得る。また、検知部からは死角となる位置に存在する対象物については、当該検知部により当該対象物の検知が行われない可能性が高い。このような状況下では、リストに情報が登録されている対象物の一覧と、対象物の検出の対象とする領域(以降では、「関心領域」とも称する)に実際に存在する対象物の一覧と、の間に乖離が生じる場合がある。このような情報の乖離は、例えば、上記リストを利用した分析の精度を低下させる一要因となり得る。 On the other hand, the accuracy of detecting an object is not always high, and some objects may not be detected. Further, for example, it is possible to assume a situation in which the same object detected by different triggers (for example, the same object detected by different detection units) is recognized as a different object. Further, it is highly possible that the detection unit does not detect the object that exists at a position that becomes a blind spot from the detection unit. Under such circumstances, a list of objects whose information is registered in the list and a list of objects that actually exist in the area to be detected (hereinafter, also referred to as "area of interest"). There may be a discrepancy between and. Such dissociation of information can be a factor that reduces the accuracy of analysis using the above list, for example.

本発明は上記の問題を鑑み、対象物の誤検知が発生し得る状況下においても、当該対象物の検知結果に応じた情報をより好適な態様でリストとして管理可能とすることを目的とする。 In view of the above problems, it is an object of the present invention to make it possible to manage information according to the detection result of the object as a list in a more preferable manner even in a situation where false detection of the object may occur. ..

本発明に係る情報処理装置は、所定の関心領域のうち少なくとも一部の領域を対象物の検知の対象とする1以上の検知部それぞれによる当該対象物の検知結果に応じた第1の情報を取得する第1の取得手段と、前記対象物ごとに前記第1の情報を関連付けてリストとして管理する管理手段と、前記関心領域内に存在する前記対象物の個体数の推定結果に応じた第2の情報を取得する第2の取得手段と、を備え、前記管理手段は、前記リストに対する前記対象物の登録数と、前記第2の情報が示す前記個体数と、を比較し、当該比較の結果に基づき、前記リストの補正に関する処理を実行する。 The information processing apparatus according to the present invention provides first information according to the detection result of the object by each of one or more detection units whose target is at least a part of a predetermined area of interest. The first acquisition means to be acquired, the management means for managing the first information in association with each object as a list, and the first according to the estimation result of the number of individuals of the object existing in the region of interest. The management means includes a second acquisition means for acquiring the information of 2, and the management means compares the number of registered objects in the list with the number of individuals indicated by the second information, and makes the comparison. Based on the result of, the process related to the correction of the list is executed.

本発明によれば、対象物の誤検知が発生し得る状況下においても、当該対象物の検知結果に応じた情報をより好適な態様でリストとして管理することが可能となる。 According to the present invention, it is possible to manage information according to the detection result of the object as a list in a more preferable manner even in a situation where false detection of the object may occur.

情報処理装置の機能構成の一例を示したブロック図である。It is a block diagram which showed an example of the functional structure of an information processing apparatus. 情報処理装置のハードウェア構成の一例を示した図である。It is a figure which showed an example of the hardware configuration of an information processing apparatus. 実施例1に係るシステムの適用条件を示した図である。It is a figure which showed the application condition of the system which concerns on Example 1. FIG. 実施例1に係る情報処理装置の処理の一例を示したフローチャートである。It is a flowchart which showed an example of the processing of the information processing apparatus which concerns on Example 1. FIG. 実施例1に係る情報処理装置の処理の一例を示したフローチャートである。It is a flowchart which showed an example of the processing of the information processing apparatus which concerns on Example 1. FIG. 実施例1に係る情報処理装置の処理の一例を示したフローチャートである。It is a flowchart which showed an example of the processing of the information processing apparatus which concerns on Example 1. FIG. 実施例1に係る情報処理装置の処理の一例を示したフローチャートである。It is a flowchart which showed an example of the processing of the information processing apparatus which concerns on Example 1. FIG. 実施例2に係る情報処理装置の処理の一例を示したフローチャートである。It is a flowchart which showed an example of the processing of the information processing apparatus which concerns on Example 2. 実施例2に係る情報処理装置の処理の一例を示したフローチャートである。It is a flowchart which showed an example of the processing of the information processing apparatus which concerns on Example 2. 実施例2に係る情報処理装置の処理の一例を示したフローチャートである。It is a flowchart which showed an example of the processing of the information processing apparatus which concerns on Example 2.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

<対象物の検知と検知結果の利用>
本実施形態に係る情報処理装置の特徴をよりわかりやすくするために、まず人物等の対象物の検知に係る技術の一例について概要を説明したうえで、対象物の検知結果の利用に係る技術的課題について説明する。
<Detection of objects and use of detection results>
In order to make the features of the information processing device according to the present embodiment easier to understand, first, an outline of an example of a technique for detecting an object such as a person is explained, and then a technical technique for using the detection result of the object is given. Explain the issues.

施設等を訪れる人物の行動履歴を取得する方法の一例として、複数の撮像部(例えば、デジタルビデオカメラ等)により被写体として撮像される同一の人物を、撮像結果に応じた画像から抽出される当該被写体の特徴に基づき特定する技術が知られている。
具体的には、施設内の人物のリストを用い、撮像部により撮像された画像から人物が検出された場合に、当該検出結果に応じた情報と、当該リストに登録された一連の人物の情報と、を照合することで、検出された人物の特定を行うことが可能である。これにより、撮像部に撮像された画像から検出された人物が、いつ、どこにいたのかを、当該撮像部が設置された位置や当該画像が撮像されたタイミングに基づき特定することが可能となる。
また、複数の撮像部にわたって、撮像された画像からの人物の特定が行われることで、1つの撮像部の撮像範囲よりも広い領域を対象として、より長い期間にわたって、当該人物が、いつ、どこにいたのかを示す行動履歴を取得することが可能となる。
また、撮像された画像を解析し、当該解析の結果に基づき被写体として撮像された人物がどのような行動をとっているかを検出することで、より詳細な行動履歴を取得することが可能となる。
以上のようにして、多様な人物の行動履歴を取得することで、当該行動履歴に基づき、例えば、複数の人物それぞれの行動の相関性の分析や、異常な行動を行っている人物の検出等を行うことが可能となる。
As an example of a method of acquiring the behavior history of a person who visits a facility or the like, the same person imaged as a subject by a plurality of imaging units (for example, a digital video camera or the like) is extracted from an image according to the imaging result. A technique for identifying a subject based on the characteristics of the subject is known.
Specifically, when a person is detected from an image captured by the imaging unit using a list of people in the facility, information according to the detection result and information on a series of people registered in the list are used. By collating with and, it is possible to identify the detected person. This makes it possible to identify when and where the person detected from the image captured by the imaging unit was based on the position where the imaging unit is installed and the timing at which the image was captured.
In addition, by identifying a person from the captured image across a plurality of imaging units, the person can be identified when, where, and over a longer period of time in a region wider than the imaging range of one imaging unit. It is possible to acquire an action history indicating whether or not the person was there.
In addition, by analyzing the captured image and detecting what kind of behavior the person captured as the subject is taking based on the result of the analysis, it is possible to acquire a more detailed behavior history. ..
By acquiring the behavior history of various persons as described above, based on the behavior history, for example, analysis of the correlation of the behavior of each of a plurality of persons, detection of a person performing an abnormal behavior, etc. Can be done.

具体的な一例として、テーマパークでの人物の行動履歴を蓄積して利用することで、現在テーマパーク内に存在する人物がどのようなアトラクションに訪れる傾向があるかを分析し、当該分析の結果を利用して混雑緩和策をリアルタイムで講じることが可能となる。
また、商業施設において複数の店舗にわたって顧客がどのような商品を手に取るかを行動履歴として蓄積し、当該行動履歴を利用して顧客の興味のパターンを分析することで、より効果的なマーケティング施策を講じることも可能となる。
As a specific example, by accumulating and using the behavior history of people in theme parks, we analyze what kind of attractions people currently in the theme park tend to visit, and the results of the analysis. It is possible to take congestion mitigation measures in real time using.
In addition, more effective marketing is achieved by accumulating what kind of products a customer picks up across multiple stores in a commercial facility as an action history and analyzing the pattern of customer interest using the action history. It is also possible to take measures.

ここで、複数の撮像部それぞれの撮像結果に応じた画像に基づき人物の行動履歴を取得するために利用されるリスト(以下、「対象物リスト」とも称する)の作成方法の一例について概要を説明する。施設内に存在する人物についての対象物リストは、例えば、施設内で検出された人物の対象物リストへの登録と、当該施設から離れた人物の対象物リストからの削除と、を行うことで作成及び管理を行うことが可能となる。 Here, an outline of an example of a method for creating a list (hereinafter, also referred to as an "object list") used for acquiring a person's action history based on an image corresponding to an image captured by each of a plurality of imaging units will be described. do. The object list for a person existing in the facility can be obtained by, for example, registering the person detected in the facility in the object list and deleting the person away from the facility from the object list. It becomes possible to create and manage.

具体的な一例として、施設の出入口から入場する人物を検知する撮像部と、出入口から退出する人物を検知する撮像部と、を利用することで、施設内に存在する人物について対象物リストを作成及び管理する方法が提案されている。
具体的には、出入口から入場する人物を検知する撮像部は、施設内に入場する人物を正面から撮像可能となるように設置位置や画角の調整が行われる。また、出入口から退場する人物を検知する撮像部は、施設内から退出する人物を正面から撮像可能となるように設置位置や画角の調整が行われる。このような構成の基で、入場する人物が検知された場合に対象物リストに当該人物が登録され、退場する人物が検知された場合に対象物リストから当該人物が削除される。これにより、施設内に存在する人物の対象物リストの作成及び管理を行うことが可能となる。
なお、以降の説明では、上記に説明した対象物のリストの作成及び管理方法を、便宜上「比較例1」とも称する。
As a specific example, an object list is created for a person existing in the facility by using an imaging unit that detects a person entering from the entrance / exit of the facility and an imaging unit that detects a person leaving the entrance / exit of the facility. And methods of management have been proposed.
Specifically, the imaging unit that detects a person entering from the entrance / exit adjusts the installation position and the angle of view so that the person entering the facility can be imaged from the front. In addition, the imaging unit that detects a person leaving the entrance / exit adjusts the installation position and angle of view so that the person leaving the facility can be imaged from the front. Based on such a configuration, when a person entering is detected, the person is registered in the object list, and when a person leaving is detected, the person is deleted from the object list. This makes it possible to create and manage an object list of persons existing in the facility.
In the following description, the method of creating and managing the list of objects described above will also be referred to as "Comparative Example 1" for convenience.

また、他の一例として、撮像部により撮像された画像からの人物の検出結果を、対象物リストに登録された一連の人物と照合し、いずれの人物とも異なると判定された場合に、検出された人物を新規登場人物として対象物リストに登録する方法が提案されている。また、この方法では、対象物リストに登録された人物が一定期間検出されなかった場合に、当該人物が既に施設内から退場したと判断され、対象物リストから当該人物が削除される。これにより、施設内に存在する人物の対象物リストの作成及び管理を行うことが可能となる。
なお、以降の説明では、上記に説明した対象物のリストの作成及び管理方法を、便宜上「比較例2」とも称する。
Further, as another example, when the detection result of a person from the image captured by the imaging unit is collated with a series of persons registered in the object list and it is determined that the person is different from any of the persons, the person is detected. A method has been proposed in which a new character is registered in the object list as a new character. Further, in this method, when the person registered in the object list is not detected for a certain period of time, it is determined that the person has already left the facility, and the person is deleted from the object list. This makes it possible to create and manage an object list of persons existing in the facility.
In the following description, the method of creating and managing the list of objects described above will also be referred to as "Comparative Example 2" for convenience.

一方で、画像から人物を検出する場合等のように、所定の対象物の検出に係る精度は、当該検出に利用される装置の能力や、当該検出が行われる環境等に依存し、必ずしも高い検出精度を実現することが可能とは限らず、一部の対象物が検出されない場合もある。そのため、例えば、比較例1に係る方法では、出入口から入退場する人物のうち、一部の人物の検出に失敗する可能性がある。
また、出入口として比較的広い領域が確保されている施設では、人物の検知または検出(以降では、これらを総じて単に「検出」と称する場合がある)に利用される撮像部の画角内に出入口を収めることが困難な場合も想定され得る。このような状況下では、例えば、撮像部の画角内に収まらない領域を通過した人物については、検出が行われず、対象物リストへの登録や対象物リストからの削除の対象から除外される場合がある。
これに対して、複数の撮像部を利用してより広い画角を確保する方法が適用される場合がある。この場合には、例えば、2以上の撮像部それぞれにより同一の人物が個別に撮像される可能性があり、当該2以上の撮像部それぞれの撮像範囲が重複する領域において検出された人物が、同一の人物か否かの判定が行われる場合がある。
しかしながら、この場合には、対象物リストが実態(施設内の状態)をより正確に反映しているか否かは、互いに異なる撮像部それぞれの撮像結果に応じた画像に基づき検出された人物が同一の人物か否かの判定に係る精度に依存することとなる。すなわち、上記判定に係る精度に応じて、同一人物が誤って互いに異なる人物として判定されるような状況も想定され得る。このような状況下では、同一人物が互いに異なる人物として重複して登録される事態、新規に登場した人物が登録されない事態、既に登録された人物が異なる人物として登録される事態、及び既に退出した人物が削除されない事態等が発生する場合がある。
On the other hand, the accuracy of detecting a predetermined object, such as when detecting a person from an image, depends on the ability of the device used for the detection, the environment in which the detection is performed, and the like, and is not necessarily high. It is not always possible to achieve detection accuracy, and some objects may not be detected. Therefore, for example, in the method according to Comparative Example 1, there is a possibility that the detection of some of the persons entering and exiting from the doorway may fail.
Further, in a facility where a relatively large area is secured as an entrance / exit, the entrance / exit is within the angle of view of the imaging unit used for detecting or detecting a person (hereinafter, these may be collectively referred to simply as "detection"). It can be assumed that it is difficult to store. Under such circumstances, for example, a person who has passed through an area that does not fit within the angle of view of the imaging unit is not detected and is excluded from the target of registration in the object list or deletion from the object list. In some cases.
On the other hand, a method of securing a wider angle of view by using a plurality of imaging units may be applied. In this case, for example, the same person may be individually imaged by each of the two or more imaging units, and the person detected in the area where the imaging ranges of the two or more imaging units overlap is the same. It may be determined whether or not the person is a person.
However, in this case, whether or not the object list reflects the actual situation (state in the facility) more accurately depends on the same person detected based on the images corresponding to the imaging results of the different imaging units. It depends on the accuracy of determining whether or not the person is a person. That is, a situation may be assumed in which the same person is erroneously determined as a different person depending on the accuracy of the determination. Under such circumstances, the same person is registered as a different person, the newly appearing person is not registered, the already registered person is registered as a different person, and the person has already left. In some cases, the person may not be deleted.

また、比較例2に係る方法についても、対象物リストが実態(施設内の状態)をより正確に反映しているか否かは、検出された人物と対象物リストに登録された一連の人物との間の照合に係る精度に依存することとなる。すなわち、当該照合において判定に誤りが生じた場合には、比較例1について上述した例と同様に、対象物リストへの人物の登録や、対象物リストからの人物の削除が誤って行われる可能性がある。
また、比較例2に係る方法においては、撮像部の撮像範囲外(死角)に位置する人物や、画像中に撮像されていたとしても当該画像からの検出に失敗した人物については、対象物リストに登録された一連の人物との照合の対象から除外されることとなる。そのため、このような場合においても、対象物リストへの人物の登録や、対象物リストからの人物の削除が誤って行われる可能性がある。
Also, regarding the method according to Comparative Example 2, whether or not the object list reflects the actual situation (state in the facility) more accurately depends on the detected person and the series of persons registered in the object list. It will depend on the accuracy of the collation between. That is, if an error occurs in the determination in the collation, the person may be erroneously registered in the object list or deleted from the object list in the same manner as in the above-mentioned example for the comparative example 1. There is sex.
Further, in the method according to Comparative Example 2, a person who is located outside the imaging range (blind spot) of the imaging unit or a person who fails to be detected from the image even if the image is captured in the image is listed as an object. It will be excluded from the target of collation with a series of persons registered in. Therefore, even in such a case, there is a possibility that the person is registered in the object list or the person is deleted from the object list by mistake.

以上のような状況下では、時間の経過とともに施設内に存在するが対象物リストには登録されていない人物、施設内には存在しないが対象物リストに登録されている人物、及び対象物リストに重複して登録が行われた人物が増加することとなる。すなわち、対象物リストと実態(施設内の状態)との間の乖離がより大きくなり、例えば、人物の行動履歴の取得や、当該行動履歴に基づく分析等のような、当該対象物リストを利用した分析に係る精度が低下する可能性がある。
以上のような状況を鑑み、本開示では、人物等の対象物の誤検知や誤検出が発生し得る状況下においても、当該対象物の検知結果や検出結果に応じた対象物リストをより好適な態様で管理可能とする技術の一例を提案する。具体的には、本開示では、対象物リストに登録された対象物の一覧と、施設等の所定の関心領域に存在する対象物の一覧と、の間の乖離をより抑制可能とする技術の一例を提案する。
Under the above circumstances, a person who exists in the facility but is not registered in the object list over time, a person who does not exist in the facility but is registered in the object list, and an object list. The number of people who have been registered more than once will increase. That is, the divergence between the object list and the actual situation (state in the facility) becomes larger, and the object list is used, for example, acquisition of a person's action history or analysis based on the action history. The accuracy of the analysis may be reduced.
In view of the above circumstances, in the present disclosure, even in a situation where false detection or false detection of an object such as a person may occur, the detection result of the object or the target list according to the detection result is more preferable. We propose an example of a technology that enables management in various aspects. Specifically, in the present disclosure, a technique that makes it possible to further suppress the discrepancy between the list of objects registered in the object list and the list of objects existing in a predetermined area of interest such as a facility. I propose an example.

<機能構成>
図1を参照して、本実施形態に係る情報処理装置100の機能構成の一例について説明する。情報処理装置100は、所定の領域を関心領域として、当該関心領域の少なくとも一部の領域を対象とした所定の検知部による所定の対象物の検知結果に応じた情報を取得し、上記関心領域内に存在する上記対象物のリスト(対象物リスト)の作成及び更新を行う。
なお、本開示において、対象物とは、行動履歴等のような各種情報の取得対象となる任意の物体に相当し、例えば、人物、動物、移動体(例えば、車両や飛行機等)、ロボット等が含まれる。また、関心領域とは、対象物に関する各種情報(例えば、行動履歴等)の取得の対象とする任意の領域に相当し、例えば、商業施設、競技場、及び住宅街等が該当し得る。
<Functional configuration>
An example of the functional configuration of the information processing apparatus 100 according to the present embodiment will be described with reference to FIG. The information processing device 100 acquires information according to the detection result of a predetermined object by a predetermined detection unit targeting at least a part of the region of interest with the predetermined region as the region of interest, and obtains the information according to the detection result of the predetermined object. Create and update the list of the above objects (object list) existing in.
In the present disclosure, the object corresponds to an arbitrary object for which various information such as an action history is to be acquired, for example, a person, an animal, a moving body (for example, a vehicle, an airplane, etc.), a robot, or the like. Is included. Further, the area of interest corresponds to an arbitrary area for which various information (for example, behavior history) related to the object is to be acquired, and may correspond to, for example, a commercial facility, a stadium, a residential area, or the like.

情報処理装置100は、信号受信部101と、検出部102と、抽出部103と、対象物リスト104と、照合部105と、集計部106と、新規登録判定部107と、登録削除判定部108と、個体数推定部109と、補正部110とを含む。 The information processing device 100 includes a signal receiving unit 101, a detecting unit 102, an extracting unit 103, an object list 104, a collating unit 105, an aggregation unit 106, a new registration determination unit 107, and a registration deletion determination unit 108. And the population estimation unit 109 and the correction unit 110.

信号受信部101は、1以上の検知部から、各種状態の検知結果に応じた信号(情報)を、所定のネットワークを介して受信する。なお、本開示において、信号受信部101が検知部から受信する信号は、対象物の検出や識別に利用可能なものであれば特に限定されない。 The signal receiving unit 101 receives signals (information) corresponding to the detection results of various states from one or more detection units via a predetermined network. In the present disclosure, the signal received by the signal receiving unit 101 from the detecting unit is not particularly limited as long as it can be used for detecting and identifying an object.

具体的な一例として、上記信号として、デジタルカメラ等の撮像部による撮像結果に応じた画像信号が利用されてもよい。この場合には、当該撮像部が、上記検知部の一例に相当する。また、可視光の撮像結果に応じた画像信号のみに限らず、例えば、赤外光等のような可視光とは異なる波長帯域の光を撮像対象として得られる画像信号が利用されてもよい。また、他の一例として、深さ情報(奥行方向の情報)を取得可能な所謂三次元カメラによる撮像結果に応じた画像信号(すなわち、深さ情報を含む画像信号)が利用されてもよい。
また、音声や環境音等のような音響の集音結果に応じた音響信号を、対象物の検出や識別に利用することが可能である。具体的な一例として、マイク等の集音デバイスにより集音された音声や歩行音等を利用することで、対象物の個体(例えば、人物の場合は個人)を識別することも可能である。
また、個々の対象物が携行する通信装置(例えば、人物が保持する通信端末等)から送信される電波信号を、当該対象物の検出や識別に利用することが可能である。
また、上述した特性から、上記信号の送信元となる検知部は、例えば、各種センサや撮像部等のように、周囲の状態に応じた情報を取得可能であり、かつ取得された当該情報(信号)を対象物の検出や識別に利用可能であれば、その種別は特に限定されない。
As a specific example, as the signal, an image signal corresponding to an image pickup result by an image pickup unit such as a digital camera may be used. In this case, the imaging unit corresponds to an example of the detection unit. Further, the image signal is not limited to the image signal according to the image pickup result of visible light, and an image signal obtained as an image pickup target of light having a wavelength band different from that of visible light such as infrared light may be used. Further, as another example, an image signal (that is, an image signal including depth information) according to an image pickup result by a so-called three-dimensional camera capable of acquiring depth information (information in the depth direction) may be used.
Further, it is possible to use an acoustic signal according to the sound collection result of acoustics such as voice and environmental sound for detection and identification of an object. As a specific example, it is possible to identify an individual object (for example, an individual in the case of a person) by using a sound collected by a sound collecting device such as a microphone, a walking sound, or the like.
In addition, radio signals transmitted from a communication device carried by each object (for example, a communication terminal held by a person) can be used for detecting and identifying the object.
Further, from the above-mentioned characteristics, the detection unit that is the source of the signal can acquire information according to the surrounding state, such as various sensors and an imaging unit, and the acquired information ( The type of signal) is not particularly limited as long as it can be used for detecting or identifying an object.

上記に例示した信号を利用して対象物リスト104の生成及び更新が行われる場合には、対象物に紐づく信号の検出が行われ、当該信号がいずれの対象物に紐づくものであるかの照合が行われる。このような特性から、生成または更新される対象物リスト104の精度(例えば、信号と対象物との紐づけの確からしさ)は、対象物の検知に係る精度や、当該検知の結果に応じた信号と対象物との紐づけに係る照合の精度に依存する場合がある。本実施形態に係る技術は、生成または更新される対象物リスト104の精度が、対象物の検知に係る精度や、当該検知の結果に応じた信号と対象物との紐づけに係る照合の精度に依存するような状況下において、当該対象物リスト104の精度の向上を可能とする。
なお、以降の説明では、情報処理装置100の技術的特徴をよりわかりやすくするために、対象物を人物とし、関心領域を商業施設とするものとする。また、検知部をデジタルカメラ等の撮像部としたうえで、信号受信部101は、撮像部による撮像結果に応じた画像(換言すると、画像信号)を受け付けるものとする。
When the object list 104 is generated and updated using the signals exemplified above, the signal associated with the object is detected, and which object the signal is associated with is detected. Is collated. Due to these characteristics, the accuracy of the object list 104 generated or updated (for example, the certainty of the association between the signal and the object) depends on the accuracy related to the detection of the object and the result of the detection. It may depend on the accuracy of matching related to the association between the signal and the object. In the technique according to the present embodiment, the accuracy of the object list 104 that is generated or updated is the accuracy related to the detection of the object and the accuracy of the matching related to the association between the signal and the object according to the result of the detection. It is possible to improve the accuracy of the object list 104 in a situation that depends on the above.
In the following description, in order to make the technical features of the information processing apparatus 100 easier to understand, the object is a person and the area of interest is a commercial facility. Further, after the detection unit is an image pickup unit such as a digital camera, the signal reception unit 101 receives an image (in other words, an image signal) according to the image pickup result by the image pickup unit.

信号受信部101が受け付ける画像の形式は、動画像でもよいし、静止画像でもよい。また、信号受信部101が動画像を受け付ける場合には、当該動画像の少なくとも一部のフレームが静止画像として抽出されてもよい。なお、以降の説明では、便宜上「画像」と記載した場合には、特に説明が無い限りは、「動画像」と「静止画像」とのいずれも含み得るものとする。
また、信号受信部101に送信される画像としては、撮像部による撮像結果に応じて当該撮像部から直接送信される画像でもよく、ハードディスク等の記憶装置から送信される画像(記憶装置に記憶された画像)であってもよい。また、撮像部から送信さる画像と、記憶装置から送信される画像と、が組み合わせて利用されてもよい。
また、信号受信部101に対して画像を送信する撮像部の台数は1台に限らず、複数台であってもよい。また、複数の撮像部が一体的に構成された装置が利用されてもよい。
また、撮像部から送信される画像(例えば、動画像)は、屋内と屋外とのいずれが撮像されているかは問わず、また撮像されている領域が変化してもよい。具体的な一例として、パン・チルト・ズーム機能を有するネットワークカメラにより撮像された、撮像領域や拡大率が変化する画像であってもよい。
複数台の撮像部により関心領域内の複数の箇所それぞれが撮像された動画像を利用可能であれば、撮像部が1台の場合に比べて、詳細を後述する対象物リスト104の精度をより向上させる効果を期待することが可能である。このような背景から、撮像部が複数台であることがより望ましい。
The format of the image received by the signal receiving unit 101 may be a moving image or a still image. Further, when the signal receiving unit 101 accepts a moving image, at least a part of the frames of the moving image may be extracted as a still image. In the following description, when the term "image" is used for convenience, both the "moving image" and the "still image" may be included unless otherwise specified.
Further, the image transmitted to the signal receiving unit 101 may be an image directly transmitted from the imaging unit according to the imaging result by the imaging unit, or an image transmitted from a storage device such as a hard disk (stored in the storage device). Image). Further, the image transmitted from the imaging unit and the image transmitted from the storage device may be used in combination.
Further, the number of image pickup units that transmit images to the signal reception unit 101 is not limited to one, and may be a plurality of units. Further, an apparatus in which a plurality of imaging units are integrally configured may be used.
Further, the image transmitted from the imaging unit (for example, a moving image) may be captured indoors or outdoors, and the captured region may change. As a specific example, it may be an image whose imaging area and magnification change, which is captured by a network camera having a pan / tilt / zoom function.
If it is possible to use moving images in which each of a plurality of locations in the region of interest is captured by a plurality of imaging units, the accuracy of the object list 104, which will be described in detail later, will be improved as compared with the case of one imaging unit. It is possible to expect the effect of improving. From such a background, it is more desirable that there are a plurality of imaging units.

以上を踏まえ、以降の説明では、便宜上、複数の撮像部(検知部)により同一の店舗内の撮像が行われるものとし、当該店舗内が関心領域として設定されるものとする。また、信号受信部101は、上記複数の撮像部それぞれから撮像結果に応じた動画像を受け付け、当該動画像の少なくとも一部のフレームを静止画像として抽出するものとする。そのうえで、信号受信部101は、動画像から抽出された静止画像に対して、当該動画像の取得元となる撮像部に関する情報や、静止画像(フレーム)に対応する時刻等の情報を画像情報として関連付けたうえで、検出部102に出力するものとする。 Based on the above, in the following description, for convenience, it is assumed that a plurality of imaging units (detection units) perform imaging in the same store, and the inside of the store is set as an area of interest. Further, the signal receiving unit 101 receives a moving image according to the imaging result from each of the plurality of imaging units, and extracts at least a part of the frames of the moving image as a still image. Then, for the still image extracted from the moving image, the signal receiving unit 101 uses information about the imaging unit that is the acquisition source of the moving image and information such as the time corresponding to the still image (frame) as image information. After associating, it shall be output to the detection unit 102.

検出部102は、信号受信部101から出力される静止画像(以下、「入力画像」とも称する)から人物(対象物)を検出し、検出結果に応じた情報(以下、「検出情報」とも称する)を入力画像に関連付けて抽出部103に出力する。
なお、画像から人物を検出することが可能であれば、その方法は特に限定されない。具体的な一例として、人物が撮像された画像を入力データとした機械学習に基づき構築された認識器を利用して入力画像から人物の検出が行われてもよい。また、他の一例として、入力画像から抽出されるエッジ等の視覚的特徴と、人物の頭部等の部位の形状と、のパターンマッチングにより、当該入力画像から人物の検出が行われてもよい。以降の説明では、機械学習に基づき構築された認識器に対して入力画像を入力することで、当該認識器により当該入力画像に被写体として撮像された人物が検出されるものとする。
The detection unit 102 detects a person (object) from a still image (hereinafter, also referred to as “input image”) output from the signal receiving unit 101, and information according to the detection result (hereinafter, also referred to as “detection information”). ) Is associated with the input image and output to the extraction unit 103.
The method is not particularly limited as long as it is possible to detect a person from the image. As a specific example, the person may be detected from the input image by using a recognizer constructed based on machine learning using the image of the person as input data. Further, as another example, the person may be detected from the input image by pattern matching between the visual features such as edges extracted from the input image and the shape of a part such as the head of the person. .. In the following description, by inputting an input image to a recognizer constructed based on machine learning, it is assumed that the recognizer detects a person imaged as a subject in the input image.

検出情報は、少なくとも上述した画像情報と、入力画像上における人物が検出された領域(以下、「人物領域」とも称する)を示す情報と、を含むものとする。また、検出情報は、追尾情報を含んでもよい。
追尾情報は、時系列に沿って連続する静止画像に被写体として撮像された人物が同一人物であるか否かの特定に利用される情報である。本実施形態では、追尾情報として後述する追尾IDが用いられるものとする。
人物領域を示す情報は、人物が画像上のどの位置に撮像されているかを特定できればよく、例えば、画像上の座標であってもよいし、人物領域を示すマスク画像であってもよい。なお、以降の説明では、人物領域を示す情報として、人物領域を囲む点を示す座標が用いられるものとする。なお、人物領域を囲む点を示す座標とは、一連の点を線(例えば、直線)で結ぶと人物領域を含む領域(以下、「切り出し領域」とも称する)を形成する3点以上の座標を示すものとする。なお、切り出し領域は、人物領域全体を含むように設定されることがより望ましいが、手、足、頭部、及び体躯等の部位のうち一部の部位を含んでいなくてもよい。
The detection information includes at least the above-mentioned image information and information indicating an area in which a person is detected on the input image (hereinafter, also referred to as a "person area"). Further, the detection information may include tracking information.
The tracking information is information used to identify whether or not a person captured as a subject in a continuous still image in chronological order is the same person. In this embodiment, it is assumed that the tracking ID described later is used as the tracking information.
The information indicating the person area may be, for example, coordinates on the image or a mask image indicating the person area, as long as it can be specified at which position on the image the person is imaged. In the following description, it is assumed that the coordinates indicating the points surrounding the person area are used as the information indicating the person area. The coordinates indicating the points surrounding the person area are the coordinates of three or more points forming an area including the person area (hereinafter, also referred to as "cutout area") when a series of points are connected by a line (for example, a straight line). It shall be shown. It is more desirable that the cut-out area is set to include the entire person area, but it does not have to include a part of the parts such as the hands, feet, head, and body.

また、検出部102は、人物の検出結果に対して追尾IDを関連付ける。追尾IDは、入力画像から人物が新規に検出された場合には、後述する集計部106による記録が行われていない固有の値が使用される。検出部102は、その後に時系列に沿って取得される入力画像については、人物の位置を、当該人物の過去の検出結果からカルマンフィルター等を用いて予測し、予測した位置の近傍で検出された人物を、予測の対象とした人物と同一人物であると認識してもよい。この場合には、検出部102は、予測した位置の近傍で検出された人物に対して、予測の対象とした人物と同一の追尾IDを関連付けてもよい。
なお、人物の検出が失敗した場合には、当該人物の追尾が途切れる場合がある。この場合には、直後に取得された入力画像から新規に検出された人物は、直前に追尾が途切れた人物と同一人物である可能性がある。このような場合には、検出部102は、人物が検出された位置の情報とともに切り出し領域の画像特徴や後述する特徴量の照合を行うことで、新規に検出された人物が、直前に追尾が途切れた人物と同一人物であるか否かを特定してもよい。なお、検出部102は、新規に検出された人物が、直前に追尾が途切れた人物と同一人物である場合には、新規に検出された人物に対して、追尾が途切れた人物と同一の追尾IDを改めて関連付けてもよい。
Further, the detection unit 102 associates the tracking ID with the detection result of the person. When a person is newly detected from the input image, the tracking ID uses a unique value that has not been recorded by the aggregation unit 106, which will be described later. For the input image acquired in chronological order thereafter, the detection unit 102 predicts the position of the person from the past detection result of the person using a Kalman filter or the like, and detects the position in the vicinity of the predicted position. The person may be recognized as the same person as the person to be predicted. In this case, the detection unit 102 may associate the same tracking ID as the person targeted for prediction with the person detected in the vicinity of the predicted position.
If the detection of a person fails, the tracking of the person may be interrupted. In this case, the person newly detected from the input image acquired immediately after may be the same person as the person whose tracking was interrupted immediately before. In such a case, the detection unit 102 matches the image feature of the cutout area and the feature amount described later together with the information of the position where the person is detected, so that the newly detected person is tracked immediately before. It may be specified whether or not the person is the same as the person who is interrupted. In addition, when the newly detected person is the same person as the person whose tracking is interrupted immediately before, the detection unit 102 tracks the newly detected person in the same manner as the person whose tracking is interrupted. The ID may be associated again.

また、撮像対象となる領域(以下、「撮像領域」とも称する)が混雑している状況下では、動画像内における複数の人物の交錯に伴い、当該複数の人物間においてそれぞれに関連付けられた追尾IDが入れ替わる場合がある。このような状況下においても、例えば、複数の人物間の距離が近い場合に、画像特徴や特徴量の照合に基づき、追尾IDの入れ替わりを防止することも可能である。 Further, in a situation where the area to be imaged (hereinafter, also referred to as “imaging area”) is congested, tracking associated with each of the plurality of persons is accompanied by the crossing of a plurality of persons in the moving image. The ID may be replaced. Even under such a situation, for example, when the distances between a plurality of people are short, it is possible to prevent the tracking IDs from being replaced based on the matching of the image features and the feature amounts.

信号受信部101に対して複数の撮像部から動画像が入力される状況下では、2以上の撮像部それぞれの撮像領域間においてに重複する部分が存在するような状況が想定され得る。このような場合には、撮像領域が重複する2以上の撮像部の撮像結果に応じた画像それぞれにおける人物の位置から、当該2以上の撮像部に対応する画像間で同一の人物を特定し、各画像における当該人物に対して同一の追尾IDが関連付けられることが望ましい。なお、画像から検出された人物が、当該画像が撮像された範囲(以下、「撮像範囲」とも称する)外に逸脱し、当該範囲(撮像範囲)内に再度進入した場合には、対象となる人物に対して撮像範囲外への逸脱前とは異なる新規の追尾IDが関連付けられてもよい。 In a situation where moving images are input to the signal receiving unit 101 from a plurality of imaging units, it can be assumed that there are overlapping portions between the imaging regions of each of the two or more imaging units. In such a case, the same person is identified between the images corresponding to the two or more imaging units from the position of the person in each of the images corresponding to the imaging results of the two or more imaging units having overlapping imaging regions. It is desirable that the same tracking ID is associated with the person in each image. If a person detected from an image deviates from the range in which the image is captured (hereinafter, also referred to as "imaging range") and re-enters the range (imaging range), it becomes a target. A new tracking ID different from that before the deviation from the imaging range may be associated with the person.

抽出部103は、検出部102から出力される検出情報から、当該検出情報が関連付けられた入力画像中の切り出し領域を特定し、当該切り出し領域から対象物に関する情報(以降では、「対象物情報」とも称する)を抽出する。対象物情報は、切り出し画像そのものであってもよいし、当該切り出し画像に対して線形変換または非線形変換を施すことで得られる数値やベクトル量で会ってもよい。なお、以降の説明では、切り出し画像に対して非線形変換が施されることで得られるベクトル量を特徴量とも称し、当該特徴量が対象物情報として使用されるものとする。また、上記特徴量に代表される上記対象物情報が、対象物の検知結果(例えば、人物の撮像結果)に応じた「第1の情報」の一例に相当する。 The extraction unit 103 identifies a cutout area in the input image associated with the detection information from the detection information output from the detection unit 102, and information about the object from the cutout area (hereinafter, "object information"). Also called) is extracted. The object information may be the cropped image itself, or may be met by a numerical value or a vector quantity obtained by performing a linear transformation or a non-linear transformation on the cropped image. In the following description, the vector quantity obtained by applying the non-linear transformation to the cut-out image is also referred to as a feature quantity, and the feature quantity is used as the object information. Further, the object information represented by the feature amount corresponds to an example of "first information" according to the detection result of the object (for example, the imaging result of a person).

なお、上述したベクトル量(特徴量)の取得に、機械学習に基づき構築された認識器が利用されてもよい。この場合には、当該認識器は、互いに外見が類似する複数の人物それぞれから抽出されるベクトル量は互いにより近い値を持ち、互いに外見の異なる複数の人物それぞれから抽出されるベクトル量は互いにより遠い値を持つように学習が行われることが望ましい。
具体的な一例として、人物が撮像された画像を入力として、上記ベクトル量を出力するニューラルネットワークを構築し、当該ベクトル量を出力するためのパラメータを学習させることで、上記認識器の構築が行われてもよい。このようにして構築された認識器を利用することで、例えば、複数の画像それぞれから検出された人物が同一人物の場合には、相互に近い値を示す特徴量を取得することが可能となり、他人の場合には、相互に遠い値を示す特徴量を取得することが可能となる。
A recognizer constructed based on machine learning may be used to acquire the above-mentioned vector quantity (feature quantity). In this case, the recognizer has values closer to each other in the vector quantities extracted from each of the plurality of persons having similar appearances, and the vector quantities extracted from each of the plurality of persons having different appearances are more than each other. It is desirable that the learning is done so that it has a distant value.
As a specific example, the above-mentioned recognizer is constructed by constructing a neural network that outputs the above-mentioned vector amount by inputting an image of a person as an input and learning parameters for outputting the above-mentioned vector amount. You may be struck. By using the recognizer constructed in this way, for example, when the persons detected from each of the plurality of images are the same person, it is possible to acquire the feature amounts showing values close to each other. In the case of another person, it is possible to acquire a feature amount showing a value far from each other.

なお、上記はあくまで一例であり、上述した特性を有する認識器を構築することが可能であれば、当該認識器の構築に利用される機械学習の手法は特に限定されない。また、抽出部103により抽出される特徴量(ベクトル量)が、対象の部位(例えば、頭部、胴体、腕、及び足等)ごとに抽出されてもよい。 The above is just an example, and the machine learning method used for constructing the recognizer is not particularly limited as long as it is possible to construct the recognizer having the above-mentioned characteristics. Further, the feature amount (vector amount) extracted by the extraction unit 103 may be extracted for each target part (for example, head, torso, arms, legs, etc.).

また、抽出部103は、検出された人物の特徴を示す属性情報の抽出や推定を行ってもよい。属性情報には、例えば、対象となる人物の性別、年齢、身長、体型、身体の向き、顔の向き、マスクの有無、メガネの有無、サングラスの有無、被り物の有無、鞄の有無、鞄の種類、及び被服の色等のような、当該人物の外見的な特徴を示す情報が含まれる。属性情報の規定方法については特に限定はされないが、例えば、各属性情報の推定結果の確からしさが0から1までの範囲の値で示されてもよい。
具体的な一例として、鞄の有無を示す属性情報については、対象となる人物が鞄を持っていない場合には値として0が設定され、当該人物が鞄を持っている場合には値として1が設定されてもよい。また、属性情報の推定の対象となる画像からは、鞄の有無を特定することが困難な場合もある。このような場合には、鞄の有無の確からしさに応じて、0.5等のような、0と1との間の値が設定されてもよい。
In addition, the extraction unit 103 may extract or estimate attribute information indicating the characteristics of the detected person. The attribute information includes, for example, the gender, age, height, body shape, body orientation, face orientation, mask presence / absence, glasses presence / absence, sunglasses presence / absence, headgear presence / absence, bag presence / absence, and bag. Includes information that indicates the appearance characteristics of the person, such as type and color of clothing. The method of defining the attribute information is not particularly limited, but for example, the certainty of the estimation result of each attribute information may be indicated by a value in the range of 0 to 1.
As a specific example, for the attribute information indicating the presence or absence of a bag, 0 is set as a value when the target person does not have a bag, and 1 is set as a value when the person has a bag. May be set. In addition, it may be difficult to identify the presence or absence of a bag from the image for which the attribute information is estimated. In such a case, a value between 0 and 1 such as 0.5 may be set depending on the certainty of the presence or absence of the bag.

なお、入力画像からの属性情報の抽出や推定の方法は特に限定されない。具体的な一例として、入力画像からの属性情報の抽出や推定に、ニューラルネットワークやサポートベクターマシン等を利用した機械学習に基づき構築された認識器が利用されてもよい。また、上述したベクトル量(特徴量)の抽出に係るニューラルネットワークの一部に、属性情報の抽出や推定に係る識別器が付加されてもよい。
また、入力画像からの属性情報の抽出や推定の方法として、機械学習を利用した方法以外の他の方法が利用されてもよい。具体的な一例として、切り出し領域内の局所的なテクスチャ情報が、属性情報の抽出や推定に利用されてもよい。
The method of extracting and estimating the attribute information from the input image is not particularly limited. As a specific example, a recognizer constructed based on machine learning using a neural network, a support vector machine, or the like may be used for extracting and estimating attribute information from an input image. Further, a discriminator related to extraction and estimation of attribute information may be added to a part of the neural network related to the extraction of the vector quantity (feature quantity) described above.
Further, as a method of extracting and estimating the attribute information from the input image, a method other than the method using machine learning may be used. As a specific example, local texture information in the cutout region may be used for extracting or estimating attribute information.

抽出部103は、特徴量の抽出結果に応じた情報を、対応する画像情報や追尾情報と関連付けて照合部105に出力する。 The extraction unit 103 outputs information according to the extraction result of the feature amount to the collation unit 105 in association with the corresponding image information and tracking information.

照合部105は、抽出部103から出力される特徴量と、対象物リスト104に既に登録されている一連の人物それぞれの特徴量と、を照合することで照合スコアを算出する。
ただし、照合部105は、抽出部103から出力される特徴量が、既に対象物リスト104に登録されている人物の特徴量と一致することを認識可能な場合には、相互に一致する特徴量が同一人物に対応することを特定可能なため、上記照合を行わなくてもよい。また、照合部105は、抽出部103から出力される特徴量に関連付けられた追尾IDが、既に対象物リスト104に登録されている人物に関連付けられた追尾IDと一致する場合においても、各追尾IDは同一人物に対応するため、上記照合を行わなくてもよい。
照合スコアは、上記照合の対象となる複数の特徴量間の類似度を定量化するための値(例えば、数値)である。一般的には、類似度が高いほどスコアがより高くなるように当該スコアの算出が行われるが、逆に類似度が高いほどスコアが低くなるように当該スコアの算出が行われてもよい。また、スコアは整数であってもよいし実数であってもよい。なお、以降の説明では、類似度がより高いほどスコアがより高くなるように当該スコアの算出が行われ、説明をよりわかりやすくするために、当該スコアが0〜1000の整数で表されるものとする。
The collation unit 105 calculates a collation score by collating the feature amount output from the extraction unit 103 with the feature amount of each of a series of persons already registered in the object list 104.
However, if the collation unit 105 can recognize that the feature amount output from the extraction unit 103 matches the feature amount of the person already registered in the object list 104, the feature amount that matches each other It is not necessary to perform the above-mentioned collation because it can be specified that is corresponding to the same person. Further, the collation unit 105 also performs each tracking even when the tracking ID associated with the feature amount output from the extraction unit 103 matches the tracking ID associated with the person already registered in the object list 104. Since the ID corresponds to the same person, the above verification does not have to be performed.
The collation score is a value (for example, a numerical value) for quantifying the degree of similarity between a plurality of feature quantities to be collated. Generally, the score is calculated so that the higher the similarity, the higher the score, but conversely, the higher the similarity, the lower the score. Further, the score may be an integer or a real number. In the following description, the score is calculated so that the higher the similarity, the higher the score, and in order to make the explanation easier to understand, the score is represented by an integer of 0 to 1000. And.

照合スコアは、照合の対象となる複数の特徴量間の類似性を定量化することが可能であれば、算出方法は特に限定されない。
具体的な一例として、特徴量がベクトル量を含む場合には、当該特徴量の類似性が、複数のベクトル量間のユークリッド距離やマハラノビス距離に基づき算出されてもよい。
また、他の一例として、照合スコアとして複数の特徴量間の距離が直接利用されずに、当該距離の正負を逆転させた値や、当該距離の逆数が利用されてもよい。これにより、照合スコアがより高いほど、類似度がより高くなるような指標を設定することも可能となる。
The calculation method of the collation score is not particularly limited as long as it is possible to quantify the similarity between a plurality of features to be collated.
As a specific example, when the feature quantity includes a vector quantity, the similarity of the feature quantity may be calculated based on the Euclidean distance or the Mahalanobis distance between the plurality of vector quantities.
Further, as another example, the distance between the plurality of feature quantities may not be directly used as the collation score, but a value obtained by reversing the positive / negative of the distance or the reciprocal of the distance may be used. This makes it possible to set an index such that the higher the matching score, the higher the similarity.

対象物リスト104では、登録される人物に対して人物IDが関連付けられ、登録された各人物に対して少なくとも1つの特徴量が関連付けられる。対象物リスト104に新たに登録される人物に対して関連付けられる人物IDとしては、既に対象物リスト104に登録されている他の人物に関連付けられた人物IDや、後述する集計部106で集計されている人物IDとは異なる固有のIDが使用される。
また、対象物リスト104に登録された人物に対して、前述した追尾IDが関連付けられてもよい。これにより、前述したように、照合部105は、対象となる人物に対して対象物リスト104に登録された人物と同じ追尾IDが関連付けられている場合には、照合を行うことなく、これらの人物が同一人物であることを特定することが可能となる。
また、対象物リスト104では、登録されている人物ごとに、新規に登録が行われたタイミングに関する情報(例えば、時刻)や、これまでに同一人物として照合された追尾IDの数等が関連付けられてもよい。
なお、以降の説明では、対象物リスト104に登録された人物を、便宜上、単に「登録人物」と称する場合がある。また、人物に対して関連付けられる特徴量の取得に係る処理が、「第1の取得処理」の一例に相当する。
In the object list 104, a person ID is associated with the registered person, and at least one feature amount is associated with each registered person. As the person ID associated with the person newly registered in the object list 104, the person ID associated with another person already registered in the object list 104 and the aggregation unit 106 described later are aggregated. A unique ID different from the person ID is used.
Further, the above-mentioned tracking ID may be associated with the person registered in the object list 104. As a result, as described above, when the matching unit 105 associates the target person with the same tracking ID as the person registered in the target list 104, the collating unit 105 does not perform collation. It is possible to identify that the person is the same person.
Further, in the object list 104, information on the timing of new registration (for example, time), the number of tracking IDs collated as the same person so far, and the like are associated with each registered person. You may.
In the following description, the person registered in the object list 104 may be simply referred to as a "registered person" for convenience. Further, the process related to the acquisition of the feature amount associated with the person corresponds to an example of the "first acquisition process".

対象物リスト104では、新規登録判定部107により登録の判定が行われた人物が新規に登録され、登録削除判定部108により削除の判定が行われた人物が削除される。このような制御が適用されることで、理想的には、関心領域内に存在する全ての人物に対して固有の人物IDが関連付けられた状態で、当該全ての人物が対象物リスト104に登録された状態となる。 In the object list 104, the person whose registration is determined by the new registration determination unit 107 is newly registered, and the person whose deletion determination is made by the registration deletion determination unit 108 is deleted. By applying such control, ideally, all the persons existing in the area of interest are registered in the object list 104 with a unique person ID associated with them. It will be in the state of being.

新規登録判定部107は、照合部105に出力された特徴量が示す人物が、関心領域内に新たに登場した人物であるか否かを判定する。なお、入力画像から抽出された特徴量が示す人物が、関心領域内に新たに登場した人物であるか否かを判定する方法は特に限定されない。そこで、以下に当該判定の方法の一例について説明する。 The new registration determination unit 107 determines whether or not the person indicated by the feature amount output to the collation unit 105 is a person who newly appears in the region of interest. The method of determining whether or not the person indicated by the feature amount extracted from the input image is a person newly appearing in the region of interest is not particularly limited. Therefore, an example of the determination method will be described below.

まず、第1の判定方法について説明する。例えば、新規登録判定部107は、照合スコアの判定に係る閾値(以下、「新規登録閾値」とも称する)を設定し、照合部105に出力された特徴量と、登録人物に対応する特徴量と、の照合スコアを当該閾値と比較する。新規登録判定部107は、一連の登録人物それぞれについて照合スコアが新規登録閾値未満となった場合に、照合部105に出力された特徴量が示す人物を、対象物リスト104に登録してもよい。 First, the first determination method will be described. For example, the new registration determination unit 107 sets a threshold value for determining the collation score (hereinafter, also referred to as “new registration threshold value”), and sets the feature amount output to the collation unit 105 and the feature amount corresponding to the registered person. , Compare the matching score with the threshold. When the collation score for each of the series of registered persons becomes less than the new registration threshold value, the new registration determination unit 107 may register the person indicated by the feature amount output to the collation unit 105 in the object list 104. ..

この場合には、ある撮像部による撮像結果に応じた画像に基づきある時刻に検出された二人の人物A及びBのうち、人物Aが登録人物と同一人物である場合には、人物Bは、人物Aと照合が一致した人物ではあり得ない。そのため、この場合には、人物Bについては、一連の登録人物のうち人物Aと照合が一致した登録人物を除く他の登録人物との間で照合を行った結果、いずれの照合スコアも新規登録閾値未満となった場合に対象物リスト104に登録されてもよい。
また、上記と同様の思想に基づき、ある時刻に互いに異なる複数の撮像部それぞれにより、各撮像部の撮像領域が重複しない領域において検出された人物については別人であると判定することが可能である。この場合においても、一方の人物が登録人物と同一人物であると判定された場合には、他方の人物については、当該一方の人物と照合が一致した登録人物を除く他の登録人物との間で照合が行われればよい。そのうえで、いずれの照合スコアについても新規登録閾値未満となった場合に、上記他方の人物が対象物リスト104に登録されればよい。
In this case, if the person A is the same person as the registered person among the two persons A and B detected at a certain time based on the image according to the image pickup result by a certain imaging unit, the person B is , It cannot be a person whose matching matches with person A. Therefore, in this case, as a result of collating the person B with other registered persons other than the registered person whose matching matches with the person A in the series of registered persons, all the matching scores are newly registered. When it becomes less than the threshold value, it may be registered in the object list 104.
Further, based on the same idea as described above, it is possible to determine that a person detected in an area where the imaging areas of the imaging units do not overlap by each of a plurality of imaging units different from each other at a certain time is a different person. .. Even in this case, if it is determined that one person is the same person as the registered person, the other person will be between the other registered person except the registered person whose matching matches with that one person. It suffices if the collation is performed with. Then, when the collation score is less than the new registration threshold value, the other person may be registered in the object list 104.

以上のような制御が適用されることで、例えば、特徴の類似した互いに異なる複数の人物が同時に検出された場合においても、それぞれを互いに異なる人物として、対象物リスト104に登録するか否かを判定することが可能となる。そのため、対象物リスト104の精度を向上させる効果を期待することが可能となる。 By applying the above control, for example, even when a plurality of people having similar characteristics and different from each other are detected at the same time, whether or not to register each person as a different person in the object list 104 is determined. It becomes possible to judge. Therefore, it is possible to expect the effect of improving the accuracy of the object list 104.

次いで、第2の判定方法について説明する。例えば、新規登録判定部107は、関心領域内への出入りが可能な場所が限定されている場合には、一連の出入口それぞれの状況を撮像部で撮像し、撮像結果に基づき、関心領域内に存在する一連の人物を対象物リスト104に登録することが可能である。具体的には、新規登録判定部107は、一連の出入口のうちいずれかにおいて新規に検出された人物(例えば、追尾IDが登録されていない人物)については、関心領域内に新規に登場した人物と判定することが可能である。そのため、新規登録判定部107は、当該人物を対象物リスト104に登録すればよい。 Next, the second determination method will be described. For example, when the place where the new registration determination unit 107 can enter and exit the area of interest is limited, the new registration determination unit 107 captures the situation of each of the series of entrances and exits with the imaging unit, and based on the imaging result, enters the area of interest. It is possible to register a series of existing persons in the object list 104. Specifically, the new registration determination unit 107 indicates that a person newly detected in any one of a series of entrances and exits (for example, a person whose tracking ID is not registered) is a person who newly appears in the area of interest. It is possible to determine that. Therefore, the new registration determination unit 107 may register the person in the object list 104.

登録削除判定部108は、一連の登録人物のうち、関心領域内から退場した登録人物を特定し、当該登録人物を対象物リスト104から削除する。なお、登録人物が、関心領域内から退場したか否かを判定する方法は特に限定されない。そこで、以下に当該判定の方法の一例について説明する。 The registration deletion determination unit 108 identifies a registered person who has left the area of interest from a series of registered persons, and deletes the registered person from the object list 104. The method of determining whether or not the registered person has left the area of interest is not particularly limited. Therefore, an example of the determination method will be described below.

まず、第1の判定方法について説明する。登録削除判定部108は、一連の登録人物それぞれについて最後に検出が行われた時刻を記録し、現在時刻と最後に検出が行われた時刻との間の期間を未検出期間として設定してもよい。そして、登録削除判定部108は、未検出期間が所定の閾値(以降では、「登録削除期間閾値」とも称する)以上経過した登録人物については、関心領域内から退場した人物と判定し、対象物リスト104から削除してもよい。なお、登録人物が最後に検出された時刻については、例えば、照合部105に出力された特徴量が示す人物が、登録人物と同一人物であると判定された場合に、当該特徴量に関連付けられた画像情報から取得することが可能である。すなわち、登録削除判定部108は、照合部105に出力された特徴量が示す人物と同一人物であると判定した登録人物が最後に検出された時刻を、当該特徴量に関連付けられた画像情報から取得した時刻に更新すればよい。 First, the first determination method will be described. The registration deletion determination unit 108 records the time when the last detection was performed for each of the series of registered persons, and even if the period between the current time and the time when the last detection was performed is set as the undetected period. good. Then, the registration deletion determination unit 108 determines that the registered person whose undetected period has passed a predetermined threshold value (hereinafter, also referred to as “registration deletion period threshold value”) or more is a person who has left the area of interest, and determines that the object is an object. It may be removed from Listing 104. The time when the registered person was last detected is associated with the feature amount when, for example, the person indicated by the feature amount output to the collation unit 105 is determined to be the same person as the registered person. It is possible to obtain from the image information. That is, the registration deletion determination unit 108 sets the time when the registered person determined to be the same person as the person indicated by the feature amount output to the collation unit 105 is the same as the last detected time from the image information associated with the feature amount. It may be updated at the acquired time.

照合部105に出力された特徴量が示す人物と登録人物とが同一人物であるか否かの判定には、例えば、照合スコアを利用することが可能である。この場合には、例えば、登録削除判定部108は、照合スコアの判定に係る閾値(以下、「同一人物判定閾値」とも称する)を設定し、照合部105に出力された特徴量と、登録人物に対応する特徴量と、の照合スコアを当該閾値と比較する。登録削除判定部108は、一部の登録人物について照合スコアが同一人物判定閾値以上となった場合に、照合部105に出力された特徴量が示す人物が、当該一部の登録人物と同一人物と判定してもよい。
ただし、登録削除判定部108は、照合部105に出力された特徴量に関連付けられた追尾IDと同一の追尾IDが関連付けられた登録人物が存在する場合には、照合スコアに関わらずそれらの人物が同一人物であると判定してもよい。また、登録削除判定部108は、照合スコアが同一人物判定閾値以上となる登録人物が複数存在する場合には、照合スコアがより高い登録人物が、照合部105に出力された特徴量が示す人物と同一人物であると判定してもよい。
For example, a collation score can be used to determine whether or not the person indicated by the feature amount output to the collation unit 105 and the registered person are the same person. In this case, for example, the registration deletion determination unit 108 sets a threshold value for determining the collation score (hereinafter, also referred to as “same person determination threshold value”), and the feature amount output to the collation unit 105 and the registered person. The matching score of the feature amount corresponding to is compared with the threshold value. In the registration deletion determination unit 108, when the collation score for some registered persons is equal to or higher than the same person determination threshold value, the person indicated by the feature amount output to the collation unit 105 is the same person as the part of the registered persons. May be determined.
However, if the registration deletion determination unit 108 has a registered person associated with the same tracking ID as the tracking ID associated with the feature amount output to the matching unit 105, those persons regardless of the matching score. May be determined to be the same person. Further, in the registration deletion determination unit 108, when there are a plurality of registered persons whose matching scores are equal to or higher than the same person determination threshold value, the registered person having a higher matching score is the person indicated by the feature amount output to the matching unit 105. It may be determined that the person is the same person as.

次いで、第2の判定方法について説明する。例えば、登録削除判定部108は、関心領域内への出入りが可能な場所が限定されている場合には、一連の出入口それぞれの状況を撮像部で撮像し、撮像結果に基づき、関心領域内から退出した人物を特定することも可能である。具体的には、登録削除判定部108は、一部の出入口からの退出が検出された人物の特徴量と、一連の登録人物それぞれの特徴量と、の照合スコアがより高い登録人物を、関心領域から退出した人物と認識し、当該登録人物を対象物リスト104から削除してもよい。 Next, the second determination method will be described. For example, when the place where access to the area of interest is possible is limited, the registration deletion determination unit 108 images the situation of each of the series of entrances and exits with the imaging unit, and based on the imaging result, from within the area of interest. It is also possible to identify the person who left. Specifically, the registration deletion determination unit 108 is interested in a registered person having a higher collation score between the feature amount of a person whose exit from a part of the entrance / exit is detected and the feature amount of each of a series of registered persons. The registered person may be recognized as a person who has left the area and the registered person may be deleted from the object list 104.

なお、登録人物それぞれには、少なくとも1つの特徴量が関連付けられることとなるが、複数の特徴量が関連付けられていてもよい。具体的な一例として、検出された人物のうち、登録人物と同じ追尾IDが関連付けられた人物の特徴量については、当該登録人物に関連付けられてもよい。
なお、検出された人物の特徴量が登録人物に関連付けられる際に、登録人物に従前に関連付けられた特徴量とは別に、検出された人物の特徴量が当該登録人物に関連付けられてもよい。
また、他の一例として、登録人物に従前に関連付けられた特徴量が、検出された人物の特徴量により更新されてもよい。具体的な一例として、人物が撮像部に対して正面を向いている場合に撮像された入力画像から抽出された当該人物の特徴量がより優先されるように、登録人物に関連付けられた特徴量の更新が行われてもよい。また、人物の一部の部位が遮蔽されている状況下で撮像された入力画像から抽出された当該人物の特徴量については、より優先して更新の対象とされる等のように、優先度がより低くなるように制御されてもよい。
また、身体の向きが判定される場合には、向きごとに特徴量が保持されてもよい。この場合には、照合部105に出力された特徴量と、対象となる人物の身体の向きが同じ特徴量と、が当該照合部105による照合の対象とされてもよい。
また、特徴量がベクトル量で表現される場合には、ベクトル量の次元ごとの平均値や中央値に基づく特徴量が、代表特徴として照合部105による照合の対象とされてもよい。
以上のような制御が適用されることで、人物の認識や識別が正しくが行われる確率をより向上させ、誤って行われる確率をより低下させることが可能となる。
Although at least one feature amount is associated with each registered person, a plurality of feature amounts may be associated with each other. As a specific example, among the detected persons, the feature amount of the person associated with the same tracking ID as the registered person may be associated with the registered person.
When the feature amount of the detected person is associated with the registered person, the feature amount of the detected person may be associated with the registered person separately from the feature amount previously associated with the registered person.
Further, as another example, the feature amount previously associated with the registered person may be updated by the feature amount of the detected person. As a specific example, when the person is facing the front of the image pickup unit, the feature amount associated with the registered person is given higher priority so that the feature amount of the person extracted from the captured input image is given higher priority. May be updated. In addition, the feature amount of the person extracted from the input image captured in the situation where a part of the person is shielded is given higher priority and is subject to update. May be controlled to be lower.
Further, when the orientation of the body is determined, the feature amount may be retained for each orientation. In this case, the feature amount output to the collating unit 105 and the feature amount having the same body orientation of the target person may be the target of collation by the collating unit 105.
When the feature quantity is represented by a vector quantity, the feature quantity based on the average value or the median value of the vector quantity for each dimension may be the target of collation by the collating unit 105 as a representative feature.
By applying the above control, it is possible to further improve the probability that a person is correctly recognized or identified, and further reduce the probability that a person is mistakenly recognized.

集計部106は、人物IDにより識別される人物ごとに行動履歴の記録を行う。具体的には、集計部106は、照合の結果から登録人物と同一であると判定された、入力画像から検出された人物(入力画像から抽出された特徴量が示す人物)に関連する情報を、当該登録人物と同様の人物IDと関連付けて記録する。
集計部106が記録する情報としては、検出された人物の行動に関する情報であれば特に限定されない。具体的な一例として、集計部106は、対象となる人物が検出された時間、場所、情報の取得元となる撮像部、及び切り出し画像から推定される行動等に関する情報が挙げられる。切り出し画像から推定される行動としては、例えば、「辺りを見回す」、「手を鞄に入れる」、「商品を手に取る」、「走る」、「他人に手を伸ばす」、及び「怒鳴る」等の動作が挙げられる。また、集計部106は、上記行動に関連する情報として、視線、表情、帯同人数、及び持っているもの等の情報を記録してもよい。また、集計部106は、前述した属性情報を記録してもよい。また、集計部106は、検出された情報を後から動画像に関連付けるために、画像情報や追尾情報の記録を行ってもよい。
The aggregation unit 106 records the action history for each person identified by the person ID. Specifically, the aggregation unit 106 obtains information related to the person detected from the input image (the person indicated by the feature amount extracted from the input image), which is determined to be the same as the registered person from the collation result. , Record in association with a person ID similar to the registered person.
The information recorded by the aggregation unit 106 is not particularly limited as long as it is information on the behavior of the detected person. As a specific example, the aggregation unit 106 includes information on the time and place where the target person is detected, the imaging unit from which the information is acquired, the behavior estimated from the cut-out image, and the like. Behaviors estimated from the cut-out image include, for example, "looking around", "putting a hand in a bag", "picking up a product", "running", "reaching for another person", and "screaming". And so on. In addition, the tabulation unit 106 may record information such as the line of sight, facial expression, number of people accompanied, and what they have as information related to the above behavior. In addition, the aggregation unit 106 may record the attribute information described above. In addition, the aggregation unit 106 may record the image information and the tracking information in order to associate the detected information with the moving image later.

なお、関心領域に存在する人物のうち店舗のスタッフ等のような特定の人物については、行動履歴の記録の対象外として設定されてもよく、当該人物について対象物リスト104への登録や情報の集計の対象から除外されてもよい。この場合には、行動履歴の記録の対象外となる人物の画像(例えば、全身画像)をあらかじめ登録しておき、当該画像から抽出される特徴量との照合スコアがより高い特徴量を示す人物については、対象物リスト104への登録や情報の集計の対象から除外すればよい。 It should be noted that, among the persons existing in the area of interest, a specific person such as a store staff may be set as not subject to the recording of the action history, and the person may be registered in the object list 104 or information of the information. It may be excluded from the target of aggregation. In this case, an image of a person (for example, a whole body image) that is not subject to the recording of the action history is registered in advance, and a person showing a feature amount having a higher matching score with the feature amount extracted from the image. May be excluded from the targets of registration in the object list 104 and aggregation of information.

集計部106が集計する情報に応じて、各人物の多様な行動履歴を取得することが可能である。具体的な一例として、ある人物が新規に登録された時刻と、最後に検出された時刻と、の差分を算出することで、当該人物の滞在時間を認識することが可能である。特に、他の人物に比べて滞在時間が極端に長い人物については、他の人物とは異なる目的で訪問した人物である可能性が高いと判定することも可能であるため、例えば、このような特性を不審人物の特定に利用することも可能である。また、この場合には、特定の撮像部に複数回にわたって撮像されるうろつき行動の検出結果と、辺りを見回す動作の検出結果と、の組み合わせ等のように、複数の条件を組み合わせて利用することで、不審人物の特定に係る精度をより向上させることも可能である。
また、他の一例として、ある人物がどの撮像部で検出されたのかに応じて特定可能な訪問履歴や、当該人物がどの商品の前で滞在時間が長かったか等のような、当該人物の興味に関する情報が集計されてもよい。このような情報を利用することで、例えば、新規に訪問した人物の移動経路の予測や、当該人物が購入する可能性の高い商品の予測等のような、所謂市場分析を行うことも可能となる。
上述のように、不特定多数の人物の行動履歴を取得可能とする技術は、例えば、防犯、捜査、マーケティング、混雑予測、及び都市計画等といった幅広い分野での活用を見込む、ことが可能である。
It is possible to acquire various action histories of each person according to the information aggregated by the aggregation unit 106. As a specific example, it is possible to recognize the staying time of a person by calculating the difference between the time when the person is newly registered and the time when the person was last detected. In particular, a person who stays for an extremely long time compared to another person can be determined to be a person who has visited for a different purpose than the other person. Therefore, for example, such a person It is also possible to use the characteristics to identify suspicious persons. Further, in this case, a plurality of conditions may be used in combination, such as a combination of a detection result of a prowling behavior imaged by a specific imaging unit a plurality of times and a detection result of a movement of looking around. Therefore, it is possible to further improve the accuracy of identifying a suspicious person.
In addition, as another example, the visit history that can be identified according to which imaging unit detected the person, the interest of the person, such as whether the person stayed in front of which product for a long time, etc. Information about may be aggregated. By using such information, it is possible to perform so-called market analysis such as prediction of the movement route of a newly visited person and prediction of products that the person is likely to purchase. Become.
As described above, the technology that makes it possible to acquire the behavior history of an unspecified number of people can be expected to be used in a wide range of fields such as crime prevention, investigation, marketing, congestion prediction, and city planning. ..

一方で、集計部106が取得する行動履歴に誤りがある場合には、当該行動履歴を利用した処理が本来の目的を果たすことが困難となる場合がある。取得される行動履歴の精度(換言すると、行動履歴の確からしさ)を下げる要因の一つとして、対象物リスト104の精度の低下が挙げられる。 On the other hand, if there is an error in the action history acquired by the aggregation unit 106, it may be difficult for the process using the action history to achieve the original purpose. One of the factors that lower the accuracy of the acquired action history (in other words, the certainty of the action history) is that the accuracy of the object list 104 is lowered.

具体的な一例として、関心領域内の人物Aが向きに応じて見え方の異なる服を着用しているものとする。この場合には、対象物リスト104に登録されている向きとは異なる向きで人物Aが撮像された画像から抽出される特徴量を、対象物リスト104に登録されている当該人物Aの特徴量と照合したとしても、照合スコアが低くなり別の人物と判定される可能性がある。すなわち、この場合には、人物Aが既に対象物リスト104に登録されているにも関わらず、検出された当該人物Aが別の人物として新たに対象物リスト104に登録される可能性がある。このような状況下では、以降に検出された人物Aに関する情報は(例えば、特徴量等)は、登録された複数の人物Aのうちいずれかに関連付けられるため、滞在時間や検出回数が実際とは異なる状態で記録されることとなる場合がある。具体的な一例として、滞在時間が実際よりも短く記録されたり、検出回数が実際よりも少なく記録される場合がある。結果として、人物Aの行動履歴として正確な情報を取得することが困難となる場合がある。 As a specific example, it is assumed that the person A in the area of interest wears clothes that look different depending on the orientation. In this case, the feature amount extracted from the image captured by the person A in a direction different from the direction registered in the object list 104 is the feature amount of the person A registered in the object list 104. Even if it is collated with, there is a possibility that the collation score will be low and it will be judged as another person. That is, in this case, although the person A is already registered in the object list 104, the detected person A may be newly registered in the object list 104 as another person. .. Under such a situation, the information about the person A detected thereafter (for example, the feature amount) is associated with any one of the plurality of registered persons A, so that the staying time and the number of detections are actually the same. May be recorded in different states. As a specific example, the staying time may be recorded shorter than the actual time, or the number of detections may be recorded less than the actual time. As a result, it may be difficult to obtain accurate information as the action history of the person A.

このような問題は、向きによって人物の見た目が変わる場合のみには限定されず、例えば、検出時に対象となる人物の一部の部位が遮蔽されること等によっても顕在化する場合がある。また、他の一例として、互いに服装が類似する人物A及び人物Bが関心領域内に存在する場合には、先に人物Aが対象物リスト104に登録されると、その後に人物Bが検出された場合に、当該人物Bと人物Aとの照合スコアが新規登録閾値以上となる可能性が高い。このような状況下では、結果として取得される行動履歴には、人物A及び人物Bそれぞれの行動に関する情報が混在するような状況となり、滞在時間や検出回数が実際とは異なる状態で記録されることとなる場合がある。具体的な一例として、滞在時間が実際よりも長く記録されたり、検出回数が実際よりも多く記録される場合がある。このような状態の発生は、行動履歴の精度の低下の一要因となり得る。 Such a problem is not limited to the case where the appearance of the person changes depending on the orientation, and may become apparent, for example, when a part of the target person is shielded at the time of detection. Further, as another example, when a person A and a person B having similar clothes are present in the area of interest, if the person A is first registered in the object list 104, the person B is detected thereafter. In that case, there is a high possibility that the collation score between the person B and the person A will be equal to or higher than the new registration threshold. Under such a situation, the behavior history acquired as a result is such that information on the behavior of each of the person A and the person B is mixed, and the staying time and the number of detections are recorded in a state different from the actual one. It may be different. As a specific example, the staying time may be recorded longer than the actual time, or the number of detections may be recorded more than the actual time. The occurrence of such a state can contribute to a decrease in the accuracy of the action history.

以上のような問題を鑑み、本実施形態に係る情報処理装置100は、関心領域内の個体数(人物数)を推定し、対象物リスト104への人物の登録数(登録人物の個体数)と比較し、当該比較結果に基づき当該対象物リスト104の補正を行う。このような仕組みを設けることで、本実施形態に係る情報処理装置100は、対象物リスト104の精度をより向上させる。以下に、上記仕組みを実現するための情報処理装置100の構成要素についてより詳細に説明する。 In view of the above problems, the information processing apparatus 100 according to the present embodiment estimates the number of individuals (number of persons) in the region of interest, and the number of registered persons in the object list 104 (number of registered persons). And, based on the comparison result, the object list 104 is corrected. By providing such a mechanism, the information processing apparatus 100 according to the present embodiment further improves the accuracy of the object list 104. Hereinafter, the components of the information processing apparatus 100 for realizing the above mechanism will be described in more detail.

個体数推定部109は、上述した関心領域内の個体数の推定を行う構成要素である。なお、関心領域内の個体数を推定することが可能であれば、その方法は特に限定されない。 The population estimation unit 109 is a component that estimates the number of individuals in the above-mentioned region of interest. The method is not particularly limited as long as it is possible to estimate the number of individuals in the region of interest.

例えば、個体数推定部109は、関心領域内の画像に被写体として撮像された人物の数に基づき、当該関心領域内の人物数(個体数)の推定を行ってもよい。また、個体数推定部109は、当該画像を利用した個体数の推定に、人物が撮像された画像を入力データとした機械学習に基づき構築された認識器を利用してもよい。上述のように、個体数の推定に画像を利用する場合には、撮像条件に応じて個体数の推定に係る精度を向上させることも可能である。
なお、関心領域全体を1つの撮像部の撮像範囲に収めることが困難な場合には、複数の撮像部が利用されてもよい。
以上のようにして、関心領域の各部が少なくとも一部の撮像部の撮像範囲に収まるように1以上の撮像部が配設された状態で、各撮像部による撮像結果に応じた画像それぞれに基づき人物数が推定されることで、関心領域内の人物数を推定することが可能となる。
なお、この場合には、画像の取得に利用される撮像部については、信号受信部101に対して動画像を送信する撮像部が利用されてもよいし、当該撮像部とは異なる撮像部が利用されてもよい。
For example, the population estimation unit 109 may estimate the number of people (individuals) in the region of interest based on the number of people captured as subjects in the image in the region of interest. In addition, the population estimation unit 109 may use a recognizer constructed based on machine learning using an image captured by a person as input data for estimating the number of individuals using the image. As described above, when an image is used for population estimation, it is possible to improve the accuracy of population estimation according to the imaging conditions.
If it is difficult to fit the entire region of interest within the imaging range of one imaging unit, a plurality of imaging units may be used.
As described above, with one or more imaging units arranged so that each portion of the region of interest falls within the imaging range of at least a part of the imaging unit, based on each image according to the imaging result by each imaging unit. By estimating the number of people, it is possible to estimate the number of people in the area of interest.
In this case, as the imaging unit used for image acquisition, an imaging unit that transmits a moving image to the signal receiving unit 101 may be used, or an imaging unit different from the imaging unit may be used. It may be used.

また、人物数(個体数)を推定する他の方法として、例えば、入退場ゲート等の所定の領域の通過人数、入場チケットの販売枚数、関心領域内の人物数に関する過去の統計等の情報を利用する方法が挙げられる。
また、個体数推定部109は、関心領域の一部の領域について人物数(個体数)を推定し、当該推定の結果に基づき関心領域全体における人物数の推定を行ってもよい。
In addition, as another method for estimating the number of people (individual number), for example, information such as the number of people passing through a predetermined area such as an entrance / exit gate, the number of tickets sold, and past statistics on the number of people in the area of interest can be obtained. There is a method to use.
In addition, the population estimation unit 109 may estimate the number of people (number of individuals) in a part of the region of interest, and estimate the number of people in the entire region of interest based on the estimation result.

対象物リスト104に登録される人物は、必ずしも関心領域内に存在する全ての人物である必要はない。例えば、関心領域内に存在する人物のうち一部の人物が対象物リスト104に登録されている場合においても、当該一部の人物の行動履歴を正しく取得することが可能であれば、当該一部の人物の行動の傾向を分析するためには有用な情報となり得る。このような場合においても、関心領域内の人物数の推定結果と、対象物リスト104への人物の登録数との比較結果に基づき、当該対象物リスト104の補正が行われることで、より実態に即した行動履歴を取得可能とする効果が期待できる。
なお、以降の説明では、便宜上、関心領域内の人物数の推定結果を単に「推定人数」と称する場合があり、対象物リスト104への人物の登録数を単に「登録数」と称する場合がある。
例えば、関心領域内に同じ制服を着た人物が複数人存在するような状況下では、同じ制服を着た互いに異なる複数の人物が同一人物と認識されることで、対象物リスト104に登録される人物の数が、実際に登録されるべき人物の数よりも少なくなる場合がある。このような状況下においても、推定人数を利用して、対象物リスト104の補正が行われることで、登録数を、実際に登録されるべき人物の数により近づけることが可能となる。なお、上記例において、対象物リスト104に実際に登録されるべき人物の数については、例えば、過去の推定人数と登録数との統計から求められてもよい。
なお、上記推定人数を示す情報が「第2の情報」の一例に相当する。当該第2の情報は、上記推定人数を直接的または間接的に示すことが可能であれば、その種別は特に限定されない。
The persons registered in the object list 104 do not necessarily have to be all persons existing in the area of interest. For example, even when some of the persons existing in the area of interest are registered in the object list 104, if it is possible to correctly acquire the action history of the part of the persons, the said one. It can be useful information for analyzing the behavioral tendency of a person in a department. Even in such a case, the actual situation is further improved by correcting the object list 104 based on the comparison result between the estimation result of the number of people in the area of interest and the number of registered persons in the object list 104. It can be expected to have the effect of making it possible to acquire an action history that matches the above.
In the following description, for convenience, the estimation result of the number of people in the area of interest may be simply referred to as the "estimated number of people", and the number of registered persons in the object list 104 may be simply referred to as the "registered number". be.
For example, in a situation where there are a plurality of people wearing the same uniform in the area of interest, a plurality of different people wearing the same uniform are recognized as the same person and are registered in the object list 104. The number of people who are actually registered may be less than the number of people who should actually be registered. Even under such a situation, the number of registrations can be made closer to the number of persons to be actually registered by correcting the object list 104 by using the estimated number of people. In the above example, the number of persons to be actually registered in the object list 104 may be obtained from, for example, statistics of the estimated number of people in the past and the number of registrations.
The information indicating the estimated number of people corresponds to an example of "second information". The type of the second information is not particularly limited as long as it can directly or indirectly indicate the estimated number of people.

対象物リスト104の補正には、例えば、推定人数と登録数との比較結果の一例として、これらの差分が利用されてもよい。この場合には、例えば、登録数が推定人数より多い場合には、当該登録数がより少なくなるように対象物リスト104が補正されるとよい。また、登録数が推定人数より少ない場合には、当該登録数がより多くなるように対象物リスト104が補正されるとよい。なお、対象物リスト104の補正方法については、詳細は別途後述する。 For the correction of the object list 104, for example, these differences may be used as an example of the comparison result between the estimated number of people and the registered number. In this case, for example, when the number of registrations is larger than the estimated number of people, the object list 104 may be corrected so that the number of registrations is smaller. When the number of registrations is smaller than the estimated number of people, the object list 104 may be corrected so that the number of registrations is larger. The details of the correction method of the object list 104 will be described later.

上述した比較については、関心領域内の人物数の推定に係る精度が比較的高い場合を前提としている。一方で、関心領域内の人物数の推定に係る精度が必ずしも高くはない場合には、当該推定に係る誤差が対象物リスト104側に顕在化し、行動履歴の取得に係る精度が低下する可能性がある。このような場合には、登録数と推定人数との差分が所定のマージンを超える場合に、当該対象物リスト104の補正が行われてもよい。
具体的な一例として、関心領域内の人物数の推定において1割程度の誤差が生じるような状況下では、推定人数の略1割を上述した上記所定のマージンとしてもよい。
以上のような制御が適用されることで、関心領域内の人物数の推定に誤差が生じるような状況下においても、行動履歴の取得に係る精度を安定させる効果を期待することが可能となる。
The above comparison is based on the premise that the accuracy of estimating the number of people in the region of interest is relatively high. On the other hand, if the accuracy related to the estimation of the number of people in the area of interest is not necessarily high, the error related to the estimation may become apparent on the object list 104 side, and the accuracy related to the acquisition of the action history may decrease. There is. In such a case, if the difference between the number of registrations and the estimated number of people exceeds a predetermined margin, the object list 104 may be corrected.
As a specific example, in a situation where an error of about 10% occurs in the estimation of the number of people in the region of interest, approximately 10% of the estimated number of people may be the above-mentioned predetermined margin.
By applying the above control, it is possible to expect the effect of stabilizing the accuracy related to the acquisition of the action history even in a situation where an error occurs in the estimation of the number of people in the area of interest. ..

また、対象物リスト104への人物の登録に利用する入力画像の取得対象となる領域(撮像部に撮像される領域)や、人物数の推定の対象となる領域が、関心領域の一部のみをカバーするような状況も想定され得る。このような場合には、例えば、登録数と推定人数とのうち少なくとも一方に対して所定の比率(係数)を乗じたうえで、当該登録数と当該推定人数との比較(例えば、差分の取得)が行われてもよい。なお、上記所定の比率については、例えば、関心領域に対する、上記入力画像の取得対象となる領域や、上記人物数の推定の対象となる領域の比率に基づき設定されるとよい。 Further, the area for acquiring the input image used for registering the person in the object list 104 (the area imaged by the imaging unit) and the area for estimating the number of people are only a part of the area of interest. A situation that covers the above can be assumed. In such a case, for example, after multiplying at least one of the registered number and the estimated number of people by a predetermined ratio (coefficient), the comparison between the registered number and the estimated number of people (for example, acquisition of the difference) ) May be performed. The predetermined ratio may be set based on, for example, the ratio of the region to which the input image is to be acquired and the region to which the number of people is estimated to be the region of interest.

また、この場合には、登録数はばらつきを有することとなるため、当該登録数が異常であると判定するためのマージンについては、関心領域内の人物数の推定に係る精度に応じてよりも大きく確保されることが望ましい。
具体的な一例として、過去に取得された推定人数と登録数とから、対象物リスト104に登録されるべき人物の数を推定する方法が適用されてもよい。この場合には、例えば、推定人数と登録数とを逐次記録しておき、当該推定人数を説明変数とし、当該登録数を目的変数として、回帰分析が行われるとよい。そして、任意の推定人数に対して登録数の予測値と標準偏差が算出され、当該予測値からの乖離が当該標準偏差の所定倍数(例えば、3倍)以上の場合に異常値として扱われてもよい。
なお、上記は人数の比較方法の一例であり、対象物リスト104に登録されるべき人物の数を推定人数に基づき判定する限りにおいて、必ずしも人数の比較方法を上記には限定されない。
Further, in this case, since the number of registrations varies, the margin for determining that the number of registrations is abnormal is larger than the accuracy of estimating the number of people in the area of interest. It is desirable to secure a large amount.
As a specific example, a method of estimating the number of persons to be registered in the object list 104 from the estimated number of people acquired in the past and the number of registrations may be applied. In this case, for example, it is preferable to sequentially record the estimated number of people and the number of registrations, and perform regression analysis using the estimated number of people as an explanatory variable and the number of registrations as an objective variable. Then, the predicted value and standard deviation of the number of registrations are calculated for an arbitrary estimated number of people, and when the deviation from the predicted value is a predetermined multiple (for example, 3 times) or more of the standard deviation, it is treated as an abnormal value. May be good.
The above is an example of a method for comparing the number of people, and the method for comparing the number of people is not necessarily limited to the above as long as the number of people to be registered in the object list 104 is determined based on the estimated number of people.

また、登録数と推定人数との比較が行われるタイミングについても特に限定はされない。
例えば、所定の期間ごとに定期的に登録数と推定人数との比較が行われてもよい。また、他の一例として、所定の処理を基点としたタイミングで登録数と推定人数との比較が行われてもよい。具体的な一例として、対象物リスト104のへの人物の登録や、対象物リスト104からの人物の削除が行われる直前に、登録数と推定人数との比較が行われてもよい。この場合には、例えば、登録数と推定人数との比較が正しい場合に、対象物リスト104への人物の登録や、対象物リスト104からの人物の削除が行われてもよい。
In addition, the timing at which the number of registrations and the estimated number of people are compared is not particularly limited.
For example, the number of registrations and the estimated number of people may be compared periodically at predetermined periods. Further, as another example, the number of registrations and the estimated number of people may be compared at a timing based on a predetermined process. As a specific example, the number of registered persons may be compared with the estimated number of people immediately before the person is registered in the object list 104 or the person is deleted from the object list 104. In this case, for example, when the comparison between the registered number and the estimated number of people is correct, the person may be registered in the object list 104 or the person may be deleted from the object list 104.

補正部110は、登録数と推定人数との比較結果を取得し、当該比較結果に応じて対象物リスト104の補正に関する処理を実行する。具体的な一例として、補正部110は、登録数が推定人数に比べて多く、その差が閾値以上の場合には、登録数がより少なくなるように対象物リスト104の補正に関する処理を実行してもよい。また、補正部110は、登録数が推定人数に比べて少なく、その差が閾値以上の場合には、登録数がより多くなるように対象物リスト104の補正に関する処理を実行してもよい。
なお、対象物リスト104の補正に関する処理の内容については、登録数を推定人数により近づける補正に関する処理であれば特に限定されない。具体的な一例として、信号受信部101に接続されている撮像部に対して人物を捜索させ、当該捜索の結果が対象物リスト104の補正に利用されてもよい。また、他の一例として、検出部102における人物(対象物)の検出に係る条件を制御することで、間接的に対象物リスト104の補正が行われてもよい。また、他の一例として、新規登録判定部107による対象物リスト104への人物の登録に係る判定条件を制御することで、間接的に対象物リスト104の補正が行われてもよい。同様に、登録削除判定部108による対象物リスト104からの人物の削除に係る判定条件を制御することで、間接的に対象物リスト104の補正が行われてもよい。なお、上述した対象物リスト104の補正に関する処理の詳細については、以降で説明する。
なお、補正部110の処理のうち、推定人数に関する情報(換言すると、第2の情報)の取得に係る処理が、「第2の取得処理」の一例に相当する。また、対象物リスト104の補正に関する処理が、当該対象物リスト104の管理に係る「管理処理」の一例に相当する。
The correction unit 110 acquires the comparison result between the registered number and the estimated number of people, and executes the process related to the correction of the object list 104 according to the comparison result. As a specific example, when the number of registrations is larger than the estimated number of people and the difference is equal to or greater than the threshold value, the correction unit 110 executes a process related to correction of the object list 104 so that the number of registrations is smaller. You may. Further, when the number of registrations is smaller than the estimated number of people and the difference is equal to or greater than the threshold value, the correction unit 110 may execute the process related to the correction of the object list 104 so that the number of registrations is larger.
The content of the processing related to the correction of the object list 104 is not particularly limited as long as it is the processing related to the correction that brings the number of registrations closer to the estimated number of people. As a specific example, an imaging unit connected to the signal receiving unit 101 may be made to search for a person, and the result of the search may be used for correction of the object list 104. Further, as another example, the object list 104 may be indirectly corrected by controlling the conditions related to the detection of the person (object) in the detection unit 102. Further, as another example, the object list 104 may be indirectly corrected by controlling the determination conditions related to the registration of the person in the object list 104 by the new registration determination unit 107. Similarly, the object list 104 may be indirectly corrected by controlling the determination conditions related to the deletion of the person from the object list 104 by the registration deletion determination unit 108. The details of the processing related to the correction of the object list 104 described above will be described below.
Of the processes of the correction unit 110, the process related to the acquisition of information on the estimated number of people (in other words, the second information) corresponds to an example of the "second acquisition process". Further, the process related to the correction of the object list 104 corresponds to an example of the "management process" related to the management of the object list 104.

登録数が推定人数よりも多い場合には、対象物リスト104に登録されている人物を削除するか、もしくは対象物リスト104への人物の新規登録を抑制することで、登録数を推定人数により近づけるように対象物リスト104の補正を行うことが可能である。この際に、対象物リスト104に登録されている人物を削除する方法と、対象物リスト104への人物の新規登録を抑制する方法と、のそれぞれに対して、能動的な手段と、受動的な手段と、を選択的に適用することが可能である。 If the number of registrations is larger than the estimated number of people, the number of registrations can be determined by the estimated number of people by deleting the person registered in the object list 104 or suppressing the new registration of the person in the object list 104. It is possible to correct the object list 104 so as to bring it closer. At this time, an active means and a passive means are used for the method of deleting the person registered in the object list 104 and the method of suppressing the new registration of the person in the object list 104, respectively. It is possible to selectively apply various means.

対象物リスト104からの削除対象とすることが望ましい人物としては、例えば、関心領域内に存在しない人物や、本来は同一人物であるにも関わらず対象物リスト104内に別人物として登録されている人物が該当し得る。 As a person who is desirable to be deleted from the object list 104, for example, a person who does not exist in the area of interest or a person who is originally the same person but is registered as another person in the object list 104. Can be the person who is.

対象物リスト104から人物を削除する受動的な手段としては、登録削除判定部108による対象物リスト104からの人物の削除に係る判定条件をより緩和する(すなわち、削除がより促されるようにする)手段が挙げられる。
具体的な一例として、登録削除判定部108が、登録人物を対象物リスト104からの削除対象と判定するために未検出期間との比較に用いられる登録削除期間閾値を、より短い期間に対応する閾値としてもよい。これにより、既に関心領域から退出した人物がより速く対象物リスト104から削除されるように制御することが可能となる。
As a passive means for deleting a person from the object list 104, the determination condition relating to the deletion of the person from the object list 104 by the registration deletion determination unit 108 is further relaxed (that is, the deletion is more promoted). ) Means can be mentioned.
As a specific example, the registration deletion determination unit 108 corresponds to a shorter period of the registration deletion period threshold value used for comparison with the undetected period in order to determine the registered person as the deletion target from the object list 104. It may be a threshold value. This makes it possible to control the person who has already left the area of interest to be deleted from the object list 104 more quickly.

また、対象物リスト104から人物を削除する能動的な手段には、登録削除期間閾値をより短い期間に対応する閾値としたうえで、過去に遡って当該閾値を適用することで既に退出したと判定可能な登録人物を探索して削除する手段が挙げられる。この際に、更新後の閾値を遡って適用する期間については、直前に登録数と推定人数との比較が行われたタイミング以降となるように設定されるとよい。これは、直前に人数比較が行われたタイミングでは、登録数は推定人数との比較により正しいことがわかっており、このタイミング以降に新たな条件が適用されることで、登録数を関心領域に存在する人物の数により近づけることが可能となる。また、遡って新たな条件(更新後の閾値)が適用される範囲が制限されるため、対象物リスト104からの人物の削除に係る処理コストを最小限に抑えることが可能となる。 In addition, as an active means of deleting a person from the object list 104, it is said that the user has already exited by setting the registration deletion period threshold value to a threshold value corresponding to a shorter period and applying the threshold value retroactively. Examples include a means of searching for and deleting a determinable registered person. At this time, the period for retroactively applying the updated threshold value may be set to be after the timing when the number of registrations and the estimated number of people are compared immediately before. This is because it is known that the number of registrations is correct by comparing with the estimated number of people at the timing when the number of people was compared immediately before, and by applying new conditions after this timing, the number of registrations will be the area of interest. It becomes possible to get closer to the number of existing people. Further, since the range in which the new condition (threshold value after update) is applied retroactively is limited, it is possible to minimize the processing cost related to the deletion of the person from the object list 104.

対象物リスト104から人物を削除する能動的な手段の他の一例として、登録数が推定人数よりも多いと判定された場合に、関心領域内の人物を走査し、対象物リスト104に重複して登録された人物や、既に退出した人物を特定して削除する手段が挙げられる。この場合には、例えば、撮像部のPTZ(Pan Tilt Zoom)機能を利用して、関心領域内を走査し、関心領域内に存在する人物と、登録人物との照合を行うことで、対象物リスト104からの削除対象となる人物の特定が行われればよい。 As another example of an active means of removing a person from the object list 104, when it is determined that the number of registrations is larger than the estimated number of people, the person in the area of interest is scanned and duplicated in the object list 104. There is a means to identify and delete a person who has already been registered or a person who has already left. In this case, for example, the PTZ (Pan Til Zoom) function of the imaging unit is used to scan the area of interest and collate the person existing in the area of interest with the registered person to match the object. The person to be deleted from the list 104 may be specified.

対象物リスト104への人物の新規登録の抑制は、例えば、関心領域内が急に混雑したような状況下において、登録数が推定人数により近づくように対象物リスト104を補正する場合に有効である。具体的には、関心領域内が混雑すると、入力画像中に被写体として撮像された人物は、他の人物によって部分的に遮蔽される可能性が高くなる。このような状況下では、入力画像から検出された人物が、登録人物と同一人物であったとしても、当該登録人物と見え方が異なる場合があり、これにより照合スコアが低くなり、結果として登録人物とは別人物として登録される可能性が高くなる。このように、本来は登録人物と同一人物であるにも関わらず、他の人物として対象物リスト104に登録される事態の発生を抑制するために、対象物リスト104への人物の新規登録に係る条件が制限される(厳格化される)とよい。
なお、対象物リスト104への人物の新規登録に係る条件が、「第1の条件」の一例に相当する。
Suppression of new registration of a person in the object list 104 is effective, for example, when the object list 104 is corrected so that the number of registrations is closer to the estimated number of people in a situation where the area of interest is suddenly congested. be. Specifically, when the area of interest is congested, the person captured as the subject in the input image is more likely to be partially shielded by another person. Under such circumstances, even if the person detected from the input image is the same person as the registered person, the appearance may be different from that of the registered person, which lowers the matching score, resulting in registration. There is a high possibility that the person will be registered as a different person from the person. In this way, in order to suppress the occurrence of a situation in which the person is originally the same person as the registered person but is registered in the object list 104 as another person, the person is newly registered in the object list 104. Such conditions should be restricted (stricter).
The condition relating to the new registration of a person in the object list 104 corresponds to an example of the "first condition".

対象物リスト104への人物の新規登録を抑制する受動的な手段には、新規登録判定部107による対象物リスト104への人物の登録に係る判定条件をより制限する(すなわち、より登録されにくくする)手段が挙げられる。
対象物リスト104への人物の新規登録に関する条件としては、例えば、検出部102による人物の検出に係る条件、新規登録判定部107による対象物リスト104への登録に係る判定条件等が挙げられる。
As a passive means of suppressing new registration of a person in the object list 104, the determination condition relating to the registration of the person in the object list 104 by the new registration determination unit 107 is further restricted (that is, it is more difficult to be registered). ) Means can be mentioned.
Examples of the condition for newly registering a person in the object list 104 include a condition for detecting a person by the detection unit 102, a determination condition for registering a person in the object list 104 by the new registration determination unit 107, and the like.

検出部102による人物の検出に係る条件を制限する(厳格化する)一手法としては、例えば、検出部102が人物の検出を行った際に、当該人物の画像のうち他の人物や物によって遮蔽されている領域の比率を利用する方法が挙げられる。具体的には、遮蔽されている領域の比率が閾値以上となる人物については、登録人物との照合の対象から除外することで、対象物リスト104への人物の登録に係る判定条件をより制限することが可能となる。 As a method of limiting (stricting) the conditions related to the detection of a person by the detection unit 102, for example, when the detection unit 102 detects a person, the image of the person is determined by another person or object. A method of utilizing the ratio of the shielded area can be mentioned. Specifically, the judgment conditions related to the registration of a person in the object list 104 are further restricted by excluding the person whose ratio of the shielded area is equal to or more than the threshold value from the target of collation with the registered person. It becomes possible to do.

新規登録判定部107による対象物リスト104への登録に係る判定条件を制限する(厳格化する)一手法としては、検出された人物を対象物リスト104への登録対象と判定するために照合スコアとの比較に用いられる新規登録閾値を制御する方法が挙げられる。具体的には、新規登録閾値がより低くなるように設定されることで、照合スコアがより低い人物のみが、対象物リスト104に登録されるように制御することが可能となる。 As one method of limiting (stricting) the judgment conditions related to registration in the object list 104 by the new registration judgment unit 107, a collation score is used to determine the detected person as a registration target in the object list 104. There is a method of controlling the new registration threshold used for comparison with. Specifically, by setting the new registration threshold value to be lower, it is possible to control that only a person having a lower collation score is registered in the object list 104.

また、他の手法として、顔認証技術と全身照合技術とを組み合わせて利用する方法が挙げられる。
一般的には、顔認証技術は、全身照合技術に比べて人物の識別能力が高い傾向にある。一方で、顔認証技術は、入力として人物がより正面を向いた顔画像が使用されることが望ましく、照合に利用可能な検出結果の数が全身照合技術に比べてより制限される傾向にある。これに対して、全身照合技術は、顔認証技術に比べて人物の識別能力が低い傾向にある。一方で、全身照合技術は、入力として人物が横や後ろを向いた画像を使用することも可能であるため、照合に利用可能な検出結果の数が顔認証技術に比べてより多くなる傾向にある。
以上のような特性を鑑み、通常は全身照合技術を利用して対象物リスト104への人物の登録に係る判定を行われ、対象物リスト104への人物の新規登録を抑制する場合には、顔認証技術を利用して登録の判定が行われるような制御が適用されてもよい。これにより、対象物リスト104への人物の登録に係る判定を、顔認証技術を利用した登録の判定に切り替えることで、全身照合技術を利用した登録の判定が行われる場合に比べて、対象物リスト104への人物の新規登録に係る条件を厳格化することが可能となる。
In addition, as another method, there is a method of using a combination of face recognition technology and whole body verification technology.
In general, face recognition technology tends to have a higher ability to identify a person than whole-body verification technology. On the other hand, the face recognition technology preferably uses a face image in which the person faces the front as input, and the number of detection results that can be used for matching tends to be more limited than that of the whole body matching technique. .. On the other hand, the whole body verification technique tends to have a lower ability to identify a person than the face recognition technique. On the other hand, the whole-body matching technology can also use an image in which a person faces sideways or backwards as an input, so the number of detection results that can be used for matching tends to be larger than that of the face recognition technology. be.
In view of the above characteristics, when a determination regarding the registration of a person in the object list 104 is usually performed by using the whole body collation technique and the new registration of the person in the object list 104 is suppressed, the case is performed. Controls may be applied such that the determination of registration is performed using face recognition technology. As a result, by switching the determination related to the registration of the person in the object list 104 to the determination of registration using the face recognition technology, the object is compared with the case where the determination of registration using the whole body verification technology is performed. It is possible to tighten the conditions for newly registering a person in the list 104.

対象物リスト104への人物の新規登録を抑制する能動的な手段としては、前述した対象物リスト104から人物を削除する手段と同様に、変更した登録条件を遡って適用する方法等が挙げられる。 As an active means for suppressing new registration of a person in the object list 104, a method of retroactively applying the changed registration conditions and the like can be mentioned as in the above-mentioned means for deleting a person from the object list 104. ..

また、推定人数よりも登録数が少ない場合に、対象物リスト104に対して人物を新規登録するか、または対象物リスト104に登録されている人物の削除を抑制することで、登録数が推定人数により近づくように対象物リスト104の補正を行うことが可能である。この際に、対象物リスト104に対して人物を新規登録する方法と、対象物リスト104に登録されている人物の削除を抑制する方法と、のそれぞれに対して、能動的な手段と、受動的な手段と、を選択的に適用することが可能である。 Further, when the number of registrations is smaller than the estimated number of people, the number of registrations is estimated by newly registering a person in the object list 104 or suppressing the deletion of the person registered in the object list 104. It is possible to correct the object list 104 so as to get closer to the number of people. At this time, active means and passive means for each of the method of newly registering a person in the object list 104 and the method of suppressing the deletion of the person registered in the object list 104. Means and can be selectively applied.

対象物リスト104への新規登録の対象とすることが望ましい人物としては、対象物リスト104に登録されていないが、関心領域内に存在する人物が該当し得る。このような人物は、検出部102により検出されなかった人物、登録人物との照合スコアが登録判定閾値未満とならなかった人物(例えば、登録人物と服装が類似する人物)、及び関心領域内に存在するが対象物リスト104からは削除された人物に大別される。 As a person who is desirable to be newly registered in the object list 104, a person who is not registered in the object list 104 but exists in the area of interest may be applicable. Such a person is included in a person who is not detected by the detection unit 102, a person whose matching score with the registered person is not less than the registration determination threshold value (for example, a person whose clothes are similar to the registered person), and an area of interest. It is roughly classified into persons who exist but are deleted from the object list 104.

対象物リスト104に対して人物を新規登録する受動的な手段としては、対象物リスト104への人物の登録に係る条件を緩和する(すなわち、より登録が促されるようにする)手段が挙げられる。前述したように、対象物リスト104への人物の登録に係る判定条件としては、例えば、検出部102による人物の検出に係る条件と、新規登録判定部107による対象物リスト104への人物の登録に係る判定条件と、が挙げられる。 As a passive means for newly registering a person in the object list 104, there is a means for relaxing the conditions for registering the person in the object list 104 (that is, making the registration more promoted). .. As described above, the determination conditions for registering a person in the object list 104 include, for example, the condition for detecting a person by the detection unit 102 and the registration of the person in the object list 104 by the new registration determination unit 107. Judgment conditions related to

検出部102による人物の検出に係る条件を緩和する手段としては、人物の検出に係る閾値判定を緩和する手段や、別の検出手段を併用する手段が挙げられる。別の検出手段を併用する手段としては、例えば、人物の検出が行われる際に、画像からの頭部形状の検出に替えて、両足の検出を行う手段が挙げられる。
両足を検出する手段は、頭部を検出する手段に比べて人物の検出に係る精度が低い傾向にあるが、雨天の屋外の画像のように多くの人物の頭部が傘等により遮蔽されているような状況下では、頭部を検出する手段に比べて人物の検出に係る精度が高くなる場合がある。そのため、関心領域が屋外の場合には、推定人数が大きく変化していないにも関わらず登録数が著しく減少した場合には、雨天となり傘等により人物の頭部が遮蔽されたものと仮定し、両足の検出と頭部形状の検出とを併用して人物の検出が行われてもよい。
新規登録判定部107による対象物リスト104への人物の登録に係る判定条件を緩和する手段としては、新規登録閾値を引き上げる手段が挙げられる。
Examples of the means for relaxing the condition for detecting a person by the detection unit 102 include a means for relaxing the threshold value determination for detecting a person and a means for using another detection means in combination. As a means for using another detection means in combination, for example, when a person is detected, a means for detecting both feet instead of detecting the head shape from the image can be mentioned.
The means for detecting both feet tends to have lower accuracy in detecting a person than the means for detecting the head, but the heads of many people are shielded by an umbrella or the like as in an outdoor image in rainy weather. Under such circumstances, the accuracy of detecting a person may be higher than that of the means for detecting the head. Therefore, when the area of interest is outdoors, if the number of registrations decreases significantly even though the estimated number of people has not changed significantly, it is assumed that it is raining and the head of the person is shielded by an umbrella or the like. , A person may be detected by using both foot detection and head shape detection in combination.
As a means for relaxing the determination condition relating to the registration of the person in the object list 104 by the new registration determination unit 107, a means for raising the new registration threshold can be mentioned.

対象物リスト104に対して人物を新規登録する能動的な手段としては、対象物リスト104への人物の登録に係る条件を緩和したうえで、過去に遡って新たな条件(緩和後の条件)を適用する手段が挙げられる。また、対象物リスト104に登録されていない人物を発見するために、撮像部の撮像範囲を制御する手段が適用されてもよい。 As an active means for newly registering a person in the object list 104, after relaxing the conditions for registering the person in the object list 104, new conditions retroactively (conditions after relaxation). There are means to apply. Further, in order to find a person who is not registered in the object list 104, a means for controlling the imaging range of the imaging unit may be applied.

対象物リスト104からの人物の削除を抑制する受動的な手段としては、対象物リスト104から人物の削除に関する条件を制限(厳格化)する手段が挙げられる。具体的な一例として、登録削除期間閾値がより長くなるように制御されることで、関心領域内に存在するが、撮像部の死角に長時間いるような人物が削除される事態の発生を抑制することが可能となる。
また、対象物リスト104からの人物の削除を抑制する能動的な手段としては、例えば、制限(厳格化)された登録削除期間閾値を過去に遡って適用する手段が挙げられる。また、対象物リスト104から削除されたが関心領域に存在する人物を発見するために、撮像部の撮像範囲を制御する手段が適用されてもよい。
As a passive means for suppressing the deletion of a person from the object list 104, there is a means for limiting (stricting) the conditions for deleting the person from the object list 104. As a specific example, by controlling the registration deletion period threshold to be longer, it is possible to suppress the occurrence of a situation in which a person who exists in the region of interest but stays in the blind spot of the imaging unit for a long time is deleted. It becomes possible to do.
Further, as an active means for suppressing the deletion of the person from the object list 104, for example, a means for retroactively applying the restricted (stricted) registration deletion period threshold value can be mentioned. Further, in order to find a person who has been deleted from the object list 104 but exists in the region of interest, means for controlling the imaging range of the imaging unit may be applied.

以上のような手段が適用されることで、対象物リスト104から削除された人物であっても、関心領域内に存在することが確認された場合に、改めて当該人物が対象物リスト104に登録された状態とすることが可能となる。なお。対象物リスト104から削除された人物を改めて登録された状態とする場合には、削除前に当該人物に関連付けられた人物IDが用いられることで、行動履歴の取得に係る精度をより向上させることが可能となる。 By applying the above means, even if a person is deleted from the object list 104, if it is confirmed that the person exists in the area of interest, the person is registered in the object list 104 again. It is possible to make it in the state of being done. note that. When a person deleted from the object list 104 is to be registered again, the person ID associated with the person before the deletion is used to further improve the accuracy related to the acquisition of the action history. Is possible.

また、検出部102により検出されなかった人物、登録人物との照合スコアが登録判定閾値未満とならなかった人物、及び関心領域内に存在するが対象物リスト104からは削除された人物、のいずれに該当するかが特定できるとより望ましい。これらのうちのいずれの人物に該当するかが特定できることで、対象物リスト104をより実態に近い状態に維持することが可能となる可能性がより高まる。
例えば、関心領域が屋外であり、雨天により傘をさす人物が増えたことによって人物の検出数が減少した場合には、人物の検出に係る条件を緩和することが望ましい。また、制服を着たグループ等のように似たような服装の人物が増加した場合には、対象物リスト104への人物の登録に係る判定条件を緩和することが望ましい。
Further, any of a person who is not detected by the detection unit 102, a person whose matching score with the registered person does not fall below the registration determination threshold value, and a person who exists in the region of interest but is deleted from the object list 104. It is more desirable to be able to identify whether it corresponds to. By being able to identify which of these persons corresponds to, it is more likely that the object list 104 can be maintained in a state closer to the actual state.
For example, when the area of interest is outdoors and the number of people detected decreases due to an increase in the number of people holding an umbrella due to rain, it is desirable to relax the conditions for detecting people. Further, when the number of persons with similar clothes such as a group wearing uniforms increases, it is desirable to relax the determination conditions for registering the persons in the object list 104.

どのような要因により、登録数と実際の人物の数との間に乖離が生じたかを推定する方法としては、例えば、時間当たりの人物の検出数、人物の登録数、及び登録人物の削除数と、推定人数と、を併せて利用する方法が挙げられる。具体的には、時間当たりの人物の検出数、人物の登録数、及び登録人物の削除数のデータを蓄積したうえで、推定人数を説明変数として、当該検出数、当該登録数、及び当該削除数を目的変数として予測する回帰分析を行えばよい。そして、登録数と推定人数との乖離が発生した場合に、推定人数から上記目的変数を予測し、より異常値に近い項目により大きな重みを付して人物の検出条件、人物の登録条件、及び人物の削除条件の補正を行えばよい。 As a method of estimating the cause of the discrepancy between the number of registered persons and the actual number of persons, for example, the number of detected persons per hour, the number of registered persons, and the number of deleted registered persons are used. And the method of using the estimated number of people together. Specifically, after accumulating data on the number of detected persons, the number of registered persons, and the number of deleted registered persons per hour, the estimated number of persons is used as an explanatory variable, and the detected number, the registered number, and the deletion are performed. Regression analysis that predicts numbers as objective variables may be performed. Then, when there is a discrepancy between the number of registered persons and the estimated number of people, the above objective variable is predicted from the estimated number of people, and the item closer to the abnormal value is given a larger weight to the person detection condition, the person registration condition, and the person registration condition. The condition for deleting a person may be corrected.

過去の統計に対して異常値に近い項目が、人物数の乖離の原因である可能性が高いため、上述した制御が適用されることで、多様な条件をどの様に変更すべきかを適切に決定し、対象物リスト104の精度を向上させることが可能となる。 Items that are close to outliers with respect to past statistics are likely to be the cause of the divergence in the number of people, so by applying the above-mentioned controls, it is appropriate to properly change how various conditions should be changed. It is possible to determine and improve the accuracy of the object list 104.

<ハードウェア構成>
図2を参照して、本実施形態に係る情報処理装置100のハードウェア構成の一例について説明する。図2に示すように、本実施形態に係る情報処理装置100は、CPU(Central Processing Unit)211と、ROM(Read Only Memory)212と、RAM(Random Access Memory)213とを含む。また、情報処理装置100は、補助記憶装置214と、出力装置215と、入力装置216と、通信I/F217とを含む。CPU211と、ROM212と、RAM213と、補助記憶装置214と、出力装置215と、入力装置216と、通信I/F217とは、バス218を介して相互に接続されている。
<Hardware configuration>
An example of the hardware configuration of the information processing apparatus 100 according to the present embodiment will be described with reference to FIG. As shown in FIG. 2, the information processing apparatus 100 according to the present embodiment includes a CPU (Central Processing Unit) 211, a ROM (Read Only Memory) 212, and a RAM (Random Access Memory) 213. Further, the information processing device 100 includes an auxiliary storage device 214, an output device 215, an input device 216, and a communication I / F 217. The CPU 211, ROM 212, RAM 213, auxiliary storage device 214, output device 215, input device 216, and communication I / F 217 are connected to each other via a bus 218.

CPU211は、情報処理装置100の各種動作を制御する中央演算装置である。例えば、CPU211は、情報処理装置100全体の動作を制御してもよい。ROM212は、CPU211で実行可能な制御プログラムやブートプログラムなどを記憶する。RAM213は、CPU211の主記憶メモリであり、ワークエリア又は各種プログラムを展開するための一時記憶領域として用いられる。 The CPU 211 is a central processing unit that controls various operations of the information processing device 100. For example, the CPU 211 may control the operation of the entire information processing device 100. The ROM 212 stores a control program, a boot program, and the like that can be executed by the CPU 211. The RAM 213 is the main storage memory of the CPU 211, and is used as a work area or a temporary storage area for developing various programs.

補助記憶装置214は、各種データや各種プログラムを記憶する。補助記憶装置214は、HDD(Hard Disk Drive)や、SSD(Solid State Drive)に代表される不揮発性メモリ等のような、各種データを一時的または持続的に記憶可能な記憶デバイスにより実現される。 The auxiliary storage device 214 stores various data and various programs. The auxiliary storage device 214 is realized by a storage device that can temporarily or continuously store various data such as an HDD (Hard Disk Drive) and a non-volatile memory represented by an SSD (Solid State Drive). ..

出力装置215は、各種情報を出力する装置であり、ユーザに対する各種情報の提示(例えば、報知情報の報知)に利用される。本実施形態では、出力装置215は、ディスプレイ等の表示デバイスにより実現される。出力装置215は、各種表示情報を表示させることで、ユーザに対して情報を提示する。ただし、他の例として、出力装置215は、音声や電子音等の音を出力する音響出力デバイスにより実現されてもよい。この場合には、出力装置215は、音声や電子音等の音響を出力することで、ユーザに対して情報を提示する。また、出力装置215として適用されるデバイスは、ユーザに対して情報を提示するために利用する媒体に応じて適宜変更されてもよい。なお、出力装置215が、「出力部」の一例に相当する。 The output device 215 is a device that outputs various information, and is used for presenting various information to the user (for example, notification of notification information). In the present embodiment, the output device 215 is realized by a display device such as a display. The output device 215 presents the information to the user by displaying various display information. However, as another example, the output device 215 may be realized by an acoustic output device that outputs sounds such as voice and electronic sounds. In this case, the output device 215 presents information to the user by outputting sound such as voice or electronic sound. Further, the device applied as the output device 215 may be appropriately changed depending on the medium used for presenting information to the user. The output device 215 corresponds to an example of the “output unit”.

入力装置216は、ユーザからの各種指示の受け付けに利用される。本実施形態では、入力装置216は、マウス、キーボード、タッチパネル等の入力デバイスを含む。ただし、他の例として、入力装置216は、マイクロフォン等の集音デバイスを含み、ユーザが発話した音声を集音してもよい。この場合には、集音された音声に対して音響解析や自然言語処理等の各種解析処理が施されることで、この音声が示す内容がユーザからの指示として認識される。また、入力装置216として適用されるデバイスは、ユーザからの指示を認識する方法に応じて適宜変更されてもよい。また、入力装置216として複数種類のデバイスが適用されてもよい。 The input device 216 is used for receiving various instructions from the user. In the present embodiment, the input device 216 includes an input device such as a mouse, a keyboard, and a touch panel. However, as another example, the input device 216 may include a sound collecting device such as a microphone and collect sound spoken by the user. In this case, the collected voice is subjected to various analysis processes such as acoustic analysis and natural language processing, so that the content indicated by the voice is recognized as an instruction from the user. Further, the device applied as the input device 216 may be appropriately changed depending on the method of recognizing the instruction from the user. Further, a plurality of types of devices may be applied as the input device 216.

通信I/F217は、外部の装置とのネットワークを介した通信に利用される。なお、通信I/F217として適用されるデバイスは、通信経路の種別や適用される通信方式に応じて適宜変更されてもよい。 The communication I / F 217 is used for communication with an external device via a network. The device applied as the communication I / F 217 may be appropriately changed according to the type of the communication path and the applicable communication method.

CPU211は、ROM212又は補助記憶装置214に記憶されたプログラムをRAM213に展開し、このプログラムを実行することで、図1に示された情報処理装置100の機能構成や、図3〜図10に示すフローチャートで示された処理が実現される。 The CPU 211 expands the program stored in the ROM 212 or the auxiliary storage device 214 into the RAM 213, and by executing this program, the functional configuration of the information processing device 100 shown in FIG. 1 and the functional configurations shown in FIGS. 3 to 10 are shown. The processing shown in the flowchart is realized.

<実施例>
以下に、上述した実施形態を実際に実現するための具体的な実施例について説明する。
<Example>
Hereinafter, specific examples for actually realizing the above-described embodiment will be described.

(実施例1)
実施例1では、本実施形態に係る技術に基づき、店舗内の不審人物を検知する仕組みの一例について説明する。なお、実施例1を実現するためのシステムや装置の構成については、特に説明が無い限りは、実施形態として上述した構成に従うものとする。
(Example 1)
In the first embodiment, an example of a mechanism for detecting a suspicious person in a store will be described based on the technique according to the present embodiment. Unless otherwise specified, the configuration of the system or device for realizing the first embodiment shall follow the above-described configuration as an embodiment.

図3は、実施例1に係るシステムの適用条件を示した図であり、不審人物の検知の対象となる店舗内の概略的な俯瞰図を示している。図3に示す例では、店舗には、出入口311が1つあり、商品棚313とレジカウンター312とが載置されている。店舗内にはスタッフ314が1人おり、当該スタッフ314が会計及び店舗内の見回りを行うものとする。
本実施例に係る情報処理装置100の信号受信部101は、店舗内に配設された複数の撮像部301a〜301d(例えば、ネットワークカメラ)それぞれから撮像結果に応じた動画像を取得する。撮像部301a〜301dそれぞれの撮像領域は、スタッフ314がレジカウンター312の後ろにいる状況下において死角となる領域を主にカバーする。また、撮像部301a〜301dのうち一部は撮像領域が重複するが、各撮像部の撮像結果に応じた画像のどの領域が、どの撮像部の撮像領域と重複しているかは基地であるものとする。そのため、例えば、1人の人物が複数の撮像部により同時に検出されたとしても、当該人物が検出された位置から同一人物であることが特定され、同じ追尾IDが付与されるものとする。
FIG. 3 is a diagram showing application conditions of the system according to the first embodiment, and shows a schematic bird's-eye view of the inside of the store to be detected by a suspicious person. In the example shown in FIG. 3, the store has one entrance / exit 311 and a product shelf 313 and a cash register counter 312 are placed on the store. There is one staff member 314 in the store, and the staff member 314 shall perform accounting and patrol in the store.
The signal receiving unit 101 of the information processing device 100 according to the present embodiment acquires moving images according to the imaging results from each of the plurality of imaging units 301a to 301d (for example, a network camera) arranged in the store. Each of the imaging areas 301a to 301d mainly covers an area that becomes a blind spot when the staff 314 is behind the cashier counter 312. Further, although the imaging regions of some of the imaging units 301a to 301d overlap, it is a base which region of the image corresponding to the imaging result of each imaging unit overlaps with the imaging region of which imaging unit. And. Therefore, for example, even if one person is detected by a plurality of imaging units at the same time, it is determined that the person is the same person from the detected position, and the same tracking ID is assigned.

集計部106は、店舗内の人物それぞれが撮像部の撮像領域に現れた回数と滞在時間とを記録し、通常(例えば、一般的な顧客)よりも滞在時間の長い人物や、うろついている人物を不信行動者として特定し、スタッフ314に通知する。また、撮像部315(例えば、ネットワークカメラ)は、店舗内のフロア全体が撮像領域内に収まるように配設されている。撮像部315による撮像結果に応じた動画像が、店舗内の人物の数の推定に利用される。 The totaling unit 106 records the number of times each person in the store appears in the imaging area of the imaging unit and the staying time, and the person who stays longer than usual (for example, a general customer) or the person who is wandering around. Is identified as a disbelief and the staff 314 is notified. Further, the imaging unit 315 (for example, a network camera) is arranged so that the entire floor in the store fits within the imaging area. A moving image according to the image pickup result by the image pickup unit 315 is used for estimating the number of people in the store.

本実施例において情報処理装置100の各機能は、例えば、店舗内のサーバで稼働するソフトウェアにより実現される。換言すると、当該サーバにより、本実施形態に係る情報処理装置100が実現される。撮像部301a〜301d、及び315は、例えば、ネットワークケーブルやネットワークハブを介して上記サーバと接続されている。サーバは、撮像部301a〜301d、及び315それぞれから撮像結果に応じた動画像を取得し、本実施形態に係る情報処理装置100の各機能を実行する。また、サーバ(情報処理装置100)は、スタッフ314に対して情報の通知を行う場合には、当該スタッフ314が携帯する通信端末に通知画面を表示させる。 In this embodiment, each function of the information processing apparatus 100 is realized by, for example, software running on a server in a store. In other words, the information processing device 100 according to the present embodiment is realized by the server. The imaging units 301a to 301d and 315 are connected to the server via, for example, a network cable or a network hub. The server acquires moving images according to the imaging results from the imaging units 301a to 301d and 315, respectively, and executes each function of the information processing apparatus 100 according to the present embodiment. Further, when the server (information processing apparatus 100) notifies the staff 314 of information, the server (information processing device 100) causes the communication terminal carried by the staff 314 to display the notification screen.

検出部102は、店舗内(関心領域内)に存在する人物の検出を行う。具体的には、検出部102は、撮像部301a〜301dそれぞれの撮像結果に応じた動画像から人物領域を切り出した静止画像(人物画像)を作成し、当該人物画像に対して画像情報及び追尾情報を関連付けたうえで、当該人物画像を抽出部103に出力する。本実施例では、画像情報は、撮像部301a〜301dのうちどの撮像部により撮像された画像であるかを特定するための識別情報(カメラID)と、撮像が行われた時刻を示す情報と、を含む。追尾情報は、検出結果それぞれを識別するための識別情報(検出ID)と、追尾IDと、を含む。 The detection unit 102 detects a person existing in the store (in the area of interest). Specifically, the detection unit 102 creates a still image (personal image) in which a person area is cut out from a moving image corresponding to each of the imaging results of the imaging units 301a to 301d, and image information and tracking of the person image. After associating the information, the person image is output to the extraction unit 103. In this embodiment, the image information includes identification information (camera ID) for identifying which image pickup unit of the image pickup units 301a to 301d has captured the image, and information indicating the time when the image pickup was performed. ,including. The tracking information includes identification information (detection ID) for identifying each detection result and tracking ID.

抽出部103は、検出部102から出力された人物画像から特徴量を抽出する。本実施例では、抽出される特徴量は、1000次元の正規化されたベクトルであるものとする。特徴量の抽出は、例えば、互いに似ている人物ほど特徴量のL2距離がより短くなり、似ていない人物ほど特徴量のL2距離がより長くなるように、機械学習に基づき構築された特徴量抽出器が用いられるものとする。抽出部103は、抽出した特徴量と、当該特徴量の抽出元となる人物画像に関連付けられた画像情報及び追尾情報と、を照合部105に出力する。 The extraction unit 103 extracts the feature amount from the person image output from the detection unit 102. In this embodiment, the extracted features are assumed to be 1000-dimensional normalized vectors. The feature amount extraction is performed based on machine learning, for example, so that the L2 distance of the feature amount becomes shorter for people who are similar to each other, and the L2 distance of the feature amount becomes longer for people who are not similar to each other. An extractor shall be used. The extraction unit 103 outputs the extracted feature amount and the image information and tracking information associated with the person image that is the extraction source of the feature amount to the collation unit 105.

照合部105は、抽出部103から出力された特徴量と、対象物リスト104に登録されている一連の人物それぞれの特徴量と、の間で照合を行う。具体的な一例として、照合部105は、照合の対象となる特徴量それぞれのL2距離の逆数を取って1000倍することで整数化する。 The collation unit 105 collates between the feature amount output from the extraction unit 103 and the feature amount of each of the series of persons registered in the object list 104. As a specific example, the collation unit 105 takes the reciprocal of the L2 distance of each feature amount to be collated and multiplies it by 1000 to convert it into an integer.

(人物の新規登録処理)
ここで、図4を参照して、実施例1に係る情報処理装置100の処理の一例として、特に、対象物リスト104に対する人物の新規登録に係る処理の一例について説明する。
なお、S101の処理は、上述した照合部105による、抽出部103から出力された特徴量(人物画像から抽出された特徴量)と、対象物リスト104に登録されている一連の人物それぞれの特徴量と、の間で照合に係る処理に相当する。
(New person registration process)
Here, with reference to FIG. 4, as an example of the processing of the information processing apparatus 100 according to the first embodiment, in particular, an example of the processing related to the new registration of a person for the object list 104 will be described.
In the processing of S101, the feature amount output from the extraction unit 103 (feature amount extracted from the person image) by the collation unit 105 described above and the feature of each of the series of persons registered in the object list 104. Corresponds to the process related to collation between the quantity and.

S102において、照合部105は、人物画像から抽出された特徴量と、対象物リスト104に登録されている一連の人物それぞれの特徴量と、の照合スコアがいずれも新規登録閾値未満か否かを判定する。
照合部105は、S102において、人物画像から抽出された特徴量と、対象物リスト104に登録されている一連の人物それぞれの特徴量と、の照合スコアがいずれも新規登録閾値未満と判定した場合には、対象となる人物が未登録であるものと判定する。この場合には、照合部105は、処理をS103に進める。S103において、新規登録判定部107は、対象となる人物(すなわち、人物画像から抽出された特徴量が示す人物)を、対象物リスト104に新規登録する。この際に、新規登録判定部107は、対象となる人物の登録時間(例えば、検出時間)及び特徴量を、新規に発行される人物IDと関連付けたうえで、対象物リスト104に対する当該人物の登録を行う。
S104において、新規登録判定部107は、対象物リスト104に新規登録した人物の人物IDに対して、対応する画像情報、追尾情報、及び特徴量を関連付けたうえで、この一連の情報を集計部106に出力する。集計部106は、人物IDごとに、検出時間と、検出元の撮像部と、のそれぞれに関する情報を含む、当該人物IDが示す人物に関する情報を記録する。そして、集計部106は、図4に示す一連の処理を終了する。
In S102, the collation unit 105 determines whether or not the collation score of the feature amount extracted from the person image and the feature amount of each of the series of persons registered in the object list 104 is less than the new registration threshold value. judge.
When the collation unit 105 determines in S102 that the collation score of the feature amount extracted from the person image and the feature amount of each of the series of persons registered in the object list 104 is less than the new registration threshold value. Is determined that the target person is unregistered. In this case, the collating unit 105 advances the process to S103. In S103, the new registration determination unit 107 newly registers the target person (that is, the person indicated by the feature amount extracted from the person image) in the object list 104. At this time, the new registration determination unit 107 associates the registration time (for example, the detection time) and the feature amount of the target person with the newly issued person ID, and then the new registration determination unit 107 of the target person with respect to the object list 104. Register.
In S104, the new registration determination unit 107 associates the corresponding image information, the tracking information, and the feature amount with the person ID of the person newly registered in the object list 104, and then aggregates this series of information. Output to 106. The aggregation unit 106 records information about the person indicated by the person ID, including information about the detection time and the imaging unit of the detection source for each person ID. Then, the totaling unit 106 ends a series of processes shown in FIG.

一方で、照合部105は、S102において、人物画像から抽出された特徴量と、対象物リスト104に登録されている一連の人物それぞれの特徴量と、の照合スコアがいずれも新規登録閾値以上と判定した場合には、図4に示す一連の処理を終了する。 On the other hand, in S102, the collation unit 105 sets the collation score of the feature amount extracted from the person image and the feature amount of each of the series of persons registered in the object list 104 to be equal to or higher than the new registration threshold value. If it is determined, the series of processes shown in FIG. 4 is terminated.

(登録人物検出時の処理)
次いで、図5を参照して、実施例1に係る情報処理装置100の処理の他の一例として、特に、対象物リスト104に登録されている人物と同一人物が検出された場合の処理の一例について説明する。
なお、S201の処理は、上述した照合部105による、抽出部103から出力された特徴量(人物画像から抽出された特徴量)と、対象物リスト104に登録されている一連の人物それぞれの特徴量と、の間で照合に係る処理に相当する。
(Processing when a registered person is detected)
Next, with reference to FIG. 5, as another example of the processing of the information processing apparatus 100 according to the first embodiment, in particular, an example of processing when the same person as the person registered in the object list 104 is detected. Will be described.
In the processing of S201, the feature amount output from the extraction unit 103 (feature amount extracted from the person image) by the collation unit 105 described above and the feature of each of the series of persons registered in the object list 104. Corresponds to the process related to collation between the quantity and.

S202において、照合部105は、人物画像から抽出された特徴量との照合スコアが同一人物判定閾値以上となる人物が対象物リスト104に登録されているか否かを判定する。
照合部105は、S202において、人物画像から抽出された特徴量との照合スコアが同一人物判定閾値以上となる人物が対象物リスト104に登録されていると判定した場合には、照合スコアがより高い登録人物が対象となる人物と同一人物であるものと判定する。この場合には、照合部105は、処理をS203に進める。S203において、集計部106は、対象となる人物(すなわち、人物画像から抽出された特徴量が示す人物)の検出時間を新たな検出時間で更新する。
S204において、集計部106は、対象となる人物に対応する人物IDが示す人物に関する情報に対して、更新後の検出時間と、検出元の撮像部と、のそれぞれに関する情報を記録(例えば、追記)する。
In S202, the collation unit 105 determines whether or not a person whose collation score with the feature amount extracted from the person image is equal to or higher than the same person determination threshold value is registered in the object list 104.
When the collation unit 105 determines in S202 that a person whose collation score with the feature amount extracted from the person image is equal to or higher than the same person determination threshold value is registered in the object list 104, the collation score is higher. It is determined that the highly registered person is the same person as the target person. In this case, the collating unit 105 advances the process to S203. In S203, the aggregation unit 106 updates the detection time of the target person (that is, the person indicated by the feature amount extracted from the person image) with a new detection time.
In S204, the aggregation unit 106 records (for example, additional writing) information about the updated detection time and the detection source imaging unit with respect to the information about the person indicated by the person ID corresponding to the target person. )do.

一方で、照合部105は、S202において、人物画像から抽出された特徴量との照合スコアが同一人物判定閾値以上となる人物が対象物リスト104に登録されていないと判定した場合には、図5に示す一連の処理を終了する。 On the other hand, when the collation unit 105 determines in S202 that a person whose collation score with the feature amount extracted from the person image is equal to or higher than the same person determination threshold value is not registered in the object list 104, FIG. The series of processes shown in 5 is completed.

(登録人物の削除処理)
次いで、図6を参照して、実施例1に係る情報処理装置100の処理の他の一例として、特に、対象物リスト104からの登録人物の削除に係る処理の一例について説明する。
(Delete registered person)
Next, with reference to FIG. 6, as another example of the processing of the information processing apparatus 100 according to the first embodiment, in particular, an example of the processing related to the deletion of the registered person from the object list 104 will be described.

S301において、登録削除判定部108は、対象物リスト104に登録された一連の人物それぞれについて、最後に検出が行われた時刻からの経過期間に基づき未検出期間を算出する。
S302において、登録削除判定部108は、未検出期間が登録削除期間閾値以上の登録人物が存在するか否かを判定する。
登録削除判定部108は、S302において、未検出期間が登録削除期間閾値以上の登録人物が存在すると判定した場合には、処理をS303に進める。S303において、登録削除判定部108は、対象となる登録人物を対象物リスト104から削除したうえで、処理をS304に進める。
In S301, the registration deletion determination unit 108 calculates the undetected period for each of the series of persons registered in the object list 104 based on the elapsed period from the time when the last detection was performed.
In S302, the registration deletion determination unit 108 determines whether or not there is a registered person whose undetected period is equal to or greater than the registration deletion period threshold value.
When the registration deletion determination unit 108 determines in S302 that there is a registered person whose undetected period is equal to or greater than the registration deletion period threshold value, the process proceeds to S303. In S303, the registration deletion determination unit 108 deletes the target registered person from the object list 104, and then proceeds to the process in S304.

一方で、登録削除判定部108は、S302において、未検出期間が登録削除期間閾値以上の登録人物が存在しないと判定した場合には、処理をS304に進める。この場合には、S303の処理は実行されない。 On the other hand, when the registration deletion determination unit 108 determines in S302 that there is no registered person whose undetected period is equal to or greater than the registration deletion period threshold value, the process proceeds to S304. In this case, the process of S303 is not executed.

S304において、登録削除判定部108は、一連の処理を終了するか否かを判定する。
登録削除判定部108は、S304において、一連の処理を終了しないと判定した場合には、処理をS305に進める。S305において、登録削除判定部108は、所定の期間だけ待機した後に、S301〜S304の処理を再度実行する。なお、上記所定の期間は任意でよいが、本実施例では、便宜上「10秒」であるものとする。
このようにして、定期的に対象物リスト104の見直しが行われ、店舗から退場した人物が対象物リスト104から削除される。
In S304, the registration deletion determination unit 108 determines whether or not to end a series of processes.
When the registration deletion determination unit 108 determines in S304 that the series of processes is not completed, the process proceeds to S305. In S305, the registration deletion determination unit 108 waits for a predetermined period of time, and then re-executes the processes of S301 to S304. The above-mentioned predetermined period may be arbitrary, but in this embodiment, it is assumed to be "10 seconds" for convenience.
In this way, the object list 104 is periodically reviewed, and the person who has left the store is deleted from the object list 104.

そして、登録削除判定部108は、S304において、一連の処理を終了すると判定した場合には、図6に示す一連の処理を終了する。 Then, when the registration deletion determination unit 108 determines in S304 that the series of processes is to be completed, the registration deletion determination unit 108 ends the series of processes shown in FIG.

(対象物リストの補正処理)
次いで、図7を参照して、実施例1に係る情報処理装置100の処理の他の一例として、特に、対象物リスト104の補正に係る処理の一例について説明する。
(Correction processing of object list)
Next, with reference to FIG. 7, as another example of the processing of the information processing apparatus 100 according to the first embodiment, in particular, an example of the processing related to the correction of the object list 104 will be described.

S401において、個体数推定部109は、撮像部315の撮像結果に応じた動画像に基づき、店舗内の人物数(換言すると、関心領域内の個体数)の推定を行う。そのうえで、補正部110は、店舗内の人物数の推定結果(推定人数)と、対象物リスト104に登録された人物の数(登録数)と、の比較を行う。
S402において、補正部110は、登録数が推定人数よりも所定割合以上多いか否かを判定する。なお、所定割合とは、店舗内の人物数の推定に係る精度に応じて設定されればよい。本実施例では、便宜上「1割」とする。
補正部110は、S402において、登録数が推定人数よりも所定割合以上多いと判定した場合には、処理をS403に進める。S403において、補正部110は、登録人物の削除に係る条件の制限(厳格化)と、対象物リスト104への人物の登録に係る条件の緩和と、の少なくともいずれかを実行する。具体的な一例として、補正部110は、登録削除期間閾値をより短い期間に対応する閾値とし、新規登録閾値をより低い値に引き下げる。これにより、店舗から退場した登録人物が削除され、同一人物が重複して登録される事態の発生が防止されることとなるため、登録数を推定人数により近づけることが可能となる。
また、S406において、補正部110は、S403の処理において変更した条件を、過去に遡って適用してもよい。この場合には、更新後の閾値を遡って適用する期間については、直前に登録数と推定人数との比較が行われたタイミング以降となるように設定されるとよい。これにより、既に重複して登録された人物や、既に店舗から退場した登録人物を、対象物リスト104から削除することが可能となる。
なお、対象物リスト104からの登録人物の削除に係る条件が、「第2の条件」の一例に相当する。
In S401, the population estimation unit 109 estimates the number of people in the store (in other words, the number of individuals in the region of interest) based on the moving image according to the imaging result of the imaging unit 315. Then, the correction unit 110 compares the estimation result (estimated number of people) of the number of people in the store with the number of people (registered number) registered in the object list 104.
In S402, the correction unit 110 determines whether or not the number of registrations is more than a predetermined ratio than the estimated number of people. The predetermined ratio may be set according to the accuracy of estimating the number of people in the store. In this embodiment, it is set to "10%" for convenience.
When the correction unit 110 determines in S402 that the number of registrations is more than a predetermined ratio than the estimated number of people, the correction unit 110 proceeds to S403. In S403, the correction unit 110 executes at least one of restriction (stricter) of the condition for deleting the registered person and relaxation of the condition for registering the person in the object list 104. As a specific example, the correction unit 110 sets the registration deletion period threshold value to a threshold value corresponding to a shorter period, and lowers the new registration threshold value to a lower value. As a result, the registered person who has left the store is deleted, and the situation where the same person is registered in duplicate is prevented, so that the number of registrations can be made closer to the estimated number of people.
Further, in S406, the correction unit 110 may retroactively apply the conditions changed in the processing of S403. In this case, the period for retroactively applying the updated threshold value may be set to be after the timing when the number of registrations and the estimated number of people are compared immediately before. As a result, it is possible to delete a person who has already been registered in duplicate or a registered person who has already left the store from the object list 104.
The condition relating to the deletion of the registered person from the object list 104 corresponds to an example of the "second condition".

一方で、補正部110は、S402において、登録数が推定人数よりも所定割合以上多くはないと判定した場合には、処理をS404に進める。S404において、補正部110は、登録数が推定人数よりも所定割合以上少ないか否かを判定する。
補正部110は、S404において、登録数が推定人数よりも所定割合以上少ないと判定した場合には、処理をS405に進める。S405において、補正部110は、登録人物の削除に係る条件の緩和と、対象物リスト104への人物の登録に係る条件の制限(厳格化)と、の少なくともいずれかを実行する。具体的な一例として、補正部110は、登録削除期間閾値をより長い期間に対応する閾値とし、新規登録閾値をより高い値に引き上げる。これにより、店舗内には存在するが、未検出期間が比較的長い登録人物が対象物リスト104から削除される事態の防止し、服装の類似する人物についても互いに異なる人物として登録されることとなるため、登録数を推定人数により近づけることが可能となる。
また、S406において、補正部110は、S405の処理において変更した条件を、過去に遡って適用してもよい。この場合には、更新後の閾値を遡って適用する期間については、直前に登録数と推定人数との比較が行われたタイミング以降となるように設定されるとよい。これにより、店舗内に存在するにも関わらず対象物リスト104から削除された登録人物を改めて登録したり、過去に服装の類似する互いに異なる人物の登録に失敗している場合に対象物リスト104を修正することも可能となる。
On the other hand, if the correction unit 110 determines in S402 that the number of registrations is not more than a predetermined ratio than the estimated number of people, the process proceeds to S404. In S404, the correction unit 110 determines whether or not the number of registrations is smaller than the estimated number of people by a predetermined ratio or more.
When the correction unit 110 determines in S404 that the number of registrations is smaller than the estimated number of people by a predetermined ratio or more, the correction unit 110 proceeds to S405. In S405, the correction unit 110 executes at least one of relaxation of the condition relating to the deletion of the registered person and restriction (stricting) of the condition relating to the registration of the person in the object list 104. As a specific example, the correction unit 110 sets the registration deletion period threshold value to a threshold value corresponding to a longer period, and raises the new registration threshold value to a higher value. This prevents registered persons who exist in the store but have a relatively long undetected period from being deleted from the object list 104, and persons with similar clothes are also registered as different persons. Therefore, it is possible to bring the number of registrations closer to the estimated number of people.
Further, in S406, the correction unit 110 may retroactively apply the conditions changed in the processing of S405. In this case, the period for retroactively applying the updated threshold value may be set to be after the timing when the number of registrations and the estimated number of people are compared immediately before. As a result, when a registered person who is deleted from the object list 104 even though it exists in the store is registered again, or when registration of different persons with similar clothes has failed in the past, the object list 104 Can also be modified.

一方で、補正部110は、補正部110は、S404において、登録数が推定人数よりも所定割合以上少なくはないと判定した場合には、処理をS407に進める。 On the other hand, when the correction unit 110 determines in S404 that the number of registrations is not less than the estimated number of people by a predetermined ratio or more, the correction unit 110 proceeds to the process in S407.

S407において、補正部110は、一連の処理を終了するか否かを判定する。
補正部110は、S407において、一連の処理を終了しないと判定した場合には、処理をS408に進める。S408において、補正部110は、所定の期間だけ待機した後に、S401〜S406の処理を再度実行する。なお、上記所定の期間は任意でよいが、本実施例では、便宜上「10秒」であるものとする。
In S407, the correction unit 110 determines whether or not to end a series of processes.
When the correction unit 110 determines in S407 that the series of processes is not completed, the correction unit 110 proceeds to the process in S408. In S408, the correction unit 110 waits for a predetermined period of time, and then re-executes the processes of S401 to S406. The above-mentioned predetermined period may be arbitrary, but in this embodiment, it is assumed to be "10 seconds" for convenience.

そして、補正部110は、S407において、一連の処理を終了すると判定した場合には、図7に示す一連の処理を終了する。 Then, when the correction unit 110 determines in S407 that the series of processes is to be completed, the correction unit 110 ends the series of processes shown in FIG. 7.

(具体的な動作例)
続いて、本実施例に係る情報処理装置100の具体的な動作の一例について動作例1及び動作例2として説明する。
(Specific operation example)
Subsequently, an example of a specific operation of the information processing apparatus 100 according to the present embodiment will be described as an operation example 1 and an operation example 2.

・実施例1:動作例1
店舗内に人物が3人存在し、それぞれが対象物リスト104に登録されているものとする。3人の人物のうちの人物Aは、向きによって色の異なる鞄を所持しており、ある時刻における検出時に、人物Aが新規登録された際とは鞄の向きが異なる人物Aが画像から検出されたものとする。また、この場合において、新たな検出結果に応じた人物Aの特徴量と、対象物リスト104に既に登録されている人物Aの特徴量と、の照合結果に応じた照合スコアが新規登録閾値未満となったものとする。そのため、新たな人物Aの検出結果に基づき、対象物リスト104に対して既に登録されている人物Aとは異なる人物A’として重複登録が行われたものとする。
このような状況下では、登録数が4人であるのに対して、推定人数が3人となり、登録数と推定人数との間に1割以上の乖離が生じることとなる。そのため、補正部110は、新規登録閾値の引き下げを行ったうえで、直前に登録数と推定人数との比較が行われたタイミング以降において、更新後の新規登録閾値を遡及的に適用したものする。
この場合には、従前の人物A’の登録契機における、人物Aの検出結果に応じた特徴量と、対象物リスト104に既に登録されている人物Aの特徴量と、の照合結果に応じた照合スコアが、更新後の新規登録閾値以上となり、人物A’の登録が削除されることとなる。これにより、登録数が店舗内に存在する人物の数(3人)と等しくなり、対象物リスト104が実態を反映した状態に維持されることとなる。
-Example 1: Operation example 1
It is assumed that there are three people in the store and each of them is registered in the object list 104. Of the three people, person A has a bag with a different color depending on the orientation, and when the person A is detected at a certain time, the person A whose bag orientation is different from that when the person A is newly registered is detected from the image. It shall be assumed that it was done. Further, in this case, the collation score according to the collation result between the feature amount of the person A according to the new detection result and the feature amount of the person A already registered in the object list 104 is less than the new registration threshold value. It is assumed that Therefore, based on the detection result of the new person A, it is assumed that duplicate registration is performed as a person A'different from the person A already registered in the object list 104.
Under such circumstances, the number of registered persons is 4, while the estimated number of persons is 3, and a difference of 10% or more occurs between the number of registered persons and the estimated number of persons. Therefore, the correction unit 110 lowers the new registration threshold value, and then retroactively applies the updated new registration threshold value after the timing when the number of registrations and the estimated number of people are compared immediately before. ..
In this case, it corresponds to the collation result between the feature amount corresponding to the detection result of the person A and the feature amount of the person A already registered in the object list 104 in the registration opportunity of the person A'previously. The collation score becomes equal to or higher than the updated new registration threshold value, and the registration of person A'is deleted. As a result, the number of registrations becomes equal to the number of persons (3 persons) existing in the store, and the object list 104 is maintained in a state reflecting the actual situation.

・実施例1:動作例2
店舗内に人物が3人存在し、それぞれが対象物リスト104に登録されているものとする。ある時刻に新たに人物Bが店舗内に入店したが、当該人物Bは、既に対象物リスト104に登録されている人物Cと服装が類似しているものとする。人物Bは、撮像部301aにより検出され、当該検出結果に応じた特徴量が対象物リスト104に既に登録されている人物の特徴量と照合された結果、人物Cとの照合スコアが高くなり、当該照合スコアが新規登録閾値未満とならなかったものとする。そのため、人物Bは、対象物リスト104に登録されなかったものとする。
このような状況下では、登録数が3人であるのに対して、推定人数が4人となり、登録数と推定人数との間に1割以上の乖離が生じることとなる。そのため、補正部110は、新規登録閾値の引き上げを行ったうえで、直前に登録数と推定人数との比較が行われたタイミング以降において、更新後の新規登録閾値を遡及的に適用したものする。
この場合には、従前の人物Bの検出契機における、人物Bの検出結果に応じた特徴量と、対象物リスト104に既に登録されている人物Cの特徴量と、の照合結果に応じた照合スコアが、更新後の新規登録閾値未満となり、人物Bの登録が行われることとなる。これにより、登録数が店舗内に存在する人物の数(4人)と等しくなり、対象物リスト104が実態を反映した状態に維持されることとなる。
-Example 1: Operation example 2
It is assumed that there are three people in the store and each of them is registered in the object list 104. It is assumed that a person B newly enters the store at a certain time, but the person B has similar clothes to the person C already registered in the object list 104. The person B is detected by the imaging unit 301a, and as a result of collating the feature amount according to the detection result with the feature amount of the person already registered in the object list 104, the collation score with the person C becomes high. It is assumed that the matching score does not fall below the new registration threshold. Therefore, it is assumed that the person B is not registered in the object list 104.
Under such circumstances, the number of registered persons is 3, while the estimated number of persons is 4, and a difference of 10% or more occurs between the number of registered persons and the estimated number of persons. Therefore, the correction unit 110 raises the new registration threshold value, and then retroactively applies the updated new registration threshold value after the timing when the number of registrations and the estimated number of people are compared immediately before. ..
In this case, the collation according to the collation result between the feature amount according to the detection result of the person B and the feature amount of the person C already registered in the object list 104 in the previous detection trigger of the person B. The score becomes less than the new registration threshold after the update, and the person B is registered. As a result, the number of registrations becomes equal to the number of persons (4 persons) existing in the store, and the object list 104 is maintained in a state reflecting the actual situation.

以上のように、実施例1に係る情報処理装置100に依れば、対象物リスト104の管理に係るアルゴリズムを、店舗内の人物数(換言すると、関心領域内の個体数)の推定結果に基づき補正することで、対象物リスト104の精度を向上させることが可能となる。 As described above, according to the information processing apparatus 100 according to the first embodiment, the algorithm related to the management of the object list 104 is used as the estimation result of the number of people in the store (in other words, the number of individuals in the area of interest). By making corrections based on the above, it is possible to improve the accuracy of the object list 104.

(実施例2)
続いて、実施例2として、実施例1の変形例について説明する。なお、実施例2を実現するためのシステムや装置の構成については、特に説明が無い限りは、実施例1として上述した構成に従うものとする。
実施例2では、対象物リスト104の管理に対して、実施例1で説明した手法に加えて、出入口の監視結果を対象物リスト104への人物の登録に利用する手法を適用する。なお、店舗内の俯瞰図としては、図3に示す例を適用するものとし、出入口311の監視には撮像部301dによる撮像結果に応じた画像が利用されるものとする。具体的には、撮像部301dによる撮像結果に応じた動画像を対象として特徴量の抽出が行われ、当該特徴量に基づき、対象物リスト104への人物の登録や、対象物リスト104からの登録人物の削除が行われる。この場合には、撮像部301dによる撮像結果に応じた動画像のうち、出入口311が撮像された領域をあらかじめ特定しておく。そのうえで、当該領域において新規検出された人物が対象物リスト104に登録され、当該領域において消失した人物(すなわち、出入口311から退場した人物)とより照合スコアの高い登録人物が対象物リスト104から削除されるとよい。
また、本実施例では、実施例1で説明した手法が補助的に利用されてもよい。具体的には、対象物リスト104の管理には、主に本実施例に係る手法が利用され、本実施例に係る手法で検出が行われた人物については、実施例1に係る手法に基づき登録や削除が行われればよい。すなわち、この場合には、実施例1に係る手法は、対象物リストの修正に係る役割を担うこととなる。
(Example 2)
Subsequently, as Example 2, a modified example of Example 1 will be described. Unless otherwise specified, the configuration of the system or device for realizing the second embodiment shall follow the above-described configuration as the first embodiment.
In the second embodiment, in addition to the method described in the first embodiment, a method of using the monitoring result of the entrance / exit for registering a person in the object list 104 is applied to the management of the object list 104. As a bird's-eye view of the store, the example shown in FIG. 3 shall be applied, and an image according to the image capture result by the image pickup unit 301d shall be used for monitoring the entrance / exit 311. Specifically, the feature amount is extracted from the moving image according to the image pickup result by the imaging unit 301d, and the person is registered in the object list 104 or from the object list 104 based on the feature amount. The registered person is deleted. In this case, the region in which the entrance / exit 311 is captured is specified in advance in the moving image according to the imaging result by the imaging unit 301d. Then, the newly detected person in the area is registered in the object list 104, and the registered person having a higher matching score with the person who disappeared in the area (that is, the person who exited from the entrance / exit 311) is deleted from the object list 104. It should be done.
Further, in the present embodiment, the method described in the first embodiment may be used as an auxiliary. Specifically, the method according to the present embodiment is mainly used for the management of the object list 104, and the person who is detected by the method according to the present embodiment is based on the method according to the first embodiment. Registration or deletion should be done. That is, in this case, the method according to the first embodiment plays a role of modifying the object list.

例えば、図8は、対象物リスト104の修正に係る処理のうち、対象物リスト104に対して人物の新規登録が行われた場合の処理の一例を示している。図8に示す例は、S503の処理が追加されている点で図3に示す処理と異なる。
具体的には、図8に示す例では、S503において、照合部105は、推定人数に対して登録数が所定割合以上少ないか否かを判定する。そして、照合部105は、S503において、推定人数に対して登録数が所定割合以上少ないと判定した場合に、処理をS504に進める。すなわち、この場合に、検出された人物が、S504において、対象物リスト104に登録されることとなる。
なお、その他の処理については、図3に示す例と実質的に同様である。
For example, FIG. 8 shows an example of the process related to the modification of the object list 104 when a new person is newly registered in the object list 104. The example shown in FIG. 8 is different from the process shown in FIG. 3 in that the process of S503 is added.
Specifically, in the example shown in FIG. 8, in S503, the collation unit 105 determines whether or not the number of registrations is less than a predetermined ratio with respect to the estimated number of people. Then, when the collation unit 105 determines in S503 that the number of registrations is less than a predetermined ratio with respect to the estimated number of people, the process proceeds to S504. That is, in this case, the detected person is registered in the object list 104 in S504.
The other processing is substantially the same as the example shown in FIG.

また、図9は、対象物リスト104の修正に係る処理のうち、対象物リスト104に登録されている人物と同一人物が検出された場合の処理の一例を示している。図9に示す例は、図4に示す例と実質的に同様である。 Further, FIG. 9 shows an example of the process related to the modification of the object list 104 when the same person as the person registered in the object list 104 is detected. The example shown in FIG. 9 is substantially the same as the example shown in FIG.

また、図10は、対象物リスト104の修正に係る処理のうち、対象物リスト104からの登録人物の削除に係る処理の一例について示している。図10に示す例は、S703の処理が追加されている点で図5に示す処理と異なる。
具体的には、図10に示す例では、S703において、照合部105は、推定人数に対して登録数が所定割合以上多いか否かを判定する。そして、照合部105は、S703において、推定人数に対して登録数が所定割合以上多いと判定した場合に、処理をS704に進める。すなわち、この場合に、未検出期間が登録削除期間閾値以上の登録人物が、S704において、対象物リスト104から削除されることとなる。
なお、その他の処理については、図5示す例と実質的に同様である。
Further, FIG. 10 shows an example of the process relating to the deletion of the registered person from the object list 104 among the processes relating to the modification of the object list 104. The example shown in FIG. 10 is different from the process shown in FIG. 5 in that the process of S703 is added.
Specifically, in the example shown in FIG. 10, in S703, the collation unit 105 determines whether or not the number of registrations is more than a predetermined ratio with respect to the estimated number of people. Then, when the collation unit 105 determines in S703 that the number of registrations is more than a predetermined ratio with respect to the estimated number of people, the processing proceeds to S704. That is, in this case, the registered person whose undetected period is equal to or greater than the registration deletion period threshold value is deleted from the object list 104 in S704.
The other processing is substantially the same as the example shown in FIG.

また、実施例2では、推定人数と登録数との定期的な比較に基づく条件補正が行われなくてもよい。この場合には、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件が、実施例1に比べて緩和されるようにあらかじめ設定しておくとよい。対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件が緩和されると、対象物リスト104への人物の登録漏れや、対象物リスト104からの人物の削除漏れがより少なくなる傾向にある。一方で、この場合には、対象物リスト104への人物の誤登録や、対象物リスト104からの登録人物の誤削除がより発生しやすくなる傾向にある。
これに対して、本実施例では、推定人数と登録数との間で所定値以上の乖離がある場合に対象物リスト104の修正が行われるように制御することで、上述した誤登録や誤削除を抑制する効果を期待することが可能となる。そのため、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の緩和に係るデメリットを抑制し、メリットを享受することが可能となる。
Further, in the second embodiment, the condition correction based on the periodic comparison between the estimated number of people and the registered number may not be performed. In this case, the conditions for registering the person in the object list 104 and the conditions for deleting the registered person from the object list 104 are set in advance so as to be relaxed as compared with the first embodiment. It is good. If the conditions for registering a person in the object list 104 and the conditions for deleting a registered person from the object list 104 are relaxed, the registration of the person in the object list 104 may be omitted or the object list 104 may be deleted. People tend to be less likely to be deleted. On the other hand, in this case, the erroneous registration of the person in the object list 104 and the erroneous deletion of the registered person from the object list 104 tend to occur more easily.
On the other hand, in this embodiment, the above-mentioned erroneous registration or erroneous registration is performed by controlling so that the object list 104 is corrected when there is a deviation of a predetermined value or more between the estimated number of people and the registered number. It is possible to expect the effect of suppressing deletion. Therefore, it is possible to suppress the demerits related to the relaxation of the conditions related to the registration of the person in the object list 104 and the conditions related to the deletion of the registered person from the object list 104, and to enjoy the merits.

以上のように、実施例2に係る情報処理装置100に依れば、推定人数と登録数との間で所定値以上の乖離が生じた場合に対象物リスト104の修正が行われることとなるため、当該対象物リスト104の精度をより向上させることが可能となる。 As described above, according to the information processing apparatus 100 according to the second embodiment, the object list 104 is modified when a deviation of a predetermined value or more occurs between the estimated number of people and the registered number. Therefore, the accuracy of the object list 104 can be further improved.

(実施例3)
続いて、実施例3として、実施例1の変形例について説明する。なお、実施例3を実現するためのシステムや装置の構成については、特に説明が無い限りは、実施例1として上述した構成に従うものとする。
実施例3では、大型店舗等のような関心領域が比較的広いような状況下において、不信行動を行う人物の検知を行う場合の一例について説明する。
本実施例では、店舗内の一連の通路それぞれに対して、当該通路を撮像範囲に収めた撮像部(例えば、ネットワークカメラ)が配設され、これらの撮像部それぞれによる撮像結果に応じた画像に基づき店舗内の人物数の推定が行われるものとする。
具体的には、各撮像部による撮像結果に応じた画像に基づき人物数の推定が行われ、一連の撮像部それぞれについての人物数の推定結果が加算される。ただし、撮像領域が相互に重複する複数の撮像部については、撮像領域が重複する領域(以下、「重複領域」とも称する)と、その他の領域(以下、「非重複領域」とも称する)と、における人物数が個別に算出される。そのうえで、非重複領域の人物数の推定結果については加算され、各重複領域の人物数の推定結果については、当該重複領域に対応する複数の撮像部のうちいずれかの撮像部について人物数の推定結果の加算対象とされることで、店舗内の人物数の推定が行われる。これにより、重複領域が存在するように複数の撮像部が配設された場合においても、店舗内の人物数の推定を行うことが可能となる。
また、対象物リスト104への人物の登録、対象物リスト104からの登録人物の削除、及び行動履歴の取得には、上記した人物数の推定に利用される撮像部や、その他に配設された1以上の撮像部が利用されてもよい。
(Example 3)
Subsequently, as Example 3, a modified example of Example 1 will be described. Unless otherwise specified, the configuration of the system or device for realizing the third embodiment shall follow the above-described configuration as the first embodiment.
In the third embodiment, an example will be described in which a person who performs distrust behavior is detected in a situation where the area of interest is relatively wide, such as in a large store.
In this embodiment, an imaging unit (for example, a network camera) that includes the passage within the imaging range is provided for each of the series of passages in the store, and an image corresponding to the imaging result by each of these imaging units is produced. Based on this, the number of people in the store shall be estimated.
Specifically, the number of people is estimated based on the image according to the image pickup result by each imaging unit, and the estimation result of the number of people for each of the series of imaging units is added. However, for a plurality of imaging units in which the imaging regions overlap each other, the region where the imaging regions overlap (hereinafter, also referred to as “overlapping region”) and the other regions (hereinafter, also referred to as “non-overlapping region”) The number of people in is calculated individually. Then, the estimation result of the number of people in the non-overlapping area is added, and the estimation result of the number of people in each overlapping area is the estimation of the number of people in any of the plurality of imaging units corresponding to the overlapping area. The number of people in the store is estimated by being added as a result. This makes it possible to estimate the number of people in the store even when a plurality of imaging units are arranged so that overlapping regions exist.
Further, in order to register a person in the object list 104, delete a registered person from the object list 104, and acquire an action history, an imaging unit used for estimating the number of persons described above or the like is arranged. Only one or more imaging units may be used.

実施例3では、登録数と推定人数と比較の結果に基づき対象物リスト104の補正が行われる際に、登録数と推定人数と乖離が生じた原因の推定が行われる。そのうえで、当該原因の推定結果に応じて、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の補正が行われることで、対象物リスト104の精度の向上が図られる。
具体的には、推定人数と、単位時間及び撮像部ごとの人物の検出数、対象物リスト104への人物の登録数、及び対象物リスト104からの人物の削除数に関する情報と、の蓄積が行われる。そのうえで、これらのデータから、撮像部ごとに、2種類の回帰分析が行われる。具体的には、第1の回帰分析として、店舗内の推定人数を説明変数とし、単位時間当たりの人物の検出数を目的変数とした回帰分析が行われる。また、第2の回帰分析として、単位時間当たりの人物の検出数を説明変数とし、対象物リスト104への人物の登録数と、対象物リスト104からの人物の削除数と、を目的変数とした回帰分析が行われる。
対象物リスト104の運用時には、店舗内の一連の撮像部それぞれについて、単位時間当たりの、上記人物の検出数、上記人物の登録数、及び上記人物の削除数が、回帰分析からの推定値から標準偏差を基準としてどの程度乖離しているかが算出される。そして、より乖離度の大きい要因及び撮像部について、閾値の変更量がより大きくなるように重み付けが行われたうえで、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の変更が行われる。
In the third embodiment, when the object list 104 is corrected based on the result of comparison between the registered number and the estimated number of people, the cause of the discrepancy between the registered number and the estimated number of people is estimated. Then, according to the estimation result of the cause, the condition for registering the person in the object list 104 and the condition for deleting the registered person from the object list 104 are corrected, so that the object list 104 The accuracy of is improved.
Specifically, the estimated number of people, the number of detected persons for each unit time and the imaging unit, the number of registered persons in the object list 104, and the number of deleted persons from the object list 104 are accumulated. Will be done. Then, from these data, two types of regression analysis are performed for each imaging unit. Specifically, as the first regression analysis, a regression analysis is performed using the estimated number of people in the store as an explanatory variable and the number of people detected per unit time as the objective variable. Further, as the second regression analysis, the number of detected persons per unit time is used as an explanatory variable, and the number of registered persons in the object list 104 and the number of deleted persons from the object list 104 are used as objective variables. Regression analysis is performed.
During the operation of the object list 104, the number of detected persons, the number of registered persons, and the number of deletions of the persons per unit time are estimated from the regression analysis for each of the series of imaging units in the store. The degree of deviation is calculated based on the standard deviation. Then, the factors having a larger degree of divergence and the imaging unit are weighted so that the amount of change in the threshold value becomes larger, and then the conditions for registering a person in the object list 104 and the object list 104. The conditions for deleting the registered person will be changed.

(具体的な動作例)
以下に、本実施例に係る情報処理装置100の具体的な動作の一例について動作例1及び動作例2として説明する。
(Specific operation example)
Hereinafter, an example of a specific operation of the information processing apparatus 100 according to the present embodiment will be described as an operation example 1 and an operation example 2.

・実施例3:動作例1
店舗内の照明が一つ切れてしまい、店舗内が暗くなったことで一部の撮像部から取得される動画像の画質が低下し、当該動画像に基づき検出される人物の数が、実態よりも少なくなったものとする。これにより、登録数が推定人数よりも少なくなり、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の補正が行われることとなる。具体的には、人物の検出数が回帰分析により予測される当該検出数よりも異常に少ない撮像部については、より大きな重みに基づき人物の検出に係る条件が緩和されることとなる。これにより、照明の影響により検出される人物の数が低下した撮像部についても、より実態に即した態様で人物の検出が可能となり、登録数と実際に店舗に存在する人物の数との乖離をより小さく抑えることが可能となる。
-Example 3: Operation example 1
The image quality of the moving image acquired from some imaging units deteriorates due to the lighting in the store being cut off and the inside of the store becoming dark, and the number of people detected based on the moving image is actually Suppose it is less than. As a result, the number of registrations becomes smaller than the estimated number of people, and the conditions for registering a person in the object list 104 and the conditions for deleting a registered person from the object list 104 are corrected. Specifically, for an imaging unit in which the number of detected persons is abnormally smaller than the number of detected persons predicted by regression analysis, the conditions for detecting the person are relaxed based on a larger weight. As a result, even for the imaging unit where the number of people detected due to the influence of lighting has decreased, it is possible to detect the person in a more realistic manner, and the difference between the number of registrations and the number of people actually existing in the store. Can be kept smaller.

・実施例3:動作例2
店舗内にそれぞれがスーツを着た複数の人物のグループが来店したものとする。スーツを着た人物どうしは見た目が類似しているため照合スコアが高くなり、少なくとも一部の人物が対象物リスト104に登録されない場合がある。そのため、このような状況下では、登録数が推定人数よりも少なくなり、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の補正が行われることとなる。具体的には、単位時間当たりの対象物リスト104への人物の登録数が、各撮像部について回帰分析により予測される当該人物の登録数よりも少なくなるため、対象物リスト104への人物の登録に係る条件が緩和されることとなる。これにより、互いに服装が類似する複数の人物それぞれが別人として対象物リスト104に登録されることとなり、登録数と実際に店舗に存在する人物の数との乖離をより小さく抑えることが可能となる。
-Example 3: Operation example 2
It is assumed that a group of multiple people, each wearing a suit, visits the store. Since the people wearing suits are similar in appearance, the matching score is high, and at least some people may not be registered in the object list 104. Therefore, under such a situation, the number of registrations is smaller than the estimated number of people, and the conditions for registering a person in the object list 104 and the conditions for deleting a registered person from the object list 104 are corrected. It will be done. Specifically, since the number of registered persons in the object list 104 per unit time is smaller than the number of registered persons in the object list 104 predicted by regression analysis for each imaging unit, the number of registered persons in the object list 104 is smaller. The conditions for registration will be relaxed. As a result, each of the plurality of persons having similar clothes is registered in the object list 104 as different persons, and the difference between the number of registered persons and the number of persons actually present in the store can be suppressed to a smaller size. ..

(実施例4)
続いて、実施例4として、実施例1の変形例について説明する。なお、実施例4を実現するためのシステムや装置の構成については、特に説明が無い限りは、実施例1として上述した構成に従うものとする。
実施例1では、登録数と推定人数との比較の結果に基づき、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の補正が行われる。また、この際に、直前に登録数と推定人数との比較が行われたタイミング以降において、補正後の条件を過去に遡って適用することが可能である。
一方で、本実施例では、補正後の条件の過去に遡った適用は行われず、替わりに、撮像部のPTZ機能を利用して、登録数と実際に店舗に存在する人物の数との差異の特定が行われる。
(Example 4)
Subsequently, as Example 4, a modified example of Example 1 will be described. Unless otherwise specified, the configuration of the system or device for realizing the fourth embodiment shall follow the above-described configuration as the first embodiment.
In the first embodiment, the conditions for registering a person in the object list 104 and the conditions for deleting a registered person from the object list 104 are corrected based on the result of comparison between the number of registered persons and the estimated number of people. .. Further, at this time, it is possible to retroactively apply the corrected condition after the timing when the number of registrations and the estimated number of people are compared immediately before.
On the other hand, in this embodiment, the corrected condition is not applied retroactively, and instead, the PTZ function of the imaging unit is used to make a difference between the number of registrations and the number of people actually present in the store. Is identified.

具体的には、登録数が推定人数に対して所定の割合(例えば、1割)以上乖離した場合に、実施例1と同様に、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の補正が行われる。その後、各撮像部のPTZ機能を利用することで、店舗内の一連の領域の走査が行われ、当該走査の結果に基づき検出された人物それぞれと、対象物リスト104に登録された一連の人物それぞれと、の照合が行われる。
そして、推定人数に対して登録数が少ない場合には、対象物リスト104に登録された人物に限らず、従前の登録数と推定人数との比較結果に基づく対象物リスト104から削除された人物を含めて照合の対象とする。これにより、当該照合の結果に応じて、既に対象物リスト104から削除された登録人物についても、店舗内に存在する場合には、改めて対象物リスト104に登録されることとなる。
また、この際に検出された人物は、照合スコアに対して緩和された条件に基づき対象物リスト104への登録の判定が行われるため、互いに服装が類似する複数の人物それぞれが別人として対象物リスト104に登録することが可能となる。
また、推定人数に対して登録数が多い場合には、検出された人物と、対象物リスト104に登録された一連の人物と、の間で照合が行われ、検出された人物のいずれとも同一人物と判定されなかった登録人物については、既にいないと判定され削除される。
Specifically, when the number of registrations deviates from the estimated number of people by a predetermined ratio (for example, 10%) or more, the conditions and targets related to the registration of the person in the object list 104 are the same as in the first embodiment. The condition relating to the deletion of the registered person from the object list 104 is corrected. After that, by using the PTZ function of each imaging unit, a series of areas in the store are scanned, and each person detected based on the result of the scanning and a series of persons registered in the object list 104. Each is collated.
When the number of registrations is smaller than the estimated number of people, not only the person registered in the object list 104 but also the person deleted from the object list 104 based on the comparison result between the previously registered number and the estimated number of people. Is the target of collation including. As a result, the registered person who has already been deleted from the object list 104 according to the result of the collation will be registered in the object list 104 again if it exists in the store.
Further, since the person detected at this time is determined to be registered in the object list 104 based on the relaxed condition for the collation score, each of a plurality of persons having similar clothes to each other is regarded as an object. It becomes possible to register in the list 104.
When the number of registered persons is larger than the estimated number of people, a collation is performed between the detected person and a series of persons registered in the object list 104, and all of the detected persons are the same. Registered persons who are not determined to be persons are determined not to exist and are deleted.

以上のように、実施例4に係る情報処理装置100に依れば、推定人数と登録数との間に乖離が生じている場合に、撮像部の死角に存在する人物の捜索が行われる。そのうえで、当該捜索の結果に基づき、対象物リスト104への人物の登録に係る条件や、対象物リスト104からの登録人物の削除に係る条件の補正が行われる。これにより、対象物リスト104の精度をより向上させることが可能となる。 As described above, according to the information processing apparatus 100 according to the fourth embodiment, when there is a discrepancy between the estimated number of people and the registered number, a person existing in the blind spot of the imaging unit is searched for. Then, based on the result of the search, the conditions for registering the person in the object list 104 and the conditions for deleting the registered person from the object list 104 are corrected. This makes it possible to further improve the accuracy of the object list 104.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

また、図1を参照して説明した情報処理装置100の機能構成はあくまで一例であり、当該情報処理装置100の各機能を実現することが可能であれば、そのための構成は特に限定はされない。
例えば、複数の装置が協働することで、情報処理装置100の各機能が実現されてもよい。この場合には、情報処理装置100の各機能のうちの一部の機能と他の機能とが、互いに異なる装置により実現されてもよい。また、情報処理装置100の各機能のうち少なくとも一部の機能に関する処理の負荷が、複数の装置に分散されてもよい。
また、上記複数の装置が互いに情報やデータを送受信することが可能であれば、当該複数の装置を相互に接続するネットワークの種別は特に限定されず、各装置が設置される位置についても特に限定されない。
Further, the functional configuration of the information processing apparatus 100 described with reference to FIG. 1 is merely an example, and the configuration for that purpose is not particularly limited as long as each function of the information processing apparatus 100 can be realized.
For example, each function of the information processing device 100 may be realized by the cooperation of a plurality of devices. In this case, some of the functions of the information processing apparatus 100 and other functions may be realized by different devices. Further, the processing load related to at least a part of the functions of the information processing device 100 may be distributed to a plurality of devices.
Further, as long as the plurality of devices can transmit and receive information and data to each other, the type of network connecting the plurality of devices to each other is not particularly limited, and the position where each device is installed is also particularly limited. Not done.

100 情報処理装置
109 個体数推定部
110 補正部
301a〜301d 撮像部
100 Information processing device 109 Population estimation unit 110 Correction unit 301a to 301d Imaging unit

Claims (16)

所定の関心領域のうち少なくとも一部の領域を対象物の検知の対象とする1以上の検知部それぞれによる当該対象物の検知結果に応じた第1の情報を取得する第1の取得手段と、
前記対象物ごとに前記第1の情報を関連付けてリストとして管理する管理手段と、
前記関心領域内に存在する前記対象物の個体数の推定結果に応じた第2の情報を取得する第2の取得手段と、
を備え、
前記管理手段は、
前記リストに対する前記対象物の登録数と、前記第2の情報が示す前記個体数と、を比較し、
当該比較の結果に基づき、前記リストの補正に関する処理を実行する、
情報処理装置。
A first acquisition means for acquiring first information according to a detection result of the object by each of one or more detection units that target at least a part of a predetermined area of interest for detecting the object.
A management means that associates the first information with each object and manages it as a list.
A second acquisition means for acquiring the second information according to the estimation result of the number of individuals of the object existing in the region of interest, and
With
The management means
The number of registered objects in the list is compared with the number of individuals indicated by the second information.
Based on the result of the comparison, the process related to the correction of the list is executed.
Information processing device.
前記管理手段は、前記リストの補正に関する処理として、前記登録数と前記個体数との差をより小さくするための処理を実行する、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the management means executes a process for reducing the difference between the registered number and the individual number as a process related to the correction of the list. 前記管理手段は、前記リストの補正に関する処理として、
前記リストへの前記対象物の登録に関する第1の条件と、
前記リストからの登録された前記対象物の削除に関する第2の条件と、
のうち少なくともいずれかの条件の制御を行う、
請求項2に記載の情報処理装置。
The management means, as a process related to the correction of the list,
The first condition regarding the registration of the object in the list and
The second condition regarding the deletion of the registered object from the list, and
Control at least one of the conditions,
The information processing device according to claim 2.
前記管理手段は、前記登録数が前記個体数よりも多い場合に、
前記リストへの前記対象物の登録がより制限されるように前記第1の条件を制限する処理と、
前記リストからの登録された前記対象物の削除がより促されるように前記第2の条件を緩和する処理と、
のうちの少なくともいずれかを実行する、
請求項3に記載の情報処理装置。
When the number of registrations is larger than the number of individuals, the management means
The process of limiting the first condition so that the registration of the object in the list is further restricted.
A process of relaxing the second condition so as to further promote the deletion of the registered object from the list.
Do at least one of the,
The information processing device according to claim 3.
前記管理手段は、前記登録数が前記個体数よりも少ない場合に、
前記リストへの前記対象物の登録がより促されるように前記第1の条件を緩和する処理と、
前記リストからの登録された前記対象物の削除がより制限されるように前記第2の条件を制限する処理と、
のうちの少なくともいずれかを実行する、
請求項3または4に記載の情報処理装置。
When the number of registrations is less than the number of individuals, the management means
A process of relaxing the first condition so that the registration of the object in the list is further promoted.
A process of limiting the second condition so that the deletion of the registered object from the list is further restricted.
Do at least one of the,
The information processing device according to claim 3 or 4.
前記第1の条件は、複数の前記対象物間における前記第1の情報の比較の結果に応じた乖離度に関する条件を含み、
前記管理手段は、
取得された前記第1の情報と、前記リストに登録された1以上の前記対象物に関連付けられた他の前記第1の情報それぞれと、を比較し、
当該比較の結果に応じた前記乖離度が閾値以上の場合に、前記リストに登録された1以上の前記対象物それぞれとは異なる他の対象物に対して取得された前記第1の情報を関連付けて、当該他の対象物を前記リストに登録する、
請求項3〜5のいずれか1項に記載の情報処理装置。
The first condition includes a condition regarding a degree of divergence according to the result of comparison of the first information among a plurality of the objects.
The management means
The acquired first information is compared with each of the other first information associated with one or more of the objects registered in the list.
When the degree of deviation according to the result of the comparison is equal to or greater than the threshold value, the first information acquired is associated with another object different from each of the one or more objects registered in the list. And register the other object in the list,
The information processing device according to any one of claims 3 to 5.
前記第1の条件を制限する処理は、前記リストに対して前記対象物を登録するために要求される前記乖離度がより大きくなるように閾値を制御する処理であり、
前記第1の条件を緩和する処理は、前記リストに対して前記対象物を登録するために要求される前記乖離度がより小さくなるように閾値を制御する処理である、
請求項6に記載の情報処理装置。
The process of limiting the first condition is a process of controlling the threshold value so that the degree of deviation required for registering the object with respect to the list becomes larger.
The process of relaxing the first condition is a process of controlling the threshold value so that the degree of deviation required for registering the object with respect to the list becomes smaller.
The information processing device according to claim 6.
前記リストは、登録されている前記対象物ごとに、当該対象物の検知が行われたタイミングに関する情報を含み、
前記第2の条件は、前記対象物の検知が行われた前記タイミングからの経過期間に関する条件を含み、
前記管理手段は、前記リストに登録された前記対象物のうち、関連付けられた前記第1の情報に対応する前記タイミングからの前記経過期間が閾値以上の前記対象物を前記リストから削除する、
請求項3〜7のいずれか1項に記載の情報処理装置。
The list includes information on the timing at which the object is detected for each registered object.
The second condition includes a condition relating to an elapsed period from the timing at which the object is detected.
The management means deletes from the list the objects registered in the list whose elapsed period from the timing corresponding to the associated first information is equal to or greater than the threshold value.
The information processing device according to any one of claims 3 to 7.
前記第2の条件を制限する処理は、前記リストから登録された前記対象物を削除するために要求される前記経過期間がより長くなるように閾値を制御する処理であり、
前記第2の条件を緩和する処理は、前記リストから登録された前記対象物を削除するために要求される前記経過期間がより短くなるように閾値を制御する処理である、
請求項8に記載の情報処理装置。
The process of limiting the second condition is a process of controlling the threshold value so that the elapsed period required for deleting the object registered from the list is longer.
The process of relaxing the second condition is a process of controlling the threshold value so that the elapsed period required for deleting the object registered from the list is shorter.
The information processing device according to claim 8.
前記第2の情報は、
1つ以上の撮像部による撮像結果に応じた画像に被写体として含まれる前記対象物の数に応じた推定方法と、
所定の領域における前記対象物の通過の検知結果に応じた推定方法と、
前記関心領域内に存在する前記対象物の個体数の過去の推定結果に応じた推定方法と、
のうちの少なくともいずれかに基づき推定される、
請求項1〜9のいずれか1項に記載の情報処理装置。
The second information is
An estimation method according to the number of the objects included as a subject in an image according to the image pickup result by one or more imaging units, and an estimation method.
An estimation method according to the detection result of the passage of the object in a predetermined area, and
An estimation method according to the past estimation result of the number of individuals of the object existing in the area of interest, and
Estimated based on at least one of
The information processing device according to any one of claims 1 to 9.
前記検知部は、前記関心領域のうち少なくとも一部の領域を撮像する撮像部であり、
前記第1の情報は、
前記少なくとも一部の領域の撮像結果に応じた画像からの前記対象物の特徴の抽出結果に応じた特徴量と、
前記画像から抽出された前記対象物の属性情報と、
のうちの少なくともいずれかを含む、
請求項1〜9のいずれか1項に記載の情報処理装置。
The detection unit is an imaging unit that images at least a part of the region of interest.
The first information is
The feature amount according to the extraction result of the feature of the object from the image corresponding to the imaging result of at least a part of the region, and
Attribute information of the object extracted from the image and
Including at least one of
The information processing device according to any one of claims 1 to 9.
前記特徴量は、
同一の前記対象物から抽出された場合には、相互に照合した結果に応じた類似度がより高くなり、
異なる前記対象物から抽出された場合には、相互に照合した結果に応じた類似度がより低くなる、
情報である、
請求項11に記載の情報処理装置。
The feature amount is
When extracted from the same object, the degree of similarity according to the result of mutual collation becomes higher.
When extracted from different objects, the similarity is lower according to the results of mutual matching.
Information,
The information processing device according to claim 11.
前記属性情報は、前記対象物が人である場合には、前記画像から推定される当該人の性別、年齢、身長、体型、身体の向き、顔の向き、髭の有無、マスクの有無、メガネの有無、サングラスの有無、被り物の有無、鞄の有無、鞄の種類、及び被服の色のうち少なくともいずれかを含む、請求項11または12に記載の情報処理装置。 When the object is a person, the attribute information includes the gender, age, height, body shape, body orientation, face orientation, beard presence / absence, mask presence / absence, and glasses of the person estimated from the image. The information processing apparatus according to claim 11 or 12, which includes at least one of the presence / absence of sunglasses, the presence / absence of sunglasses, the presence / absence of a beard, the type of a beard, and the color of clothing. 前記対象物は、人、移動体、動物、及びロボットのうちの少なくともいずれかである、請求項1〜13のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 13, wherein the object is at least one of a human, a mobile body, an animal, and a robot. 情報処理装置が実行する情報処理方法であって、
所定の関心領域のうち少なくとも一部の領域を対象物の検知の対象とする1以上の検知部それぞれによる当該対象物の検知結果に応じた第1の情報を取得する第1の取得ステップと、
前記対象物ごとに前記第1の情報を関連付けてリストとして管理する管理ステップと、
前記関心領域内に存在する前記対象物の個体数の推定結果に応じた第2の情報を取得する第2の取得ステップと、
を含み、
前記管理ステップにおいて、
前記リストに対する前記対象物の登録数と、前記第2の情報が示す前記個体数と、が比較され、
当該比較の結果に基づき、前記リストの補正に関する処理が実行される、
情報処理方法。
It is an information processing method executed by an information processing device.
The first acquisition step of acquiring the first information according to the detection result of the object by each of the one or more detection units that target at least a part of the predetermined area of interest.
A management step in which the first information is associated with each object and managed as a list, and
A second acquisition step of acquiring second information according to the estimation result of the number of individuals of the object existing in the region of interest, and
Including
In the management step
The number of registered objects in the list and the number of individuals indicated by the second information are compared.
Based on the result of the comparison, the processing related to the correction of the list is executed.
Information processing method.
コンピュータを、請求項1〜14のいずか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 14.
JP2019236976A 2019-12-26 2019-12-26 Information processing apparatus, information processing method, and program Pending JP2021106330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019236976A JP2021106330A (en) 2019-12-26 2019-12-26 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019236976A JP2021106330A (en) 2019-12-26 2019-12-26 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021106330A true JP2021106330A (en) 2021-07-26

Family

ID=76919638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236976A Pending JP2021106330A (en) 2019-12-26 2019-12-26 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021106330A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276212A1 (en) 2021-06-28 2023-01-05 日立Astemo株式会社 Software component update system, and software component update method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276212A1 (en) 2021-06-28 2023-01-05 日立Astemo株式会社 Software component update system, and software component update method

Similar Documents

Publication Publication Date Title
US11704936B2 (en) Object tracking and best shot detection system
JP6854881B2 (en) Face image matching system and face image search system
WO2021043073A1 (en) Urban pet movement trajectory monitoring method based on image recognition and related devices
JP4753193B2 (en) Flow line management system and program
US20190347528A1 (en) Image analysis system, image analysis method, and storage medium
JP3584334B2 (en) Human detection tracking system and human detection tracking method
JP5992276B2 (en) Person recognition apparatus and method
JP7405200B2 (en) person detection system
JP5077164B2 (en) Tracking device and tracking method
US9891798B2 (en) Face image tracking system
US10936859B2 (en) Techniques for automatically identifying secondary objects in a stereo-optical counting system
WO2022030558A1 (en) Person detection or tracking device, system, method, and program
US20210133491A1 (en) System and method for detecting, tracking and counting human objects of interest with an improved height calculation
JP2021106330A (en) Information processing apparatus, information processing method, and program
EP2966592B1 (en) Face recognition apparatus and method for recognizing face
KR20160078154A (en) Customer information provision method, device and computer program
CN114677608A (en) Identity feature generation method, device and storage medium
CN110956644B (en) Motion trail determination method and system
JP5472976B2 (en) Object detection device, object detection method, program, and recording medium
CN114332737A (en) Wandering information providing method
US20220222961A1 (en) Attribute determination device, attribute determination program, and attribute determination method
WO2022079841A1 (en) Group specifying device, group specifying method, and computer-readable recording medium
US20230206694A1 (en) Non-transitory computer-readable recording medium, information processing method, and information processing apparatus
US20230401892A1 (en) Information processing apparatus, information processing method, and storage medium
US20210303870A1 (en) Video analytic system for crowd characterization