JP2023099581A - Information processing system, information processing device, terminal, processing method, and program - Google Patents

Information processing system, information processing device, terminal, processing method, and program Download PDF

Info

Publication number
JP2023099581A
JP2023099581A JP2023075178A JP2023075178A JP2023099581A JP 2023099581 A JP2023099581 A JP 2023099581A JP 2023075178 A JP2023075178 A JP 2023075178A JP 2023075178 A JP2023075178 A JP 2023075178A JP 2023099581 A JP2023099581 A JP 2023099581A
Authority
JP
Japan
Prior art keywords
person
information
camera
predetermined
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023075178A
Other languages
Japanese (ja)
Inventor
正志 長田
Masashi Osada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2023075178A priority Critical patent/JP2023099581A/en
Publication of JP2023099581A publication Critical patent/JP2023099581A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To provide an image processing device capable of monitoring a suspicious person even when the suspicious person is not known.SOLUTION: An image processing system comprises: a detection unit which with respect to a person appearing in a video captured from a camera selected based on an input to an input device, detects a gesture of the person; and an estimation unit which estimates a predetermined person candidate based on a result of the detection by the detection unit.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、情報処理装置、端末、処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing device, a terminal, a processing method, and a program.

マンション、一軒家、市街地などにおいて、防犯カメラの設置が増加している。
特許文献1には、関連する技術として、不審人物を監視する技術が記載されている。
The installation of security cameras is increasing in condominiums, detached houses, urban areas, and the like.
Patent Literature 1 describes a technique for monitoring a suspicious person as a related technique.

特開2010-191620号公報Japanese Unexamined Patent Application Publication No. 2010-191620

ところで、特許文献1に記載の技術は、予め不審人物が判っていることを前提としており、不審人物が判っていない場合には不審人物を監視することができなかった。 By the way, the technique described in Patent Document 1 assumes that a suspicious person is known in advance, and cannot monitor a suspicious person if the suspicious person is not known.

そこでこの発明は、上記の課題を解決することのできる情報処理システム、情報処理装置、端末、処理方法及びプログラムを提供することを目的としている。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an information processing system, an information processing apparatus, a terminal, a processing method, and a program that can solve the above problems.

上記目的を達成するために、本開示の一態様によれば、画像処理装置は、撮影された映像における人物の出現状態を判定する出現状態判定部と、前記出現状態に基づいて所定人物候補を推定する所定人物候補推定部と、を備える。 In order to achieve the above object, according to one aspect of the present disclosure, an image processing apparatus includes an appearance state determination unit that determines an appearance state of a person in a captured image, and a predetermined person candidate based on the appearance state. a predetermined person candidate estimating unit for estimating.

また、本開示の一態様によれば、画像処理システムは、カメラと、画像処理装置とを備え、前記カメラは、所定領域の画像を撮影し、前記画像処理装置は、撮影された映像における人物の出現状態を判定する出現状態判定部と、前記出現状態に基づいて所定人物候補を推定する所定人物候補推定部と、を備える。 Further, according to one aspect of the present disclosure, an image processing system includes a camera and an image processing device, the camera captures an image of a predetermined area, and the image processing device captures a person in the captured image. and a predetermined person candidate estimating unit for estimating a predetermined person candidate based on the appearance state.

また、本開示の一態様によれば、画像処理方法は、撮影された映像における人物の出現状態を判定し、前記出現状態に基づいて所定人物候補を推定する。 Further, according to one aspect of the present disclosure, the image processing method determines the appearance state of a person in a captured image, and estimates a predetermined person candidate based on the appearance state.

また、本開示の一態様によれば、プログラムは、コンピュータを、撮影された映像における人物の出現状態を判定する出現状態判定手段、前記出現状態に基づいて所定人物候補を推定する所定人物候補推定手段、として機能させる。 Further, according to one aspect of the present disclosure, the program comprises: a computer, an appearance state determining means for determining an appearance state of a person in a captured image; a predetermined person candidate estimation unit for estimating a predetermined person candidate based on the appearance state; function as a means.

本発明の画像処理システムの処理により、不審人物などの指定した条件に基づく人物候補を特定することができる。 By the processing of the image processing system of the present invention, it is possible to identify a person candidate based on specified conditions such as a suspicious person.

本発明の実施形態による画像処理装置の最小構成を示す図である。1 is a diagram showing the minimum configuration of an image processing device according to an embodiment of the present invention; FIG. 本発明の第一の実施形態による画像処理システムの構成を示す図である。1 is a diagram showing the configuration of an image processing system according to a first embodiment of the present invention; FIG. 本実施形態によるセンターシステムの構成を示す図である。It is a figure which shows the structure of the center system by this embodiment. 本実施形態による入力装置の構成を示す図である。It is a figure which shows the structure of the input device by this embodiment. 本実施形態による第一エッジ装置の構成を示す図である。It is a figure which shows the structure of the 1st edge device by this embodiment. 本実施形態による第二エッジ装置の構成を示す図である。FIG. 4 is a diagram showing the configuration of a second edge device according to this embodiment; 本実施形態による第三エッジ装置の構成を示す図である。FIG. 4 is a diagram showing the configuration of a third edge device according to this embodiment; 本実施形態による第一データテーブルを示す図である。It is a figure which shows the 1st data table by this embodiment. 本実施形態による第二データテーブルを示す図である。It is a figure which shows the 2nd data table by this embodiment. 本実施形態による第三データテーブルを示す図である。It is a figure which shows the 3rd data table by this embodiment. 本実施形態による総合データテーブルを示す図である。It is a figure which shows the comprehensive data table by this embodiment. 本実施形態による処理フローを示す第一の図である。FIG. 4 is a first diagram showing a processing flow according to this embodiment; 本実施形態による処理フローを示す第二の図である。FIG. 4 is a second diagram showing a processing flow according to this embodiment; 本発明の第一の実施形態による入力装置の構成を示す図である。It is a figure which shows the structure of the input device by 1st embodiment of this invention.

図1は、本発明の実施形態による画像処理装置100の最小構成を示す図である。
本発明の画像処理装置100は、図1に示すように、少なくとも出現状態判定部101と、所定人物候補推定部102と、を備える。
出現状態判定部101は、撮影された映像における人物の出現状態を判定する。人物の出現状態とは、例えば、映像において人物の出現回数が多い、人物が長時間出現する、頻繁に周囲を見回す等人物が不審な挙動をとるなど、人物の出現を示す結果である。
所定人物候補推定部102は、出現状態に基づいて所定人物候補を推定する。所定人物候補とは、例えば、万引き犯、不審購買者、ストーカーなどの人物である。
FIG. 1 is a diagram showing the minimum configuration of an image processing apparatus 100 according to an embodiment of the invention.
The image processing apparatus 100 of the present invention includes at least an appearance state determination unit 101 and a predetermined person candidate estimation unit 102, as shown in FIG.
Appearance state determination unit 101 determines the appearance state of a person in a captured image. The appearance state of a person is, for example, a result indicating the appearance of a person, such as the number of appearances of a person in a video, the appearance of a person for a long time, or the person acting suspiciously such as frequently looking around.
A predetermined person candidate estimation unit 102 estimates a predetermined person candidate based on the appearance state. A predetermined person candidate is, for example, a person such as a shoplifter, a suspicious purchaser, or a stalker.

<第一の実施形態>
図2は、本発明の第一の実施形態による画像処理システム1の構成を示す図である。
まず、本発明の第一の実施形態による画像処理装置100を備える画像処理システム1について説明する。
本実施形態による画像処理システム1は、図2に示すように、センターシステム10、入力装置20、第一エッジ装置30a(情報処理装置)、第二エッジ装置30b(情報処理装置)、第三エッジ装置30c(情報処理装置)、第一カメラ装置40a、第二カメラ装置40b、第三カメラ装置40c、を備える。
なお、以下の説明では、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・、第nエッジ装置30n、・・・を総称してエッジ装置30と呼ぶ。また、第一カメラ装置40a、第二カメラ装置40b、第三カメラ装置40c、・・・、第nカメラ装置40n、・・・を総称してカメラ装置40と呼ぶ。
<First embodiment>
FIG. 2 is a diagram showing the configuration of the image processing system 1 according to the first embodiment of the invention.
First, an image processing system 1 including an image processing apparatus 100 according to the first embodiment of the present invention will be described.
As shown in FIG. 2, the image processing system 1 according to the present embodiment includes a center system 10, an input device 20, a first edge device 30a (information processing device), a second edge device 30b (information processing device), and a third edge device. A device 30c (information processing device), a first camera device 40a, a second camera device 40b, and a third camera device 40c are provided.
In the following description, the first edge device 30a, the second edge device 30b, the third edge device 30c, . . . , the n-th edge device 30n, . Also, the first camera device 40a, the second camera device 40b, the third camera device 40c, . . . , the n-th camera device 40n, .

入力装置20は、例えば、スマートフォン、携帯電話、パーソナルコンピュータなどである。ユーザは、人物の特徴量である人物特徴量を抽出させるカメラを選択するカメラ選択情報を入力するカメラ選択情報入力操作を行う。なお、人物特徴量とは、例えば、顔、身長、性別、服装、持ち物など、人物を特定するための情報である。 The input device 20 is, for example, a smart phone, a mobile phone, a personal computer, or the like. The user performs a camera selection information input operation of inputting camera selection information for selecting a camera from which a person feature amount, which is a person feature amount, is to be extracted. A person feature amount is information for specifying a person, such as face, height, gender, clothing, belongings, etc., for example.

ユーザは、人物特徴量の抽出を開始する開始指示を入力する開始指示入力操作を行う。入力装置20は、ユーザによる開始指示入力操作に基づいて、カメラ選択情報をセンターシステム10に送信する。 The user performs a start instruction input operation for inputting a start instruction to start extracting the person feature amount. The input device 20 transmits camera selection information to the center system 10 based on the start instruction input operation by the user.

センターシステム10は、入力装置20からカメラ選択情報を受信する。センターシステム10は、入力したカメラ選択情報に基づいて、エッジ装置を特定する。
センターシステム10は、特定した第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれにカメラ選択情報と、人物特徴量の抽出の開始を指示する特徴量抽出開始指示とを送信する。
The center system 10 receives camera selection information from the input device 20 . The center system 10 identifies the edge device based on the input camera selection information.
The center system 10 sends camera selection information to each of the specified first edge device 30a, second edge device 30b, and third edge device 30c, and a feature quantity extraction start instruction to start extracting a person feature quantity. to send.

第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、センターシステム10からカメラ選択情報と人物特徴量抽出開始指示とを受信すると、カメラ選択情報が示すカメラを有するカメラ装置40からカメラ映像を取得する。そして、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、取得したカメラ映像から人物特徴量を抽出する。第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、抽出した人物特徴量に対してインデックスを生成する。なお、インデックスは、例えば、カメラ選択情報を送信した入力装置20の識別子である入力装置ID(IDentifier)、人物特徴量毎に割り当てる人物特徴量の識別子である人物特徴量IDなどを含む情報である。第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、抽出した人物特徴量と共に生成したインデックスをセンターシステム10に送信する。
また、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、抽出した人物特徴量と共に生成したインデックスを記憶部に記録する。また、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、カメラ映像に生成したインデックスを付与し、カメラ映像を記憶部に記録する。
When each of the first edge device 30a, the second edge device 30b, and the third edge device 30c receives the camera selection information and the human feature amount extraction start instruction from the center system 10, each of them has the camera indicated by the camera selection information. A camera image is acquired from the camera device 40 . Then, each of the first edge device 30a, the second edge device 30b, and the third edge device 30c extracts the person feature amount from the acquired camera image. Each of the first edge device 30a, the second edge device 30b, and the third edge device 30c generates an index for the extracted person feature amount. Note that the index is information including, for example, an input device ID (IDentifier) that is an identifier of the input device 20 that has transmitted the camera selection information, a person feature amount ID that is an identifier of a person feature amount assigned to each person feature amount, and the like. . Each of the first edge device 30a, the second edge device 30b, and the third edge device 30c transmits to the center system 10 the extracted human feature amount and the generated index.
Also, each of the first edge device 30a, the second edge device 30b, and the third edge device 30c records the extracted human feature quantity and the generated index in the storage unit. Also, each of the first edge device 30a, the second edge device 30b, and the third edge device 30c assigns a generated index to the camera image and records the camera image in the storage unit.

センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれからカメラ映像と共に人物特徴量とインデックスを受信すると、受信したカメラ映像と人物特徴量とインデックスを関連付けて記憶部に記録する。 When the center system 10 receives the camera image, the person feature amount, and the index from each of the first edge device 30a, the second edge device 30b, and the third edge device 30c, the center system 10 receives the camera image, the person feature amount, and the index. It is associated and recorded in the storage unit.

また、ユーザは、不審人物の抽出の開始を指示する不審人物抽出開始指示を入力する不審人物抽出開始指示入力操作を行う。入力装置20は、ユーザによる不審人物抽出開始指示に基づいて、不審人物の抽出の開始をセンターシステム10に送信する。 Further, the user performs a suspicious person extraction start instruction input operation for inputting a suspicious person extraction start instruction for instructing the start of extraction of a suspicious person. The input device 20 transmits a start of suspicious person extraction to the center system 10 based on a suspicious person extraction start instruction from the user.

センターシステム10は、不審人物などの人物候補と判定する人物候補判定条件を入力し、記憶部に記録している。なお、人物候補判定条件は、映像において人物の出現回数が多い、人物が長時間出現するなど、人物の出現を示す結果である出現状態を判定するための判定条件である。センターシステム10は、不審人物の抽出の開始を指示する不審人物抽出開始指示を入力すると、記憶部の記憶するカメラ映像と人物特徴量とインデックス、及び、出現状態に基づいて、不審人物を特定する。センターシステム10は、特定した不審人物についての不審人物特定結果を記憶部に記録する。 The center system 10 inputs a person candidate determination condition for determining a person candidate such as a suspicious person, and records it in the storage unit. It should be noted that the person candidate determination condition is a determination condition for determining an appearance state, which is a result indicating the appearance of a person, such as a person appearing many times in a video or appearing for a long time. When the center system 10 inputs a suspicious person extraction start instruction for instructing the start of extraction of a suspicious person, the center system 10 identifies the suspicious person based on the camera image, the person feature amount, the index, and the appearance state stored in the storage unit. . The center system 10 records the suspicious person identification result of the identified suspicious person in the storage unit.

ユーザは、人物特徴量の抽出を終了する終了指示を入力する終了指示入力操作を行う。入力装置20は、ユーザによる終了指示入力操作に基づいて、終了指示をセンターシステム10に送信する。 The user performs an end instruction input operation for inputting an end instruction to end the extraction of the person feature amount. The input device 20 transmits an end instruction to the center system 10 based on the end instruction input operation by the user.

センターシステム10は、入力装置20から終了指示を受信すると、人物特徴量の抽出の終了を示す特徴量抽出終了指示を第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれに送信する。 When the center system 10 receives the end instruction from the input device 20, the center system 10 transmits the feature amount extraction end instruction indicating the end of extraction of the person feature amount to the first edge device 30a, the second edge device 30b, and the third edge device 30c. Send to each.

第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは、センターシステム10から特徴量抽出終了指示を受信すると、カメラ映像における人物特徴量の抽出を終了する。 When each of the first edge device 30a, the second edge device 30b, and the third edge device 30c receives the feature quantity extraction end instruction from the center system 10, it ends the extraction of the person feature quantity in the camera video.

以上のように、本発明の実施形態による画像処理システム1では、ユーザの選択した領域におけるカメラ装置40は、映像を撮影する。エッジ装置30のそれぞれは、カメラ装置40が撮影した映像から人物特徴量を抽出する。センターシステム10は、カメラ装置40が抽出した人物特徴量を有する人物から、人物候補判定条件を用いて判定した出現状態を満たす人物を不審人物と特定する。 As described above, in the image processing system 1 according to the embodiment of the present invention, the camera device 40 in the area selected by the user takes an image. Each of the edge devices 30 extracts a person feature amount from the video captured by the camera device 40 . The center system 10 identifies, as a suspicious person, a person who satisfies the appearance state determined using the person candidate determination condition from among the persons having the person feature quantity extracted by the camera device 40 .

図3は、本実施形態によるセンターシステム10の構成を示す図である。
次に、本実施形態によるセンターシステム10の構成について説明する。
本実施形態によるセンターシステム10は、図3に示すように、画像処理装置100を備える。画像処理装置100は、出現状態判定部101と、所定人物候補推定部102と、通信部103と、制御部104と、カメラ選択部105と、記憶部106と、条件入力部107と、を備える。
FIG. 3 is a diagram showing the configuration of the center system 10 according to this embodiment.
Next, the configuration of the center system 10 according to this embodiment will be described.
The center system 10 according to this embodiment includes an image processing device 100 as shown in FIG. The image processing apparatus 100 includes an appearance state determination unit 101, a predetermined person candidate estimation unit 102, a communication unit 103, a control unit 104, a camera selection unit 105, a storage unit 106, and a condition input unit 107. .

出現状態判定部101は、人物候補判定条件に基づいて、撮影された映像における人物の出現状態を判定する。
所定人物候補推定部102は、撮影された映像における人物の出現状態に基づいて所定人物候補を推定する。例えば、所定人物候補推定部102は、センターシステム10がエッジ装置30のそれぞれから受信したカメラ映像と人物特徴量とインデックス、及び、出現状態に基づいて、出現状態を満足する人物特徴量を有するカメラ映像における人物を不審人物として特定する。
通信部103は、入力装置20及びエッジ装置30のそれぞれと情報の送受信を行う。
Appearance state determination unit 101 determines the appearance state of a person in a captured image based on a person candidate determination condition.
The predetermined person candidate estimation unit 102 estimates a predetermined person candidate based on the appearance state of the person in the captured image. For example, the predetermined person candidate estimating unit 102, based on the camera image, the person feature amount, the index, and the appearance state received by the center system 10 from each of the edge devices 30, the camera having the person feature amount that satisfies the appearance state. To identify a person in a video as a suspicious person.
The communication unit 103 transmits and receives information to and from each of the input device 20 and the edge device 30 .

制御部104は、センターシステム10が行う処理に必要な種々の制御を行う。例えば、制御部104は、通信部103が行う情報の送受信を制御する。なお、以下の説明では、制御部104が通信部103の行う情報の送受信を制御していることを特に記載していない場合であっても、制御部104は、通信部103の行う情報の送受信を制御している。 The control unit 104 performs various controls necessary for processing performed by the center system 10 . For example, the control unit 104 controls transmission and reception of information performed by the communication unit 103 . In the following description, even if it is not specifically described that the control unit 104 controls the transmission and reception of information performed by the communication unit 103, the control unit 104 controls the transmission and reception of information performed by the communication unit 103. is controlling

カメラ選択部105は、出現状態判定部101が判定する撮影された映像における人物の出現状態を撮影するカメラを指定する。
記憶部106は、センターシステム10が行う種々の処理に必要な情報を記憶する。例えば、記憶部106は、センターシステム10がエッジ装置30のそれぞれから受信したカメラ映像と人物特徴量とインデックスを関連付けて記憶する。
条件入力部107は、人物候補判定条件を取得し、取得した人物候補判定条件を記憶部106に記録する。
The camera selection unit 105 designates a camera that captures the appearance state of the person in the captured image determined by the appearance state determination unit 101 .
The storage unit 106 stores information necessary for various processes performed by the center system 10 . For example, the storage unit 106 associates and stores camera images, person feature amounts, and indexes received by the center system 10 from each of the edge devices 30 .
The condition input unit 107 acquires a person candidate determination condition and records the acquired person candidate determination condition in the storage unit 106 .

図4は、本実施形態による入力装置20の構成を示す図である。
次に、本実施形態による入力装置20の構成について説明する。
本実施形態による入力装置20は、図4に示すように、通信部201と、情報入力部202と、表示制御部203と、を備える。
FIG. 4 is a diagram showing the configuration of the input device 20 according to this embodiment.
Next, the configuration of the input device 20 according to this embodiment will be described.
The input device 20 according to this embodiment includes a communication unit 201, an information input unit 202, and a display control unit 203, as shown in FIG.

通信部201は、センターシステム10と情報の送受信を行う。
情報入力部202は、ユーザによる入力操作を検出し、検出した入力操作に基づく信号を出力する。例えば、情報入力部202は、ユーザによるカメラ選択情報入力操作を検出した場合、カメラ選択情報をセンターシステム10に送信する。また、例えば、情報入力部202は、ユーザによる開始指示入力操作を検出した場合、開始指示をセンターシステム10に送信する。また、例えば、情報入力部202は、ユーザによる終了指示入力操作を検出した場合、終了指示をセンターシステム10に送信する。
A communication unit 201 transmits and receives information to and from the center system 10 .
The information input unit 202 detects an input operation by the user and outputs a signal based on the detected input operation. For example, the information input unit 202 transmits the camera selection information to the center system 10 when detecting the camera selection information input operation by the user. Further, for example, the information input unit 202 transmits a start instruction to the center system 10 when detecting a start instruction input operation by the user. Further, for example, the information input unit 202 transmits an end instruction to the center system 10 when detecting an end instruction input operation by the user.

表示制御部203は、図示していない表示画面に表示する表示を制御する。例えば、表示制御部203は、入力装置20がセンターシステム10に送信する情報、及び、入力装置20がセンターシステム10から受信する情報を表示画面に表示する表示を制御する。 The display control unit 203 controls display on a display screen (not shown). For example, the display control unit 203 controls display of information transmitted by the input device 20 to the center system 10 and information received by the input device 20 from the center system 10 on the display screen.

次に、本実施形態によるエッジ装置30の構成について説明する。
図5は、本実施形態による第一エッジ装置30aの構成を示す図である。
まず、本実施形態による第一エッジ装置30aの構成について説明する。
本実施形態による第一エッジ装置30aは、図5に示すように、第一通信部301aと、第一制御部302aと、第一カメラ制御部303aと、第一記憶部304aと、第一特徴量抽出部305aと、第一映像受信部306aと、第一カメラインターフェース307aと、を備える。
Next, the configuration of the edge device 30 according to this embodiment will be described.
FIG. 5 is a diagram showing the configuration of the first edge device 30a according to this embodiment.
First, the configuration of the first edge device 30a according to this embodiment will be described.
As shown in FIG. 5, the first edge device 30a according to the present embodiment includes a first communication unit 301a, a first control unit 302a, a first camera control unit 303a, a first storage unit 304a, and a first feature It comprises an amount extractor 305a, a first image receiver 306a, and a first camera interface 307a.

第一通信部301aは、センターシステム10及び第一カメラ装置40aのそれぞれと情報の送受信を行う。
第一制御部302aは、第一エッジ装置30aが行う処理に必要な種々の制御を行う。例えば、第一制御部302aは、第一通信部301aが行う情報の送受信を制御する。なお、以下の説明では、第一制御部302aが第一通信部301aの行う情報の送受信を制御していることを特に記載していない場合であっても、第一制御部302aは、第一通信部301aの行う情報の送受信を制御している。
The first communication unit 301a transmits and receives information to and from each of the center system 10 and the first camera device 40a.
The first control unit 302a performs various controls necessary for processing performed by the first edge device 30a. For example, the first control unit 302a controls transmission and reception of information performed by the first communication unit 301a. In the following description, even if it is not specifically described that the first control unit 302a controls transmission and reception of information performed by the first communication unit 301a, the first control unit 302a It controls transmission and reception of information performed by the communication unit 301a.

第一カメラ制御部303aは、第一カメラインターフェース307aを介して第一カメラ装置40aに撮影を制御する撮影制御信号を送信する。
第一記憶部304aは、第一エッジ装置30aが行う処理に必要な種々の情報を記憶する。
The first camera control unit 303a transmits a shooting control signal for controlling shooting to the first camera device 40a via the first camera interface 307a.
The first storage unit 304a stores various information necessary for processing performed by the first edge device 30a.

第一特徴量抽出部305aは、カメラ選択部105が指定したカメラ装置40の備えるカメラが撮影した人物特徴量を抽出する。具体的には、第一映像受信部306aが第一カメラ装置40aから受信した映像を画像解析して、人物特徴量を抽出する。 The first feature amount extraction unit 305a extracts the person feature amount captured by the camera included in the camera device 40 specified by the camera selection unit 105 . Specifically, the image received by the first image receiving unit 306a from the first camera device 40a is image-analyzed, and the person feature amount is extracted.

第一映像受信部306aは、第一カメラ装置40aが撮影した映像を受信する。
第一カメラインターフェース307aは、第一エッジ装置30aと第一カメラ装置40aを繋ぐために第一エッジ装置30aが備えるインターフェースである。
The first image receiving unit 306a receives the image captured by the first camera device 40a.
The first camera interface 307a is an interface provided in the first edge device 30a to connect the first edge device 30a and the first camera device 40a.

図6は、本実施形態による第二エッジ装置30bの構成を示す図である。
次に、本実施形態による第二エッジ装置30bの構成について説明する。
本実施形態による第二エッジ装置30bは、図6に示すように、第二通信部301bと、第二制御部302bと、第二カメラ制御部303bと、第二記憶部304bと、第二特徴量抽出部305bと、第二映像受信部306bと、第二カメラインターフェース307bと、を備える。
FIG. 6 is a diagram showing the configuration of the second edge device 30b according to this embodiment.
Next, the configuration of the second edge device 30b according to this embodiment will be described.
As shown in FIG. 6, the second edge device 30b according to the present embodiment includes a second communication unit 301b, a second control unit 302b, a second camera control unit 303b, a second storage unit 304b, a second feature It comprises an amount extractor 305b, a second image receiver 306b, and a second camera interface 307b.

第二通信部301bは、センターシステム10及び第二カメラ装置40bのそれぞれと情報の送受信を行う。
第二制御部302bは、第二エッジ装置30bが行う処理に必要な種々の制御を行う。例えば、第二制御部302bは、第二通信部301bが行う情報の送受信を制御する。なお、以下の説明では、第二制御部302bが第二通信部301bの行う情報の送受信を制御していることを特に記載していない場合であっても、第二制御部302bは、第二通信部301bの行う情報の送受信を制御している。
The second communication unit 301b transmits and receives information to and from each of the center system 10 and the second camera device 40b.
The second control unit 302b performs various controls necessary for processing performed by the second edge device 30b. For example, the second control unit 302b controls transmission and reception of information performed by the second communication unit 301b. In the following description, even if it is not specifically described that the second control unit 302b controls transmission and reception of information performed by the second communication unit 301b, the second control unit 302b controls the second It controls transmission and reception of information performed by the communication unit 301b.

第二カメラ制御部303bは、第二カメラインターフェース307bを介して第二カメラ装置40bに撮影を制御する撮影制御信号を送信する。
第二記憶部304bは、第二エッジ装置30bが行う処理に必要な種々の情報を記憶する。
The second camera control unit 303b transmits a shooting control signal for controlling shooting to the second camera device 40b via the second camera interface 307b.
The second storage unit 304b stores various information necessary for processing performed by the second edge device 30b.

第二特徴量抽出部305bは、カメラ選択部105が指定したカメラ装置40の備えるカメラが撮影した人物特徴量を抽出する。具体的には、第二映像受信部306bが第二カメラ装置40bから受信した映像を画像解析して、人物特徴量を抽出する。 The second feature amount extraction unit 305b extracts the person feature amount captured by the camera included in the camera device 40 specified by the camera selection unit 105. FIG. Specifically, the image received by the second image receiving unit 306b from the second camera device 40b is image-analyzed, and the person feature amount is extracted.

第二映像受信部306bは、第二カメラ装置40bが撮影した映像を受信する。
第二カメラインターフェース307bは、第二エッジ装置30bと第二カメラ装置40bを繋ぐために第二エッジ装置30bが備えるインターフェースである。
The second image receiving unit 306b receives the image captured by the second camera device 40b.
The second camera interface 307b is an interface provided in the second edge device 30b to connect the second edge device 30b and the second camera device 40b.

図7は、本実施形態による第三エッジ装置30cの構成を示す図である。
次に、本実施形態による第三エッジ装置30cの構成について説明する。
本実施形態による第三エッジ装置30cは、図7に示すように、第三通信部301cと、第三制御部302cと、第三カメラ制御部303cと、第三記憶部304cと、第三特徴量抽出部305cと、第三映像受信部306cと、第三カメラインターフェース307cと、を備える。
FIG. 7 is a diagram showing the configuration of the third edge device 30c according to this embodiment.
Next, the configuration of the third edge device 30c according to this embodiment will be described.
As shown in FIG. 7, the third edge device 30c according to the present embodiment includes a third communication unit 301c, a third control unit 302c, a third camera control unit 303c, a third storage unit 304c, and a third feature It comprises an amount extractor 305c, a third video receiver 306c, and a third camera interface 307c.

第三通信部301cは、センターシステム10及び第三カメラ装置40cのそれぞれと情報の送受信を行う。
第三制御部302cは、第三エッジ装置30cが行う処理に必要な種々の制御を行う。例えば、第三制御部302cは、第三通信部301cが行う情報の送受信を制御する。なお、以下の説明では、第三制御部302cが第三通信部301cの行う情報の送受信を制御していることを特に記載していない場合であっても、第三制御部302cは、第三通信部301cの行う情報の送受信を制御している。
The third communication unit 301c transmits and receives information to and from each of the center system 10 and the third camera device 40c.
The third control unit 302c performs various controls necessary for processing performed by the third edge device 30c. For example, the third control unit 302c controls transmission and reception of information performed by the third communication unit 301c. In the following description, even if it is not specifically described that the third control unit 302c controls transmission and reception of information performed by the third communication unit 301c, the third control unit 302c It controls transmission and reception of information performed by the communication unit 301c.

第三カメラ制御部303cは、第三カメラインターフェース307cを介して第三カメラ装置40cに撮影を制御する撮影制御信号を送信する。
第三記憶部304cは、第三エッジ装置30cが行う処理に必要な種々の情報を記憶する。
The third camera control unit 303c transmits a shooting control signal for controlling shooting to the third camera device 40c via the third camera interface 307c.
The third storage unit 304c stores various information necessary for processing performed by the third edge device 30c.

第三特徴量抽出部305cは、カメラ選択部105が指定したカメラ装置40の備えるカメラが撮影した人物特徴量を抽出する。例えば、第三映像受信部306cが第三カメラ装置40cから受信した映像を画像解析して、顔、身長、性別、服装、持ち物などを抽出する。 The third feature amount extraction unit 305c extracts the person feature amount captured by the camera included in the camera device 40 specified by the camera selection unit 105. FIG. For example, the third image receiving unit 306c performs image analysis on the image received from the third camera device 40c, and extracts the face, height, gender, clothes, belongings, and the like.

第三映像受信部306cは、第三カメラ装置40cが撮影した映像を受信する。
第三カメラインターフェース307cは、第三エッジ装置30cと第三カメラ装置40cを繋ぐために第三エッジ装置30cが備えるインターフェースである。
The third image receiving unit 306c receives the image captured by the third camera device 40c.
The third camera interface 307c is an interface provided in the third edge device 30c to connect the third edge device 30c and the third camera device 40c.

次に、本実施形態によるカメラ装置40の構成について説明する。
カメラ装置40のそれぞれは、1つまたは複数のカメラを備える。本実施形態では、第一カメラ装置40aは、カメラ401a、カメラ402a及びカメラ403aを備えるものとする。また、第二カメラ装置40bは、カメラ401b、カメラ402b及びカメラ403bを備えるものとする。第三カメラ装置40cは、カメラ401c及びカメラ402cを備えるものとする。
Next, the configuration of the camera device 40 according to this embodiment will be described.
Each camera device 40 includes one or more cameras. In this embodiment, the first camera device 40a is assumed to include a camera 401a, a camera 402a, and a camera 403a. Also, the second camera device 40b is assumed to include a camera 401b, a camera 402b, and a camera 403b. The third camera device 40c is assumed to include a camera 401c and a camera 402c.

次に、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれが記憶するデータテーブルについて説明する。
図8は、本実施形態による第一データテーブルTBL1を示す図である。
第一記憶部304aは、第一特徴量抽出部305aが抽出した人物特徴量を第一データテーブルTBL1に記憶する。例えば、第一記憶部304aは、図8に示すように、第一特徴量抽出部305aがカメラ401a、カメラ402a、及び、カメラ403aのそれぞれの撮影した映像から抽出した人物特徴量を、カメラ毎に日時とインデックスとに関連付けて記憶する。なお、図8に示す第一データテーブルTBL1における捕捉日時とは、第一特徴量抽出部305aが人物特徴量を抽出している映像部分をカメラ401a、カメラ402a、及び、カメラ403aのそれぞれが撮影し始めた日時である。また、図8に示す第一データテーブルTBL1における解放日時とは、第一特徴量抽出部305aが人物特徴量を抽出している映像部分をカメラ401a、カメラ402a、及び、カメラ403aのそれぞれが撮影し終えた日時である。また、インデックスは、例えば、カメラ選択情報を送信した入力装置20の識別子である入力装置ID、人物特徴量毎に割り当てる人物特徴量の識別子である人物特徴量IDなどを含む情報である。
Next, the data tables stored by the first edge device 30a, the second edge device 30b, and the third edge device 30c will be described.
FIG. 8 is a diagram showing the first data table TBL1 according to this embodiment.
The first storage unit 304a stores the person feature amount extracted by the first feature amount extraction unit 305a in the first data table TBL1. For example, as shown in FIG. 8, the first storage unit 304a stores the person feature amount extracted by the first feature amount extraction unit 305a from the images captured by the cameras 401a, 402a, and 403a for each camera. is stored in association with the date and time and the index. The date and time of capturing in the first data table TBL1 shown in FIG. It is the date and time when it started. Also, the release date and time in the first data table TBL1 shown in FIG. It is the date and time when it was completed. Also, the index is information including, for example, an input device ID that is an identifier of the input device 20 that has transmitted the camera selection information, a person feature amount ID that is an identifier of a person feature amount assigned to each person feature amount, and the like.

図9は、本実施形態による第二データテーブルTBL2を示す図である。
第二記憶部304bは、第二特徴量抽出部305bが抽出した人物特徴量を第二データテーブルTBL2に記憶する。例えば、第二記憶部304bは、図9に示すように、第二特徴量抽出部305bがカメラ401b、カメラ402b、及び、カメラ403bのそれぞれの撮影した映像から抽出した人物特徴量を、カメラ毎に日時とインデックスとに関連付けて記憶する。
FIG. 9 is a diagram showing the second data table TBL2 according to this embodiment.
The second storage unit 304b stores the person feature amount extracted by the second feature amount extraction unit 305b in the second data table TBL2. For example, as shown in FIG. 9, the second storage unit 304b stores, for each camera, the person feature amount extracted by the second feature amount extraction unit 305b from the images captured by the cameras 401b, 402b, and 403b. is stored in association with the date and time and the index.

図10は、本実施形態による第三データテーブルTBL3を示す図である。
第三記憶部304cは、第三特徴量抽出部305cが抽出した人物特徴量を第三データテーブルTBL3に記憶する。例えば、第三記憶部304cは、図10に示すように、第三特徴量抽出部305cがカメラ401c、及び、カメラ402cのそれぞれの撮影した映像から抽出した人物特徴量を、カメラ毎に日時とインデックスとに関連付けて記憶する。
FIG. 10 is a diagram showing the third data table TBL3 according to this embodiment.
The third storage unit 304c stores the person feature amount extracted by the third feature amount extraction unit 305c in the third data table TBL3. For example, as shown in FIG. 10, the third storage unit 304c stores the person feature amount extracted by the third feature amount extraction unit 305c from the images captured by the camera 401c and the camera 402c for each camera with date and time. Stored in association with the index.

次に、センターシステム10が記憶する総合データテーブルSTBLについて説明する。
図11は、本実施形態による総合データテーブルSTBLを示す図である。
記憶部106(人物特徴量蓄積部)は、第一特徴量抽出部305a、第二特徴量抽出部305b、及び、第三特徴量抽出部305cのそれぞれが抽出した人物特徴量を総合データテーブルSTBLに記憶する。例えば、記憶部106は、第一データテーブルTBL1、第二データテーブルTBL2、及び、第三データテーブルTBL3を1つのデータテーブルにまとめた、図11に示すような総合データテーブルSTBLを記憶する。
Next, the integrated data table STBL stored by the center system 10 will be described.
FIG. 11 is a diagram showing the integrated data table STBL according to this embodiment.
The storage unit 106 (person feature amount accumulation unit) stores the person feature amounts extracted by the first feature amount extraction unit 305a, the second feature amount extraction unit 305b, and the third feature amount extraction unit 305c in the general data table STBL. memorize to For example, the storage unit 106 stores a comprehensive data table STBL as shown in FIG. 11, in which the first data table TBL1, the second data table TBL2, and the third data table TBL3 are combined into one data table.

図12及び図13は、本実施形態による画像処理システム1の処理フローを示す図である。
次に、本実施形態による画像処理システム1の処理について説明する。
ここでは、画像処理システム1が、同系列の複数店舗において不審人物を監視する場合の処理について説明する。第一エッジ装置30a及び第一カメラ装置40aは、第一店舗Aに配置されているものとする。第二エッジ装置30b及び第二カメラ装置40bは、第二店舗Bに配置されているものとする。第三エッジ装置30c及び第三カメラ装置40cは、第三店舗Cに配置されているものとする。また、以下の説明では第一店舗Aの従業員がユーザであり、人物特徴量が顔である場合を例に説明する。
なお、第一エッジ装置30a、第二エッジ装置30b、及び第三エッジ装置30cのそれぞれは独立して情報処理を行うが動作としては同様である為、図12及び図13に示す処理フローでは、エッジ装置30と記載する。
12 and 13 are diagrams showing the processing flow of the image processing system 1 according to this embodiment.
Next, processing of the image processing system 1 according to this embodiment will be described.
Here, the processing when the image processing system 1 monitors a suspicious person at a plurality of shops of the same series will be described. It is assumed that the first edge device 30a and the first camera device 40a are arranged in the first store A. It is assumed that the second edge device 30b and the second camera device 40b are arranged in the second store B. As shown in FIG. It is assumed that the third edge device 30c and the third camera device 40c are arranged at the third store C. Further, in the following description, an example will be described in which the employee of the first store A is the user and the person feature amount is the face.
Although the first edge device 30a, the second edge device 30b, and the third edge device 30c each perform information processing independently, the operation is the same. Therefore, in the processing flow shown in FIGS. It is described as an edge device 30 .

まず、図12の処理フローに示す本実施形態による画像処理システム1が行う人物特徴量の抽出処理について説明する。
ユーザは、顔を抽出させる同系列の複数店舗に設置されたカメラを選択するカメラ選択情報入力操作を入力装置20に対して行う。
情報入力部202は、ユーザによるカメラ選択情報入力操作に応じたカメラ選択情報を入力する(ステップS1)。なお、カメラ選択情報は、第一店舗Aに設置されたカメラ、第二店舗Bに設置されたカメラ、及び、第三店舗Cに設置されたカメラのすべてを選択することを示すカメラ選択情報である。第一店舗Aに設置されたカメラは、カメラ401a、カメラ402a、及び、カメラ403aである。第二店舗Bに設置されたカメラは、カメラ401b、カメラ402b、及び、カメラ403bである。第三店舗Cに設置されたカメラは、カメラ401c、及び、カメラ402cである。
そして、情報入力部202は、顔の抽出を開始するか否かを判定する(ステップS2)。情報入力部202は、顔の抽出を開始する開始指示を入力する開始指示入力操作を検出しない場合には、ステップS2の処理に戻す。
First, the process of extracting a person feature amount performed by the image processing system 1 according to the present embodiment shown in the process flow of FIG. 12 will be described.
The user performs a camera selection information input operation on the input device 20 to select cameras installed in a plurality of stores of the same series from which faces are to be extracted.
The information input unit 202 inputs camera selection information according to a camera selection information input operation by the user (step S1). The camera selection information is camera selection information indicating that all of the cameras installed in the first store A, the cameras installed in the second store B, and the cameras installed in the third store C are to be selected. be. The cameras installed in the first store A are a camera 401a, a camera 402a, and a camera 403a. The cameras installed in the second store B are a camera 401b, a camera 402b, and a camera 403b. The cameras installed at the third store C are a camera 401c and a camera 402c.
Then, the information input unit 202 determines whether or not to start extracting the face (step S2). If the information input unit 202 does not detect a start instruction input operation for inputting a start instruction for starting face extraction, the information input unit 202 returns to the process of step S2.

ユーザは、顔の抽出を開始する開始指示を入力する開始指示入力操作を入力装置20に対して行う。
情報入力部202は、ユーザによる開始指示入力操作を検出し(ステップS2、YES)、カメラ選択情報をセンターシステム10に送信する(ステップS3)。
The user performs a start instruction input operation on the input device 20 to input a start instruction for starting face extraction.
The information input unit 202 detects a start instruction input operation by the user (step S2, YES), and transmits camera selection information to the center system 10 (step S3).

カメラ選択部105は、カメラ選択情報を受信するか否かを判定する(ステップS4)。カメラ選択部105は、カメラ選択情報を受信しない場合には、ステップS4の処理に戻す。
カメラ選択部105は、入力装置20からカメラ選択情報を受信すると(ステップS4、YES)、受信したカメラ選択情報に基づいて、エッジ装置を特定する(ステップS5)。具体的には、カメラ選択部105は、カメラ選択情報に含まれるカメラ401a、カメラ402a、及び、カメラ403aに対応する第一エッジ装置30a、カメラ401b、カメラ402b、及び、カメラ403bに対応する第二エッジ装置30b、カメラ401c、及び、カメラ402cに対応する第三エッジ装置30cを特定する。例えば、カメラ選択部105は、この特定をカメラとエッジ装置との対応関係を示すデータテーブルのカメラと、受信したカメラ選択情報に含まれるカメラとを順に比較し、一致するカメラを特定する。カメラ選択部105は、一致するカメラに対応するエッジ装置を選択したエッジ装置と特定する。
The camera selection unit 105 determines whether or not to receive camera selection information (step S4). When the camera selection information is not received, the camera selection unit 105 returns to the process of step S4.
When camera selection information is received from the input device 20 (step S4, YES), the camera selection unit 105 identifies an edge device based on the received camera selection information (step S5). Specifically, the camera selection unit 105 selects the first edge device 30a corresponding to the camera 401a, the camera 402a, and the camera 403a included in the camera selection information, and the second edge device 30a corresponding to the camera 401b, the camera 402b, and the camera 403b. Identify the second edge device 30b, the camera 401c, and the third edge device 30c corresponding to the camera 402c. For example, the camera selection unit 105 sequentially compares the cameras in the data table indicating the correspondence between cameras and edge devices and the cameras included in the received camera selection information, and identifies the matching cameras. The camera selection unit 105 identifies the edge device corresponding to the matching camera as the selected edge device.

カメラ選択部105は、特定した第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれにカメラ選択情報と、人物特徴量の抽出の開始を指示する特徴量抽出開始指示とを送信する(ステップS6)。 The camera selection unit 105 supplies camera selection information to each of the specified first edge device 30a, second edge device 30b, and third edge device 30c, and a feature amount extraction start instruction for instructing the start of extraction of a person feature amount. is transmitted (step S6).

第一映像受信部306aは、人物特徴量抽出開始指示を受信したか否かを判定し(ステップS7)、その判定結果に基づいて人物特徴量抽出を開始するか否かを判定する。 The first video image receiving unit 306a determines whether or not an instruction to start extracting a person's feature quantity has been received (step S7), and based on the determination result, determines whether to start extracting a person's feature quantity.

第一映像受信部306aは、人物特徴量抽出開始指示を受信しないと判定した場合(ステップS7、NO)、人物特徴量抽出を開始しないと判定する。この場合、第一映像受信部306aは、カメラ401a、カメラ402a、及び、カメラ403aのそれぞれからカメラ映像を受信し(ステップS8)、受信したカメラ映像を第一記憶部304aに記録する(ステップS9)。 When the first image receiving unit 306a determines that the human feature amount extraction start instruction is not received (step S7, NO), the first video image receiving unit 306a determines not to start the human feature amount extraction. In this case, the first image receiving unit 306a receives camera images from each of the camera 401a, the camera 402a, and the camera 403a (step S8), and records the received camera images in the first storage unit 304a (step S9). ).

また、第一映像受信部306aは、人物特徴量抽出開始指示を受信したと判定した場合(ステップS7、YES)、人物特徴量抽出を開始すると判定する。この場合、第一映像受信部306aは、カメラ選択情報が示すカメラ401a、カメラ402a、及び、カメラ403aのそれぞれからカメラ映像を受信する(ステップS10)。
第一特徴量抽出部305aは、第一映像受信部306aが受信したそれぞれのカメラ映像から顔を抽出する(ステップS11)。第一特徴量抽出部305aは、抽出した顔に対してインデックスを生成する(ステップS12)。第一特徴量抽出部305aは、抽出した顔と共に生成したインデックスをセンターシステム10に送信する(ステップS13)。
また、第一特徴量抽出部305aは、抽出した顔の顔情報と共に生成したインデックスを第一記憶部304aの第一データテーブルTBL1に記録する(ステップS14)。また、第一特徴量抽出部305aは、それぞれのカメラ映像に生成したインデックスを付与し(ステップS15)、それぞれのカメラ映像を第一記憶部304aに記録する(ステップS16)。
If the first video image receiving unit 306a determines that it has received a person feature amount extraction start instruction (step S7, YES), it determines to start person feature amount extraction. In this case, the first image receiving unit 306a receives camera images from each of the cameras 401a, 402a, and 403a indicated by the camera selection information (step S10).
The first feature amount extraction unit 305a extracts a face from each camera image received by the first image reception unit 306a (step S11). The first feature amount extraction unit 305a generates an index for the extracted face (step S12). The first feature amount extraction unit 305a transmits the extracted face and the generated index to the center system 10 (step S13).
Also, the first feature amount extraction unit 305a records the generated index together with the face information of the extracted face in the first data table TBL1 of the first storage unit 304a (step S14). Also, the first feature amount extraction unit 305a assigns the generated index to each camera image (step S15), and records each camera image in the first storage unit 304a (step S16).

第二映像受信部306bは、第一映像受信部306aと同様に、人物特徴量抽出開始指示を受信したと判定した場合(ステップS7、YES)、人物特徴量抽出を開始すると判定する。この場合、第二映像受信部306bは、カメラ選択情報が示すカメラ401b、カメラ402b、及び、カメラ403bのそれぞれからカメラ映像を受信する(ステップS10)。
第二特徴量抽出部305bは、第二映像受信部306bが受信したそれぞれのカメラ映像から顔を抽出する(ステップS11)。第二特徴量抽出部305bは、抽出した顔に対してインデックスを生成する(ステップS12)。第二特徴量抽出部305bは、抽出した顔と共に生成したインデックスをセンターシステム10に送信する(ステップS13)。
また、第二特徴量抽出部305bは、抽出した顔の顔情報と共に生成したインデックスを第二記憶部304bの第二データテーブルTBL2に記録する(ステップS14)。また、第二特徴量抽出部305bは、それぞれのカメラ映像に生成したインデックスを付与し(ステップS15)、それぞれのカメラ映像を第二記憶部304bに記録する(ステップS16)。
Similarly to the first image receiving unit 306a, the second image receiving unit 306b determines to start extracting the person feature amount when determining that the human feature amount extraction start instruction has been received (step S7, YES). In this case, the second image receiving unit 306b receives camera images from each of the cameras 401b, 402b, and 403b indicated by the camera selection information (step S10).
The second feature amount extraction unit 305b extracts faces from the respective camera images received by the second image reception unit 306b (step S11). The second feature amount extraction unit 305b generates an index for the extracted face (step S12). The second feature amount extraction unit 305b transmits the extracted face and the generated index to the center system 10 (step S13).
The second feature amount extraction unit 305b also records the generated index together with the face information of the extracted face in the second data table TBL2 of the second storage unit 304b (step S14). The second feature amount extraction unit 305b also assigns the generated index to each camera image (step S15), and records each camera image in the second storage unit 304b (step S16).

第三映像受信部306cは、第一映像受信部306aと同様に、人物特徴量抽出開始指示を受信したと判定した場合(ステップS7、YES)、人物特徴量抽出を開始すると判定する。この場合、第三映像受信部306cは、カメラ選択情報が示すカメラ401c、及び、カメラ402cのそれぞれからカメラ映像を受信する(ステップS10)。
第三特徴量抽出部305cは、第三映像受信部306cが受信したそれぞれのカメラ映像から顔を抽出する(ステップS11)。第三特徴量抽出部305cは、抽出した顔に対してインデックスを生成する(ステップS12)。第三特徴量抽出部305cは、抽出した顔と共に生成したインデックスをセンターシステム10に送信する(ステップS13)。
また、第三特徴量抽出部305cは、抽出した顔の顔情報と共に生成したインデックスを第三記憶部304cの第三データテーブルTBL3に記録する(ステップS14)。また、第三特徴量抽出部305cは、それぞれのカメラ映像に生成したインデックスを付与し(ステップS15)、それぞれのカメラ映像を第三記憶部304cに記録する(ステップS16)。
Similarly to the first image receiving unit 306a, the third image receiving unit 306c determines to start extracting the person feature amount when determining that the human feature amount extraction start instruction has been received (step S7, YES). In this case, the third image receiving unit 306c receives camera images from each of the camera 401c and the camera 402c indicated by the camera selection information (step S10).
The third feature amount extraction unit 305c extracts faces from each camera image received by the third image reception unit 306c (step S11). The third feature quantity extraction unit 305c generates an index for the extracted face (step S12). The third feature amount extraction unit 305c transmits the extracted face and the generated index to the center system 10 (step S13).
Also, the third feature quantity extraction unit 305c records the face information of the extracted face and the generated index in the third data table TBL3 of the third storage unit 304c (step S14). Also, the third feature amount extraction unit 305c assigns the generated index to each camera image (step S15), and records each camera image in the third storage unit 304c (step S16).

出現状態判定部101は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれから顔情報とインデックスを受信すると(ステップS17)、受信した顔情報とインデックスを関連付けて記憶部106の総合データテーブルSTBLに記録する(ステップS18)。
なお、このとき、センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれからカメラ映像を受信せず、顔情報(人物特徴量)とインデックスのみを受信することで、通信データ量を削減することができる。ただし、センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれから顔情報(人物特徴量)とインデックスと共にカメラ映像を受信してもよい。また、センターシステム10は、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれから受信したカメラ映像を記憶部に記録してもよい。
When the appearance state determination unit 101 receives the face information and the index from each of the first edge device 30a, the second edge device 30b, and the third edge device 30c (step S17), it associates the received face information with the index. It is recorded in the comprehensive data table STBL of the storage unit 106 (step S18).
At this time, the center system 10 does not receive the camera images from the first edge device 30a, the second edge device 30b, and the third edge device 30c, and receives only the face information (human feature amount) and the index. The amount of communication data can be reduced by receiving. However, the center system 10 may receive camera images together with face information (human feature amounts) and indexes from each of the first edge device 30a, the second edge device 30b, and the third edge device 30c. Also, the center system 10 may record camera images received from each of the first edge device 30a, the second edge device 30b, and the third edge device 30c in the storage unit.

その後、ユーザは、人物特徴量の抽出を終了する終了指示を入力する終了指示入力操作を行う。
情報入力部202は、ユーザによる終了指示入力操作に基づいて、終了指示を入力する(ステップS19)。情報入力部202は、終了指示をセンターシステム10に送信する(ステップS20)。
After that, the user performs an end instruction input operation for inputting an end instruction to end the extraction of the person feature amount.
The information input unit 202 inputs an end instruction based on the end instruction input operation by the user (step S19). The information input unit 202 transmits an end instruction to the center system 10 (step S20).

出現状態判定部101は、人物特徴量の抽出を終了するか否かを常時判定している(ステップS21)。
出現状態判定部101は、入力装置20から終了指示を受信しない場合(ステップS21、NO)、ステップS17の処理に戻す。
また、出現状態判定部101は、入力装置20から終了指示を受信した場合(ステップS21、YES)、人物特徴量の抽出の終了を示す特徴量抽出終了指示を第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれに送信する(ステップS22)。
The appearance state determination unit 101 constantly determines whether or not to end the extraction of the person feature amount (step S21).
If the appearance state determination unit 101 does not receive an end instruction from the input device 20 (step S21, NO), the process returns to step S17.
Further, when the appearance state determination unit 101 receives an end instruction from the input device 20 (step S21, YES), the appearance state determination unit 101 outputs a feature amount extraction end instruction indicating the end of extraction of the person feature amount to the first edge device 30a, the second edge device 30a, and the second edge device 30a. It is transmitted to each of the device 30b and the third edge device 30c (step S22).

第一特徴量抽出部305aは、センターシステム10から特徴量抽出終了指示を受信したか否かを判定し(ステップS23)、その判定結果に基づいてカメラ映像における顔の抽出を終了するか否かを判定する。 The first feature amount extraction unit 305a determines whether or not a feature amount extraction end instruction has been received from the center system 10 (step S23), and based on the determination result, determines whether to end extraction of the face in the camera image. judge.

第一特徴量抽出部305aは、特徴量抽出終了指示を受信しないと判定した場合(ステップS23、NO)、カメラ映像における顔の抽出を終了しないと判定する。この場合、第一特徴量抽出部305aは、ステップS10の処理に戻す。 When the first feature amount extraction unit 305a determines that the feature amount extraction end instruction has not been received (step S23, NO), the first feature amount extraction unit 305a determines not to end extraction of the face in the camera image. In this case, the first feature amount extraction unit 305a returns to the process of step S10.

また、第一映像受信部306aは、特徴量抽出終了指示を受信したと判定した場合(ステップS23、YES)、カメラ映像における顔の抽出を終了すると判定する。この場合、第一映像受信部306aは、ステップS8の処理に戻す。
以上が本実施形態による画像処理システム1の行う人物特徴量の抽出処理である。
Further, when the first image receiving unit 306a determines that the feature amount extraction end instruction has been received (step S23, YES), the first image receiving unit 306a determines to end extraction of the face in the camera image. In this case, the first image receiving unit 306a returns to the process of step S8.
The above is the extraction processing of the person feature amount performed by the image processing system 1 according to the present embodiment.

次に、図13の処理フローに示す本実施形態による画像処理システム1が行う所定人物候補を推定する処理について説明する。
人物特徴量の抽出処理の後、入力装置20を操作したユーザ、または、不審者を特定する別のユーザ(例えば、警察官など)は、不審人物の抽出の開始を指示する不審人物抽出開始指示を入力する不審人物抽出開始指示入力操作をセンターシステム10に対して直接または遠隔に設置されて通信によって接続された装置を介して行う。
Next, the process of estimating a predetermined person candidate performed by the image processing system 1 according to the present embodiment shown in the process flow of FIG. 13 will be described.
After the process of extracting the person feature amount, the user who has operated the input device 20 or another user who identifies the suspicious person (for example, a police officer) issues a suspicious person extraction start instruction to start extracting the suspicious person. through a device installed directly or remotely to the center system 10 and connected by communication.

記憶部106は、条件入力部107を介して入力された不審人物と判定する人物候補判定条件を予め記憶している。例えば、不審人物と判定する人物候補判定条件とは、同じ日に同じ店舗に何度も出入りしている、同じ日に同じ店舗に長時間店舗にいるが商品を購入しない、同じ日に同系列の複数店舗に何度も出入りしている、同じ日に同系列の複数店舗に長時間店舗にいるが商品を購入しない、複数日にわたり頻繁に同系列の複数店舗に来店するが商品を購入しないなどの万引きする可能性のある人物を特定する条件である。また、不審人物と判定する人物候補判定条件とは、同じ日に同じ店舗に何度も出入りして何度も商品を購入している、同じ日に同系列の複数店舗に何度も出入りして何度も商品を購入している、及び、複数日にわたり頻繁に各店舗に来店し何度も商品を購入しているなどに基づいて決定される、人物の出現回数及び人物の出現時間などの大量購入する可能性のある人物を特定する条件である。 The storage unit 106 stores in advance a person candidate determination condition for determining a suspicious person input via the condition input unit 107 . For example, the conditions for judging a candidate to be a suspicious person include: visiting the same store many times on the same day, staying at the same store for a long time on the same day but not purchasing products, visits multiple stores of the same chain many times, spends a long time at multiple stores of the same chain on the same day but does not purchase products, frequently visits multiple stores of the same chain over multiple days but does not purchase products It is a condition for specifying a person who may shoplift. In addition, the criteria for judging a person candidate as a suspicious person are: the person who has visited the same store many times on the same day and has purchased products many times; The number of appearances of a person and the appearance time of a person, etc., determined based on the number of times a person appears and the time at which a person appears, etc. It is a condition that identifies a person who is likely to purchase a large amount of

所定人物候補推定部102は、不審人物抽出開始指示を入力すると(ステップS31)、記憶部106の記憶するカメラ映像と顔情報とインデックス、及び、出現状態に基づいて、不審人物を特定する(ステップS32)。具体的には、所定人物候補推定部102は、記憶部106が記憶する総合データテーブルSTBLにおける顔情報(特徴量)毎にデータを並べ替えて、各顔情報の出現回数、各顔情報の出現挿時間などを特定し、人物候補判定条件を満たした場合にその顔情報に対応する人物が不審人物であると特定する。なお、所定人物候補推定部102は、レジスターの位置に配置されたカメラのカメラ映像において顔が抽出された場合に、その顔の人物が商品を購入したと判定する。また、所定人物候補推定部102は、レジスターの位置に配置されたカメラのカメラ映像において顔が抽出されない場合に、その顔の人物が商品を購入しなかったと判定する。また、所定人物候補推定部102は、店舗の出入り口に配置されたカメラのカメラ映像において顔が抽出された回数に応じて、その顔の人物の出現回数をカウントする。
所定人物候補推定部102は、特定した不審人物についての不審人物特定結果であるカメラ映像とインデックスとを記憶部106に記録する(ステップS33)。
以上が本実施形態による画像処理システム1の行う所定人物候補を推定する処理である。
所定人物候補推定部102は、不審人物を特定した場合に、その不審人物の特徴量が抽出されたカメラ映像に基づいて、不審人物の顔、身長、性別、服装、持ち物など不審人物の容姿がわかるカメラ映像のデータを入力装置20に送信してもよい。この場合、表示制御部203は、センターシステム10から不審人物の容姿がわかるカメラ映像のデータを表示部に表示させることで、ユーザは不審人物を確認することができる。また、所定人物候補推定部102は、不審人物の容姿がわかるカメラ映像のデータを警視庁などに提供してもよい。この場合、犯罪の防止に役立てることができる。
When a suspicious person extraction start instruction is input (step S31), the predetermined person candidate estimation unit 102 identifies a suspicious person based on the camera image, face information, index, and appearance state stored in the storage unit 106 (step S31). S32). Specifically, predetermined person candidate estimating section 102 rearranges the data for each face information (feature amount) in general data table STBL stored in storage section 106 to determine the number of appearances of each piece of face information and the number of appearances of each piece of face information. The interpolated time and the like are specified, and when the person candidate determination condition is satisfied, the person corresponding to the face information is specified as a suspicious person. If a face is extracted from the camera image of the camera placed at the cash register, the predetermined person candidate estimation unit 102 determines that the person with that face has purchased the product. Further, when the face is not extracted in the camera image of the camera placed at the register position, the predetermined person candidate estimation unit 102 determines that the person with that face did not purchase the product. Further, the predetermined person candidate estimating unit 102 counts the number of appearances of the person with the face according to the number of times the face is extracted in the camera image of the camera arranged at the entrance of the store.
The predetermined person candidate estimating unit 102 records the camera image and the index, which are the suspicious person identification results for the identified suspicious person, in the storage unit 106 (step S33).
The above is the process of estimating the predetermined person candidate performed by the image processing system 1 according to the present embodiment.
When a suspicious person is identified, the predetermined person candidate estimating unit 102 determines the appearance of the suspicious person, such as the face, height, gender, clothing, and belongings of the suspicious person, based on the camera image from which the feature amount of the suspicious person is extracted. You may transmit the data of the camera image|video which can be understood to the input device 20. FIG. In this case, the display control unit 203 causes the display unit to display camera image data that shows the appearance of the suspicious person from the center system 10, so that the user can confirm the suspicious person. Further, the predetermined person candidate estimation unit 102 may provide the Metropolitan Police Department or the like with camera image data showing the appearance of the suspicious person. In this case, it can be used for crime prevention.

以上、本発明の第一の実施形態による画像処理システム1について説明した。上述の画像処理システム1の画像処理装置100において、出現状態判定部101は、撮影された映像における人物の出現状態を判定する。所定人物候補推定部102は、出現状態判定部101が判定した出現状態に基づいて所定人物候補を推定する。
こうすることで、不審人物などの指定した条件に基づく人物候補を特定することができる。
The image processing system 1 according to the first embodiment of the present invention has been described above. In the image processing apparatus 100 of the image processing system 1 described above, the appearance state determination unit 101 determines the appearance state of a person in the captured video. The predetermined person candidate estimation unit 102 estimates a predetermined person candidate based on the appearance state determined by the appearance state determination unit 101 .
By doing so, it is possible to identify a person candidate based on specified conditions such as a suspicious person.

<第二の実施形態>
次に、本発明の第二の実施形態による画像処理装置100を備える画像処理システム1について説明する。
本実施形態による画像処理システム1は、図2に示した画像処理システム1と同様に、センターシステム10と、入力装置20と、第一エッジ装置30aと、第二エッジ装置30bと、第三エッジ装置30cと、第一カメラ装置40aと、第二カメラ装置40bと、第三カメラ装置40cと、を備える。
なお、本実施形態による画像処理システム1と第一の実施形態による画像処理システム1との違いは、入力装置20である。
<Second embodiment>
Next, an image processing system 1 including an image processing apparatus 100 according to a second embodiment of the invention will be described.
Similar to the image processing system 1 shown in FIG. 2, the image processing system 1 according to this embodiment includes a center system 10, an input device 20, a first edge device 30a, a second edge device 30b, a third edge device It comprises a device 30c, a first camera device 40a, a second camera device 40b, and a third camera device 40c.
The difference between the image processing system 1 according to this embodiment and the image processing system 1 according to the first embodiment is the input device 20 .

図14は、本実施形態による入力装置20の構成を示す図である。
次に、本実施形態による入力装置20の構成について説明する。
本実施形態による入力装置20は、図14に示すように、図4に示した通信部201と、情報入力部202と、表示制御部203と、に加えて、更に位置特定部204と、カメラ選択情報生成部205と、を備える。
FIG. 14 is a diagram showing the configuration of the input device 20 according to this embodiment.
Next, the configuration of the input device 20 according to this embodiment will be described.
As shown in FIG. 14, the input device 20 according to this embodiment includes the communication unit 201, the information input unit 202, and the display control unit 203 shown in FIG. and a selection information generation unit 205 .

位置特定部204は、入力装置20の位置を特定する。通信部201は、センターシステム10と情報の送受信を行う。
カメラ選択情報生成部205は、位置特定部204が特定した入力装置20の位置に基づいて、撮影された映像における人物の出現状態を撮影するカメラを特定するカメラ選択情報を生成する。例えば、カメラ選択情報生成部205は、位置特定部204が特定した入力装置20の位置を中心に1キロメートル以内に設置されたカメラ、入力装置20の位置から最も近くに設置されているカメラなど所定条件のカメラを選択するカメラ選択情報を生成する。
The position specifying unit 204 specifies the position of the input device 20 . A communication unit 201 transmits and receives information to and from the center system 10 .
Based on the position of the input device 20 specified by the position specifying unit 204, the camera selection information generating unit 205 generates camera selection information for specifying a camera that captures the appearance state of the person in the captured image. For example, the camera selection information generation unit 205 selects a camera installed within 1 km centering on the position of the input device 20 specified by the position specifying unit 204, a camera installed closest to the position of the input device 20, or the like. Generate camera selection information for selecting a camera for the conditions.

次に、本実施形態による画像処理システム1の処理について説明する。
ここでは、画像処理システム1が、ストーカーを監視する場合の処理について説明する。本実施形態ではストーカー被害にあっている人物がユーザである。
なお、本実施形態による画像処理システム1の処理フローは、図12及び図13で示した第一の実施形態による画像処理システム1の処理フローのうちステップS1とステップS3の処理が異なる以外は同様である。
Next, processing of the image processing system 1 according to this embodiment will be described.
Here, processing when the image processing system 1 monitors a stalker will be described. In this embodiment, the user is a person who is being stalked.
The processing flow of the image processing system 1 according to this embodiment is the same as that of the image processing system 1 according to the first embodiment shown in FIGS. is.

ステップS1のカメラ選択情報を入力する処理を行わず、情報入力部202は、ステップS2の顔の抽出を開始するか否かを判定する。情報入力部202は、顔の抽出を開始する開始指示を入力する開始指示入力操作を検出しない場合には、ステップS2の処理に戻す。情報入力部202は、開始指示入力操作を検出した場合には、ステップS3の処理に代わって、位置特定部204は、入力装置20を携帯するユーザが移動中に、所定の時間間隔で入力装置20の位置を特定する。例えば、位置特定部204は、GPS(Global Positioning System)の機能を用いて入力装置20の位置を特定する。位置特定部204は、特定した入力装置20の位置を所定の時間間隔でカメラ選択情報生成部205に出力する。カメラ選択情報生成部205は、位置特定部204から入力した入力装置20の位置に基づいて、カメラ選択情報を生成する。カメラ選択情報生成部205は、生成したカメラ選択情報をセンターシステム10に送信する。 Without performing the process of inputting camera selection information in step S1, the information input unit 202 determines whether or not to start face extraction in step S2. If the information input unit 202 does not detect a start instruction input operation for inputting a start instruction for starting face extraction, the information input unit 202 returns to the process of step S2. When the information input unit 202 detects the start instruction input operation, instead of the process of step S3, the position specifying unit 204 causes the input device 20 to be input at predetermined time intervals while the user carrying the input device 20 is moving. 20 are identified. For example, the position specifying unit 204 specifies the position of the input device 20 using a GPS (Global Positioning System) function. The position specifying unit 204 outputs the specified position of the input device 20 to the camera selection information generating unit 205 at predetermined time intervals. The camera selection information generation unit 205 generates camera selection information based on the position of the input device 20 input from the position identification unit 204 . The camera selection information generation unit 205 transmits the generated camera selection information to the center system 10 .

カメラ選択部105がステップS4の処理でカメラ選択情報を受信すると判定する度に、ステップS5以降の処理を行えばよい。 Each time the camera selection unit 105 determines in the process of step S4 that camera selection information has been received, the process of step S5 and subsequent steps may be performed.

なお、画像処理装置100の記憶部106が入力装置20の位置を中心に1キロメートル以内に設置されたカメラ、入力装置20の位置から最も近くに設置されているカメラなど所定条件を記憶している場合には、入力装置20は、カメラ選択情報生成部205を備えず、位置特定部204が特定した入力装置20の位置を送信してよい。また、GPSからセンターシステム10が直接入力装置20の位置を取得するものであってもよい。これらの場合、画像処理装置100のカメラ選択部105は、取得した入力装置20の位置と記憶部106が記憶する所定条件とに基づいてエッジ装置を特定すればよい。 Note that the storage unit 106 of the image processing apparatus 100 stores predetermined conditions such as a camera installed within 1 km from the position of the input device 20 and a camera installed closest to the position of the input device 20. In this case, the input device 20 may not include the camera selection information generation unit 205 and may transmit the position of the input device 20 specified by the position specifying unit 204 . Alternatively, the center system 10 may acquire the position of the input device 20 directly from GPS. In these cases, the camera selection unit 105 of the image processing apparatus 100 may specify the edge device based on the acquired position of the input device 20 and the predetermined condition stored in the storage unit 106 .

以上、本発明の第二の実施形態による画像処理システム1について説明した。上述の画像処理システム1の画像処理装置100において、出現状態判定部101は、人物候補判定条件に基づいて、撮影された映像における人物の出現状態を判定する。所定人物候補推定部102は、出現状態判定部101が判定した出現状態に基づいて所定人物候補を推定する。
こうすることで、不審人物などの指定した条件に基づく人物候補を特定することができる。
The image processing system 1 according to the second embodiment of the present invention has been described above. In the image processing apparatus 100 of the image processing system 1 described above, the appearance state determination unit 101 determines the appearance state of the person in the captured image based on the person candidate determination condition. The predetermined person candidate estimation unit 102 estimates a predetermined person candidate based on the appearance state determined by the appearance state determination unit 101 .
By doing so, it is possible to identify a person candidate based on specified conditions such as a suspicious person.

また、位置特定部204は、入力装置20を携帯するユーザが移動中に、所定の時間間隔で入力装置20の位置を特定する。位置特定部204は、特定した入力装置20の位置を所定の時間間隔でカメラ選択情報生成部205に出力する。カメラ選択情報生成部205は、位置特定部204から入力した入力装置20の位置に基づいて、カメラ選択情報を生成する。カメラ選択情報生成部205は、生成したカメラ選択情報をセンターシステム10に送信する。カメラ選択部105がカメラ選択情報生成部205が生成したカメラ選択情報を受信すると判定する度にステップS5以降の処理を行う。
こうすることで、ストーカーを監視するような撮影された映像における人物の出現状態を撮影するカメラを時々刻々と変更する必要がある場合にも対応することができる。
Further, the position specifying unit 204 specifies the position of the input device 20 at predetermined time intervals while the user carrying the input device 20 is moving. The position specifying unit 204 outputs the specified position of the input device 20 to the camera selection information generating unit 205 at predetermined time intervals. The camera selection information generation unit 205 generates camera selection information based on the position of the input device 20 input from the position identification unit 204 . The camera selection information generation unit 205 transmits the generated camera selection information to the center system 10 . Each time the camera selection unit 105 determines that the camera selection information generated by the camera selection information generation unit 205 is received, the processing from step S5 onward is performed.
By doing so, it is possible to cope with the case where it is necessary to change the camera that captures the appearance state of the person in the captured video, such as monitoring a stalker, from time to time.

なお、本発明の実施形態において、情報の送受信が適切に行われる限り、画像処理装置100が備える各機能部の一部またはすべてが、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに備えられていてよい。また、画像処理装置100が備える各機能部の一部またはすべてが、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに分散されて備えられていてもよい。 In the embodiment of the present invention, as long as information is properly transmitted and received, some or all of the functional units included in the image processing device 100 are the first edge device 30a, the second edge device 30b, and the third edge device. It may be provided in any of the devices 30c, . . . nth edge device 30n. Also, some or all of the functional units included in the image processing apparatus 100 are in any of the first edge device 30a, second edge device 30b, third edge device 30c, . . . nth edge device 30n. It may be distributed and provided.

なお、本発明の実施形態において、情報の送受信が適切に行われる限り、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nの各機能部の一部またはすべてが、センターシステム10に備えられていてよい。 In the embodiment of the present invention, as long as information is properly transmitted and received, each functional unit of the first edge device 30a, the second edge device 30b, the third edge device 30c, . . . A part or all of them may be provided in the center system 10 .

なお、本発明の実施形態において、入力装置20を任意の固定した箇所に設置してもよい場合(例えば、第一の実施形態のように入力装置20の位置が撮影するカメラの位置と無関係な場合)、情報の送受信が適切に行われる限り、入力装置20の各機能部の一部またはすべてが、センターシステム10に備えられていてよい。また、本発明の実施形態において、入力装置20を任意の固定した箇所に設置してもよい場合、情報の送受信が適切に行われる限り、入力装置20の各機能部の一部またはすべてが、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに備えられていてよい。また、本発明の実施形態において、入力装置20を任意の固定した箇所に設置してもよい場合、情報の送受信が適切に行われる限り、入力装置20の各機能部の一部またはすべてが、センターシステム10、第一エッジ装置30a、第二エッジ装置30b、第三エッジ装置30c、・・・第nエッジ装置30nのうちの何れかに分散されて備えられていてもよい。 In the embodiment of the present invention, when the input device 20 may be installed at an arbitrary fixed location (for example, as in the first embodiment, the position of the input device 20 is irrelevant to the position of the camera that shoots). case), some or all of the functional units of the input device 20 may be provided in the center system 10 as long as information is properly transmitted and received. In addition, in the embodiment of the present invention, when the input device 20 may be installed at any fixed location, as long as information is properly transmitted and received, some or all of the functional units of the input device 20 are It may be provided in any one of the first edge device 30a, the second edge device 30b, the third edge device 30c, . . . the nth edge device 30n. In addition, in the embodiment of the present invention, when the input device 20 may be installed at any fixed location, as long as information is properly transmitted and received, some or all of the functional units of the input device 20 are It may be distributed to any one of the center system 10, the first edge device 30a, the second edge device 30b, the third edge device 30c, . . . and the nth edge device 30n.

なお、本発明の実施形態において、情報の送受信が適切に行われる限り、第一特徴量抽出部305a、第二特徴量抽出部305b、第三特徴量抽出部305c、・・・第n特徴量抽出部305nのうちの1つ以上を画像処理装置100が備えるものであってよい。 In the embodiment of the present invention, as long as information is properly transmitted and received, the first feature quantity extraction unit 305a, the second feature quantity extraction unit 305b, the third feature quantity extraction unit 305c, . The image processing apparatus 100 may include one or more of the extraction units 305n.

なお、本発明における記憶部106、第一記憶部304a、第二記憶部304b、及び、第三記憶部304cのそれぞれは、適切な情報の送受信が行われる範囲においてどこに備えられていてもよい。また、記憶部106、第一記憶部304a、第二記憶部304b、及び、第三記憶部304cのそれぞれは、適切な情報の送受信が行われる範囲において複数存在しデータを分散して記憶していてもよい。 Note that each of the storage unit 106, the first storage unit 304a, the second storage unit 304b, and the third storage unit 304c in the present invention may be provided anywhere as long as appropriate information transmission/reception is performed. Further, each of the storage unit 106, the first storage unit 304a, the second storage unit 304b, and the third storage unit 304c exists in a plurality within a range where appropriate information transmission/reception is performed, and stores data in a distributed manner. may

なお本発明の実施形態における処理フローは、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。 In the processing flow according to the embodiment of the present invention, the order of processing may be changed as long as appropriate processing is performed.

なお本発明の実施形態について説明したが、上述の画像処理装置100、入力装置20、第一エッジ装置30a、第二エッジ装置30b、及び、第三エッジ装置30cのそれぞれは内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記憶部に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記憶部とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。 Although the embodiments of the present invention have been described, each of the image processing device 100, the input device 20, the first edge device 30a, the second edge device 30b, and the third edge device 30c has a computer system inside. have. The process of the above-described processing is stored in a computer-readable storage unit in the form of a program, and the above-described processing is performed by reading and executing this program by a computer. Here, the computer-readable storage means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定するものではない。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができるものである。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. Also, various omissions, replacements, and modifications can be made without departing from the scope of the invention.

1・・・画像処理システム
10・・・センターシステム
20・・・入力装置
30a・・・第一エッジ装置
30b・・・第二エッジ装置
30c・・・第三エッジ装置
40a・・・第一カメラ装置
40b・・・第二カメラ装置
40c・・・第三カメラ装置
100・・・画像処理装置
101・・・出現状態判定部
102・・・所定人物候補推定部
103、201・・・通信部
104・・・制御部
105・・・カメラ選択部
106・・・記憶部
107・・・条件入力部
202・・・情報入力部
203・・・表示制御部
204・・・位置特定部
205・・・カメラ選択情報生成部
301a・・・第一通信部
301b・・・第二通信部
301c・・・第三通信部
302a・・・第一制御部
302b・・・第二制御部
302c・・・第三制御部
303a・・・第一カメラ制御部
303b・・・第二カメラ制御部
303c・・・第三カメラ制御部
304a・・・第一記憶部
304b・・・第二記憶部
304c・・・第三記憶部
305a・・・第一特徴量抽出部
305b・・・第二特徴量抽出部
305c・・・第三特徴量抽出部
306a・・・第一映像受信部
306b・・・第二映像受信部
306c・・・第三映像受信部
307a・・・第一カメラインターフェース
307b・・・第二カメラインターフェース
307c・・・第三カメラインターフェース
Reference Signs List 1 Image processing system 10 Center system 20 Input device 30a First edge device 30b Second edge device 30c Third edge device 40a First camera Device 40b...Second camera device 40c...Third camera device 100...Image processing device 101...Appearance state determination unit 102...Predetermined person candidate estimation units 103, 201...Communication unit 104 ... control section 105 ... camera selection section 106 ... storage section 107 ... condition input section 202 ... information input section 203 ... display control section 204 ... position specifying section 205 ... Camera selection information generation unit 301a First communication unit 301b Second communication unit 301c Third communication unit 302a First control unit 302b Second control unit 302c Third Third control unit 303a First camera control unit 303b Second camera control unit 303c Third camera control unit 304a First storage unit 304b Second storage unit 304c Third storage unit 305a First feature amount extraction unit 305b Second feature amount extraction unit 305c Third feature amount extraction unit 306a First image reception unit 306b Second image Receiver 306c... Third video receiver 307a... First camera interface 307b... Second camera interface 307c... Third camera interface

Claims (15)

端末と、前記端末と通信可能な情報処理装置を備えるシステムであって、
前記端末は、
カメラにより撮影された映像に出現する人物が所定の挙動を行った場合に、前記人物を所定人物と判定する判定部と、
前記人物が映る前記映像と、前記人物の情報とを前記情報処理装置に送信する送信部と、を備え、
前記情報処理装置は、
前記人物の情報と、前記映像とを受信する受信部と、
前記人物の情報と、前記映像とを記憶する記憶部と、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信する送信部と、
を備える情報処理システム。
A system comprising a terminal and an information processing device capable of communicating with the terminal,
The terminal is
a determination unit that determines that a person appearing in an image captured by a camera is a predetermined person when the person behaves in a predetermined manner;
a transmission unit configured to transmit the video image of the person and the information of the person to the information processing device;
The information processing device is
a receiving unit that receives the information about the person and the video;
a storage unit that stores the information about the person and the video;
a transmission unit that transmits predetermined information to a terminal different from the terminal when the reception is performed;
An information processing system comprising
前記人物の情報は、人物を特定するための情報である人物特徴量である、
請求項1に記載の情報処理システム。
The information on the person is a person feature amount that is information for specifying a person,
The information processing system according to claim 1.
前記所定の情報は、前記所定人物と判定された前記人物の容姿がわかるデータである、
請求項1または2に記載の情報処理システム。
The predetermined information is data that shows the appearance of the person determined to be the predetermined person,
The information processing system according to claim 1 or 2.
前記所定の情報は、カメラにより撮像されたデータである、請求項1から3のいずれか1項に記載の情報処理システム。 4. The information processing system according to any one of claims 1 to 3, wherein said predetermined information is data captured by a camera. 端末と通信可能な情報処理装置であって、
カメラにより撮影された映像において所定の挙動を行った人物が映る映像と、前記人物の情報とを受信する受信部と、
前記人物の情報と、前記映像とを記憶する記憶部と、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信する送信部と、
を備え、
前記人物は、前記端末において、前記映像において所定の挙動を行った場合に、所定人物だと判定された人物である、
情報処理装置。
An information processing device communicable with a terminal,
a receiving unit that receives an image of a person performing a predetermined behavior in an image captured by a camera and information about the person;
a storage unit that stores the information about the person and the video;
a transmission unit that transmits predetermined information to a terminal different from the terminal when the reception is performed;
with
The person is a person who is determined to be a predetermined person when the terminal performs a predetermined behavior in the video,
Information processing equipment.
前記人物の情報は、人物を特定するための情報である人物特徴量である、
請求項5に記載の情報処理装置。
The information on the person is a person feature amount that is information for specifying a person,
The information processing device according to claim 5 .
前記所定の情報は、前記所定人物と判定された前記人物の容姿がわかるデータである、
請求項5または6に記載の情報処理装置。
The predetermined information is data that shows the appearance of the person determined to be the predetermined person,
The information processing apparatus according to claim 5 or 6.
前記所定の情報は、カメラにより撮像されたデータである、請求項5から7のいずれか1項に記載の情報処理装置。 8. The information processing apparatus according to any one of claims 5 to 7, wherein said predetermined information is data captured by a camera. 前記端末に代えて、前記映像に出現する人物が所定の挙動を行った場合に前記人物を前記所定人物と判定する判定部を備える、
請求項5から8のいずれか1項に記載の情報処理装置。
Instead of the terminal, a determination unit that determines the person as the predetermined person when the person appearing in the video behaves in a predetermined manner,
The information processing apparatus according to any one of claims 5 to 8.
情報処理装置と通信可能な端末であって、
前記端末は、
カメラにより撮影された映像に出現する人物が所定の挙動を行った場合に、前記人物を所定人物と判定する判定部と、
前記人物が映る前記映像と、前記人物の情報とを前記情報処理装置に送信する送信部と、を備え、
前記情報処理装置は、
前記人物の情報と、前記映像とを受信する受信部と、
前記人物の情報と、前記映像とを記憶する記憶部と、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信する送信部と、を備える、
端末。
A terminal capable of communicating with an information processing device,
The terminal is
a determination unit that determines that a person appearing in an image captured by a camera is a predetermined person when the person behaves in a predetermined manner;
a transmission unit configured to transmit the video image of the person and the information of the person to the information processing device;
The information processing device is
a receiving unit that receives the information about the person and the video;
a storage unit that stores the information about the person and the video;
a transmission unit that transmits predetermined information to a terminal different from the terminal when the reception is performed;
terminal.
端末と、前記端末と通信可能な情報処理装置を備えるシステム実行する処理方法であって、
前記端末は、
カメラにより撮影された映像に出現する人物が所定の挙動を行った場合に、前記人物を所定人物と判定し、
前記人物が映る前記映像と、前記人物の情報とを前記情報処理装置に送信し、
前記情報処理装置は、
前記人物の情報と、前記映像とを受信し、
前記人物の情報と、前記映像とを記憶し、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信する、
処理方法。
A processing method executed by a system comprising a terminal and an information processing device capable of communicating with the terminal,
The terminal is
when a person appearing in an image captured by a camera behaves in a predetermined manner, the person is determined to be a predetermined person;
transmitting the video in which the person appears and information about the person to the information processing device;
The information processing device is
receiving the information about the person and the video;
storing the information of the person and the video;
Sending predetermined information to a terminal different from the terminal when the reception is performed;
Processing method.
端末と通信可能な情報処理装置が実行する処理方法であって、
カメラにより撮影された映像において所定の挙動を行った人物が映る映像と、前記人物の情報とを受信することと、
前記人物の情報と、前記映像とを記憶することと、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信することと、
を含み、
前記人物は、前記端末において、前記映像において所定の挙動を行った場合に、所定人物だと判定された人物である、
処理方法。
A processing method executed by an information processing device capable of communicating with a terminal,
Receiving an image of a person performing a predetermined behavior in an image captured by a camera and information about the person;
storing the information of the person and the video;
transmitting predetermined information to a terminal different from the terminal when the reception is performed;
including
The person is a person who is determined to be a predetermined person when the terminal performs a predetermined behavior in the video,
Processing method.
端末と通信可能な情報処理装置のコンピュータに、
カメラにより撮影された映像において所定の挙動を行った人物が映る映像と、前記人物の情報とを受信することと、
前記人物の情報と、前記映像とを記憶することと、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信することと、
を実行させ、
前記人物は、前記端末において、前記映像において所定の挙動を行った場合に、所定人物だと判定された人物である、
プログラム。
In the computer of the information processing device that can communicate with the terminal,
Receiving an image of a person performing a predetermined behavior in an image captured by a camera and information about the person;
storing the information of the person and the video;
transmitting predetermined information to a terminal different from the terminal when the reception is performed;
and
The person is a person who is determined to be a predetermined person when the terminal performs a predetermined behavior in the video,
program.
情報処理装置と通信可能な端末が実行する処理方法であって、
カメラにより撮影された映像に出現する人物が所定の挙動を行った場合に、前記人物を所定人物と判定することと、
前記人物が映る前記映像と、前記人物の情報とを前記情報処理装置に送信することと、を含み、
前記情報処理装置は、
前記人物の情報と、前記映像とを受信する受信部と、
前記人物の情報と、前記映像とを記憶する記憶部と、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信する送信部と、を備える、
処理方法。
A processing method executed by a terminal capable of communicating with an information processing device,
Determining a person appearing in an image captured by a camera as a predetermined person when the person behaves in a predetermined manner;
transmitting the video in which the person appears and information about the person to the information processing device;
The information processing device is
a receiving unit that receives the information about the person and the video;
a storage unit that stores the information about the person and the video;
a transmission unit that transmits predetermined information to a terminal different from the terminal when the reception is performed;
Processing method.
情報処理装置と通信可能な端末のコンピュータに、
カメラにより撮影された映像に出現する人物が所定の挙動を行った場合に、前記人物を所定人物と判定することと、
前記人物が映る前記映像と、前記人物の情報とを前記情報処理装置に送信することと、を実行させ、
前記情報処理装置は、
前記人物の情報と、前記映像とを受信する受信部と、
前記人物の情報と、前記映像とを記憶する記憶部と、
前記受信を行った場合に、所定の情報を前記端末とは異なる端末に送信する送信部と、を備える、
プログラム。
In the computer of the terminal that can communicate with the information processing device,
Determining a person appearing in an image captured by a camera as a predetermined person when the person behaves in a predetermined manner;
transmitting the video in which the person appears and information about the person to the information processing device;
The information processing device is
a receiving unit that receives the information about the person and the video;
a storage unit that stores the information about the person and the video;
a transmission unit that transmits predetermined information to a terminal different from the terminal when the reception is performed;
program.
JP2023075178A 2020-01-15 2023-04-28 Information processing system, information processing device, terminal, processing method, and program Pending JP2023099581A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023075178A JP2023099581A (en) 2020-01-15 2023-04-28 Information processing system, information processing device, terminal, processing method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020004677A JP2020074567A (en) 2020-01-15 2020-01-15 Image processing system, image processing method, and program
JP2021110514A JP7487888B2 (en) 2020-01-15 2021-07-02 Image processing system, image processing method and program
JP2023075178A JP2023099581A (en) 2020-01-15 2023-04-28 Information processing system, information processing device, terminal, processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021110514A Division JP7487888B2 (en) 2020-01-15 2021-07-02 Image processing system, image processing method and program

Publications (1)

Publication Number Publication Date
JP2023099581A true JP2023099581A (en) 2023-07-13

Family

ID=70610575

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2020004677A Pending JP2020074567A (en) 2020-01-15 2020-01-15 Image processing system, image processing method, and program
JP2021110514A Active JP7487888B2 (en) 2020-01-15 2021-07-02 Image processing system, image processing method and program
JP2021141375A Pending JP2022003529A (en) 2020-01-15 2021-08-31 Information processing device, information processing method, and program
JP2023075178A Pending JP2023099581A (en) 2020-01-15 2023-04-28 Information processing system, information processing device, terminal, processing method, and program

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2020004677A Pending JP2020074567A (en) 2020-01-15 2020-01-15 Image processing system, image processing method, and program
JP2021110514A Active JP7487888B2 (en) 2020-01-15 2021-07-02 Image processing system, image processing method and program
JP2021141375A Pending JP2022003529A (en) 2020-01-15 2021-08-31 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (4) JP2020074567A (en)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4569190B2 (en) * 2004-06-24 2010-10-27 オムロン株式会社 Suspicious person countermeasure system and suspicious person detection device
JP5064846B2 (en) * 2007-03-14 2012-10-31 株式会社日立情報制御ソリューションズ Monitoring system
JP2010079750A (en) * 2008-09-26 2010-04-08 Secom Co Ltd Monitoring device
JP2010081480A (en) * 2008-09-29 2010-04-08 Fujifilm Corp Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program
JP2010237872A (en) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd Device, method and program for detecting person area
JP2010237873A (en) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd Device, method, and program for detecting attitude change
JP2010272958A (en) * 2009-05-19 2010-12-02 Duse Technologies Co Ltd Monitoring device, monitoring system, and monitoring program
JP2011089784A (en) * 2009-10-20 2011-05-06 Nippon Signal Co Ltd:The Device for estimating direction of object
JP5752975B2 (en) * 2011-03-30 2015-07-22 セコム株式会社 Image monitoring device
JP2012243128A (en) * 2011-05-20 2012-12-10 Jvc Kenwood Corp Monitoring device, monitoring method and monitoring program
JP2013065187A (en) * 2011-09-16 2013-04-11 Nec Casio Mobile Communications Ltd Crime prevention system, information processing device, management method of crime prevention system and program
JP5903557B2 (en) * 2011-12-27 2016-04-13 パナソニックIpマネジメント株式会社 Security system
JP5894807B2 (en) * 2012-01-25 2016-03-30 株式会社日立国際電気 Surveillance device, surveillance camera system, and video transmission method
JP2013196043A (en) * 2012-03-15 2013-09-30 Glory Ltd Specific person monitoring system
SG11201508085QA (en) * 2013-03-29 2015-11-27 Nec Corp Target object identifying device, target object identifying method and target object identifying program
WO2015033576A1 (en) * 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium

Also Published As

Publication number Publication date
JP2020074567A (en) 2020-05-14
JP2021166399A (en) 2021-10-14
JP2022003529A (en) 2022-01-11
JP7487888B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
JP6674584B2 (en) Video surveillance system
CN108369770B (en) Litter monitoring arrangement and the Litter monitoring system and Litter monitoring method for having the Litter monitoring arrangement
JP5962916B2 (en) Video surveillance system
US11881090B2 (en) Investigation generation in an observation and surveillance system
KR100794073B1 (en) Operation branch system
WO2017033404A1 (en) Security system and method for displaying images of people
WO2018146938A1 (en) Person detection system
US7272490B2 (en) Trail analysis method and apparatus
JP2009239467A (en) Monitoring terminal apparatus, display processing method therefor, program, and memory
KR101526499B1 (en) Network security monitoring System using detecting an object and method for intelligently analyzing video data using thereof
JP2019149641A (en) Monitoring system, monitoring method and monitoring program
KR20120113014A (en) Image recognition apparatus and vison monitoring method thereof
JP4029069B2 (en) Mobile terminal, non-contact type individual identification management method, program, and storage medium
EP3683757A1 (en) Investigation generation in an observation and surveillance system
JP6984942B2 (en) Image processing equipment, image processing system, image processing method and program
JP6555481B2 (en) Video surveillance system
JP2023099581A (en) Information processing system, information processing device, terminal, processing method, and program
JP6806626B2 (en) Person group tracking device and person group tracking method
JP5181005B2 (en) Mobile device
JP4664337B2 (en) Portable terminal, non-contact type individual identification method, program, and recording medium
JP5909709B1 (en) Flow line analysis system, camera device, and flow line analysis method
JP2005173763A (en) Customer information processing device and method
JPWO2016139940A1 (en) Image processing system, image processing method, and computer program
JP6112346B2 (en) Information collection system, program, and information collection method
JPH09114988A (en) Automatic candidate person presentation and search support device and automatic candidate person presentation and search system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240415