JP2021036646A - Information collection system, camera terminal device, information collection method and information collection program - Google Patents

Information collection system, camera terminal device, information collection method and information collection program Download PDF

Info

Publication number
JP2021036646A
JP2021036646A JP2019158021A JP2019158021A JP2021036646A JP 2021036646 A JP2021036646 A JP 2021036646A JP 2019158021 A JP2019158021 A JP 2019158021A JP 2019158021 A JP2019158021 A JP 2019158021A JP 2021036646 A JP2021036646 A JP 2021036646A
Authority
JP
Japan
Prior art keywords
image
information
face image
target
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019158021A
Other languages
Japanese (ja)
Inventor
須山 明昇
Akinori Suyama
明昇 須山
英樹 竹原
Hideki Takehara
英樹 竹原
立巳 長沼
Tatsumi Naganuma
立巳 長沼
真那夢 高橋
Manamu Takahashi
真那夢 高橋
智 廣瀬
Satoshi Hirose
智 廣瀬
雄士 青木
Yuji Aoki
雄士 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019158021A priority Critical patent/JP2021036646A/en
Publication of JP2021036646A publication Critical patent/JP2021036646A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information collection system capable of collecting additional information on the basis of an image of a search object person, a camera terminal device, an information collection method and an information collection program.SOLUTION: An information collection system 100 includes a camera terminal device 1, and a server device 7. The camera terminal device 1 includes an object information acquisition part for acquiring object face image information on a face image of a search object person, and an image recognition part for recognizing an image coincident with the object face image information from a photographed video. The server device 7 includes an object information transmission part for transmitting the object face image information to the camera terminal device 1, and an image processing part for detecting face images reflected around the face image coincident with the object face image information in the video acquired from the camera terminal device 1 in the case that the image recognition part of the camera terminal device 1 recognizes the coincident image.SELECTED DRAWING: Figure 1

Description

本発明は、例えば捜索対象者に関する情報を収集する情報収集システム、カメラ端末装置、情報収集方法および情報収集プログラムに関する。 The present invention relates to, for example, an information collecting system, a camera terminal device, an information collecting method, and an information collecting program for collecting information about a search target person.

近年、店舗等の屋内外に設置された監視用のカメラによって撮影された映像から、対象となる人物を捜索するシステムが開発されてきた。 In recent years, a system has been developed that searches for a target person from images taken by a surveillance camera installed indoors or outdoors in a store or the like.

例えば特許文献1には、グループメンバの居場所を確認できる人物探索システムが開示されている。この人物探索システムでは、遊園地などへの入場時にグループメンバ全員の顔画像を含む登録情報を各メンバが所持する携帯端末に記録しておく。メンバが他のメンバの居場所を知りたい時、携帯端末に記録されているメンバの顔画像と一致する人物の顔画像が撮影されている画像を施設内の各監視カメラで撮影された画像から探索するようにしている。 For example, Patent Document 1 discloses a person search system that can confirm the whereabouts of group members. In this person search system, registration information including facial images of all group members is recorded in a mobile terminal possessed by each member when entering an amusement park or the like. When a member wants to know the whereabouts of other members, search for an image of a person's face image that matches the member's face image recorded on the mobile terminal from the images taken by each surveillance camera in the facility. I try to do it.

特開2004−177997号公報Japanese Unexamined Patent Publication No. 2004-177997

特許文献1に記載の従来の人物探索システムは、例えば入場時にメンバの顔画像を撮影し登録しておき、登録した顔画像に基づいて探索するが、迷子や犯罪などの事件において街中などで特定の人物を捜索するようなケースには不向きであった。事件における特定の人物を捜索する場合、照合する顔画像が過去に撮影された古いものであるなど手掛かりとなる情報が不十分であると捜索に時間がかかってしまう。 In the conventional person search system described in Patent Document 1, for example, a member's face image is photographed and registered at the time of admission, and the search is performed based on the registered face image. It was not suitable for the case of searching for the person. When searching for a specific person in a case, it takes time to search if there is insufficient information that can be used as a clue, such as the face image to be collated is an old one taken in the past.

本発明は、斯かる事情に鑑みてなされたものであり、その目的とするところは、捜索対象者の画像に基づき追加情報を収集することができる情報収集システム、カメラ端末装置、情報収集方法および情報収集プログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is an information collection system, a camera terminal device, an information collection method, and an information collection system capable of collecting additional information based on an image of a search target person. It is to provide an information gathering program.

本発明のある態様の情報収集システムは、捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部、および撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識部を有するカメラ端末装置と、前記カメラ端末装置へ前記対象顔画像情報を送出する対象情報送出部、および前記画像認識部によって一致する画像が認識された場合に、前記カメラ端末装置から取得した映像の中で前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理部を有するサーバ装置と、を備える。 The information collecting system according to an aspect of the present invention includes a target information acquisition unit that acquires target face image information related to the face image of the search target person, and an image recognition unit that recognizes an image that matches the target face image information from the captured image. When a matching image is recognized by the camera terminal device having the above, the target information transmitting unit for transmitting the target face image information to the camera terminal device, and the image recognition unit, the image acquired from the camera terminal device. Among them, a server device having an image processing unit for detecting a face image appearing around the face image matching the target face image information is provided.

本発明の別の態様の情報収集システムは、捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部、および撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識部を有するカメラ端末装置と、前記カメラ端末装置へ前記対象顔画像情報を送出する対象情報送出部、および前記画像認識部によって一致する画像が認識された場合に、前記カメラ端末装置から所定の距離範囲内に存在する他のカメラ端末装置から映像データを取得し、所得した映像データの中で前記対象顔画像情報に一致する画像を認識する画像処理部を有するサーバ装置と、を備える。 The information collecting system of another aspect of the present invention includes a target information acquisition unit that acquires target face image information related to the face image of the search target person, and image recognition that recognizes an image that matches the target face image information from the captured image. A predetermined distance from the camera terminal device when a matching image is recognized by the camera terminal device having the unit, the target information transmitting unit that transmits the target face image information to the camera terminal device, and the image recognition unit. The present invention includes a server device having an image processing unit that acquires video data from another camera terminal device existing within the range and recognizes an image that matches the target face image information among the earned video data.

また本発明の別の態様はカメラ端末装置である。このカメラ端末装置は、捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部と、撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識部と、前記画像認識部によって一致する画像が認識された場合に、前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理部と、を備える。 Another aspect of the present invention is a camera terminal device. This camera terminal device includes a target information acquisition unit that acquires target face image information related to the face image of the search target person, an image recognition unit that recognizes an image that matches the target face image information from the captured image, and the image recognition. It is provided with an image processing unit that detects a face image appearing around the face image that matches the target face image information when a matching image is recognized by the unit.

また本発明の別の態様は情報収集方法である。この情報収集方法は、捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得ステップと、撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識ステップと、前記画像認識ステップによって一致する画像が認識された場合に、映像の中で前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理ステップと、を備える。 Another aspect of the present invention is an information gathering method. This information collecting method includes a target information acquisition step of acquiring target face image information related to a search target person's face image, an image recognition step of recognizing an image matching the target face image information from a captured image, and the image recognition. When a matching image is recognized by the step, an image processing step of detecting a face image appearing around the face image matching the target face image information in the video is provided.

本発明によれば、捜索対象者の画像に基づき追加情報を収集することができる。 According to the present invention, additional information can be collected based on the image of the search target person.

実施形態1に係る情報収集システムにおける通信接続を説明するための模式図である。It is a schematic diagram for demonstrating the communication connection in the information gathering system which concerns on Embodiment 1. FIG. カメラ端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of a camera terminal apparatus. サーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of a server apparatus. 画像推論処理用パラメータの更新処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the update processing of the parameter for image inference processing. 映像中に捜索対象者が認識された場合の情報収集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the information collection processing when the search target person is recognized in the image. サーバ装置において追加情報を抽出する情報抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the information extraction processing which extracts additional information in a server apparatus. サーバ装置において追加情報を抽出する情報抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the information extraction processing which extracts additional information in a server apparatus. 実施形態2に係る情報収集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the information gathering processing which concerns on Embodiment 2. 他の情報収集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of other information collection processing. 実施形態3に係るカメラ端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera terminal apparatus which concerns on Embodiment 3. 実施形態4に係る情報収集処理の手順を示す模式図である。It is a schematic diagram which shows the procedure of the information gathering processing which concerns on Embodiment 4.

以下、本発明を好適な実施の形態をもとに図1から図11を参照しながら説明する。各図面に示される同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において実施の形態を説明する上で重要ではない部材の一部は省略して表示する。 Hereinafter, the present invention will be described with reference to FIGS. 1 to 11 based on a preferred embodiment. The same or equivalent components and members shown in the drawings shall be designated by the same reference numerals, and redundant description will be omitted as appropriate. In addition, some of the members that are not important for explaining the embodiment in each drawing are omitted and displayed.

(実施形態1)
図1は、実施形態1に係る情報収集システム100における通信接続を説明するための模式図である。情報収集システム100は、カメラ端末装置1、表示端末6、サーバ装置7、並びに管理装置8等を備え、特定の人物を捜索するための情報収集と捜索者への情報提供を行うことができる。情報収集システム100は、捜索対象者である特定の人物を捜索するために、該人物の顔画像に関する情報(以下、対象顔画像情報という。)を用いる。
(Embodiment 1)
FIG. 1 is a schematic diagram for explaining a communication connection in the information collection system 100 according to the first embodiment. The information collection system 100 includes a camera terminal device 1, a display terminal 6, a server device 7, a management device 8, and the like, and can collect information for searching for a specific person and provide information to a searcher. In order to search for a specific person who is a search target person, the information collection system 100 uses information about the face image of the person (hereinafter, referred to as target face image information).

カメラ端末装置1は例えばドライブレコーダ1aおよびボディウォーンカメラ1b等である。ドライブレコーダ1aは、一般的に運転中の車両5から見た前方等の車外の映像を記録する装置であり、画像推論処理機能を備えることによって特定の顔画像を認識する。ドライブレコーダ1aは、例えば警察車両、捜索に協力する警備会社の車両、タクシーおよびトラック等に装備されており、携帯電話網等の通信ネットワーク9を通じて映像や音声情報をやり取りする。 The camera terminal device 1 is, for example, a drive recorder 1a, a body warn camera 1b, or the like. The drive recorder 1a is a device that generally records an image of the outside of the vehicle, such as the front, as seen from the vehicle 5 being driven, and recognizes a specific face image by being provided with an image inference processing function. The drive recorder 1a is installed in, for example, a police vehicle, a vehicle of a security company cooperating in a search, a taxi, a truck, or the like, and exchanges video and audio information through a communication network 9 such as a mobile phone network.

ボディウォーンカメラ1bは、ドライブレコーダ1aと同様に映像を記録し、画像推論処理機能を備えることによって特定の顔画像を認識する。ボディウォーンカメラ1bは、例えば警察官や、捜索に協力する警備員等が上半身などの身体に装着できるようになっており、携帯電話網等の通信ネットワーク9を通じて映像や音声情報をやり取りする。 The body warn camera 1b records an image in the same manner as the drive recorder 1a, and recognizes a specific face image by providing an image inference processing function. The body warn camera 1b can be worn on the body such as the upper body by police officers, security guards who cooperate in the search, and the like, and exchanges video and audio information through a communication network 9 such as a mobile phone network.

表示端末6は、例えばスマートフォン6aおよびHMD(ヘッドマウントディスプレイ)装置6b等である。スマートフォン6aおよびHMD装置6bは、捜索者が携帯し、通信ネットワーク9を介して捜索対象者の顔画像や収集情報等を受信し、画像や情報を表示する。尚、HMD装置6bは例えばメガネ型のデバイスであり、捜索者は、HMD装置6bを顔に装着し、映し出される映像を見ながら捜索が行える。 The display terminal 6 is, for example, a smartphone 6a, an HMD (head-mounted display) device 6b, or the like. The smartphone 6a and the HMD device 6b are carried by the searcher, receive a face image, collected information, and the like of the search target person via the communication network 9, and display the images and information. The HMD device 6b is, for example, a glasses-type device, and the searcher can search while watching the projected image by wearing the HMD device 6b on his face.

サーバ装置7は、捜索対象者の顔画像に対して、カメラ端末装置1において顔画像を認識させるための画像推論処理用のパラメータを生成する。画像推論処理用のパラメータは、上述の対象顔画像情報に含まれる。サーバ装置7は、生成した画像推論処理用のパラメータを含む対象顔画像情報をカメラ端末装置1へ通信ネットワーク9を介して送信する機能を有する。またサーバ装置7は、カメラ端末装置1で顔画像の認識に伴って取得された画像等の情報(以下、収集情報という。)を、通信ネットワーク9を介して受信する機能を有する。 The server device 7 generates a parameter for image inference processing for recognizing the face image in the camera terminal device 1 with respect to the face image of the search target person. The parameters for image inference processing are included in the above-mentioned target face image information. The server device 7 has a function of transmitting the target face image information including the generated parameters for image inference processing to the camera terminal device 1 via the communication network 9. Further, the server device 7 has a function of receiving information such as an image (hereinafter, referred to as collected information) acquired by the camera terminal device 1 in recognition of the face image via the communication network 9.

またサーバ装置7は、捜索対象者の顔画像や収集情報等を、捜索者が携帯する表示端末6へ通信ネットワーク9を介して配信する機能を備える。管理装置8は、捜索対象者の顔画像などの情報をサーバ装置7へ設定し、捜索者への情報通知の制御を行う。 Further, the server device 7 has a function of delivering a face image of the search target person, collected information, and the like to the display terminal 6 carried by the searcher via the communication network 9. The management device 8 sets information such as a face image of the search target person in the server device 7, and controls information notification to the searcher.

図2は、カメラ端末装置1の構成を示すブロック図である。カメラ端末装置1は映像入力部11、画像認識部12、制御部13、通信部14および収集情報生成部15等を備える。カメラ端末装置1における各部は、ハードウェア的には、コンピュータのCPUをはじめとする電子素子や機械部品などで実現でき、ソフトウェア的にはコンピュータプログラムなどによって実現されるが、図2ではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろな形態で実現できることは、当業者には理解されるところである。 FIG. 2 is a block diagram showing the configuration of the camera terminal device 1. The camera terminal device 1 includes a video input unit 11, an image recognition unit 12, a control unit 13, a communication unit 14, a collected information generation unit 15, and the like. Each part of the camera terminal device 1 can be realized by an electronic element such as a computer CPU or a mechanical component in terms of hardware, and can be realized by a computer program or the like in terms of software. It depicts a functional block realized by. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by combining hardware and software.

カメラ端末装置1では、CCD等の検出器によって映像を撮影して映像信号を生成し、映像入力部11に映像信号が入力される。映像入力部11に入力された映像信号は、画像認識部12および映像音声圧縮部16へ出力される。 In the camera terminal device 1, an image is captured by a detector such as a CCD to generate an image signal, and the image signal is input to the image input unit 11. The video signal input to the video input unit 11 is output to the image recognition unit 12 and the video / audio compression unit 16.

画像認識部12は、画像推論処理回路を有しており、サーバ装置7から取得した対象顔画像情報に基づく画像推論によって、捜索対象者の顔画像が映像信号中の画像に存在するかを認識する処理を実行している。上述のように、対象顔画像情報には画像推論処理用のパラメータが含まれている。画像認識部12が有する画像推論処理回路は、例えばニューラルネットワーク等の学習型モデルを構成しており、入力される画像の中に捜索対象者の顔画像と一致する画像が存在しているかどうかを推論することで画像認識する。サーバ装置7は、捜索対象者の顔画像に基づいて、予め同等な学習型モデルを学習させることで該学習型モデル中の画像推論処理用のパラメータを生成し、カメラ端末装置1へ与える。尚、画像推論処理用のパラメータは、画像認識部12が有する画像推論処理回路中に設定される各パラメータを表している。画像認識部12および後述するサーバ装置7の顔画像情報生成部72における画像推論処理は、様々な技術分野において研究開発がされ、または利用されている種々の画像推論処理方法を用いることができる。 The image recognition unit 12 has an image inference processing circuit, and recognizes whether the face image of the search target person exists in the image in the video signal by image inference based on the target face image information acquired from the server device 7. Is executing the process to be performed. As described above, the target face image information includes parameters for image inference processing. The image inference processing circuit included in the image recognition unit 12 constitutes a learning type model such as a neural network, and determines whether or not an image matching the face image of the search target person exists in the input image. Image recognition by inferring. The server device 7 generates parameters for image inference processing in the learning model by learning an equivalent learning model in advance based on the face image of the search target person, and gives the parameters to the camera terminal device 1. The parameters for image inference processing represent each parameter set in the image inference processing circuit included in the image recognition unit 12. For the image inference processing in the image recognition unit 12 and the face image information generation unit 72 of the server device 7 described later, various image inference processing methods that have been researched and developed in various technical fields or are used can be used.

映像音声圧縮部16は、入力された映像信号、および音声入力部18に入力された音声信号に対してデータ圧縮処理を行い、記録する映像データおよび音声データを生成する。映像音声圧縮部16によってデータ圧縮された映像データおよび音声データは映像音声記録部17に記録される。映像音声記録部17は、例えばUSBメモリやSDカード等の記憶媒体を有し、該記憶媒体に映像データおよび音声データを記録する。 The video / audio compression unit 16 performs data compression processing on the input video signal and the audio signal input to the audio input unit 18 to generate video data and audio data to be recorded. The video data and audio data compressed by the video / audio compression unit 16 are recorded in the video / audio recording unit 17. The video / audio recording unit 17 has a storage medium such as a USB memory or an SD card, and records video data and audio data in the storage medium.

制御部13は、映像の撮影開始、映像データおよび音声データの記録、撮影終了までのカメラ端末装置1における全体の動作を制御する。また制御部13は、センサ入力部19から各種のセンサ情報を取得し、収集情報生成部15へ出力する。センサ入力部19では、映像および音声に付随する情報として、GPS等による位置情報や9軸センサ情報が入力されている。9軸センサ情報とは、例えば3軸方向における加速度、並びに3軸まわりの角速度および回転角に関する情報である。 The control unit 13 controls the entire operation of the camera terminal device 1 from the start of shooting a video, the recording of video data and audio data, to the end of shooting. Further, the control unit 13 acquires various sensor information from the sensor input unit 19 and outputs the various sensor information to the collected information generation unit 15. In the sensor input unit 19, position information by GPS or the like and 9-axis sensor information are input as information accompanying video and audio. The 9-axis sensor information is, for example, information on acceleration in the three-axis direction, and angular velocity and angle of rotation around the three axes.

通信部14は、通信ネットワーク9を介してサーバ装置7との間で通信し、データを送受信する。通信部14は、画像認識部12で用いる画像推論処理用のパラメータを含む対象顔画像情報、およびカメラ端末装置1を制御するための制御信号を受信し、画像認識部12および制御部13へ出力する。収集情報生成部15は、画像認識部12で捜索対象者の顔画像と一致する顔画像を認識した場合に、捜索対象者の顔画像が認識された映像、および位置情報等を含む収集情報を生成し、通信部14へ出力する。通信部14は、収集情報生成部15から入力された収集情報をサーバ装置7へ送信する。 The communication unit 14 communicates with the server device 7 via the communication network 9 and transmits / receives data. The communication unit 14 receives the target face image information including the parameters for image inference processing used in the image recognition unit 12 and the control signal for controlling the camera terminal device 1, and outputs the control signal to the image recognition unit 12 and the control unit 13. To do. When the image recognition unit 12 recognizes a face image that matches the face image of the search target person, the collection information generation unit 15 obtains the image in which the face image of the search target person is recognized, the collected information including the position information, and the like. Generate and output to the communication unit 14. The communication unit 14 transmits the collected information input from the collected information generation unit 15 to the server device 7.

図3は、サーバ装置7の構成を示すブロック図である。サーバ装置7は、通信部71、顔画像情報生成部72、画像処理部73、データ蓄積部74および制御部75を有する。通信部71は、通信ネットワーク9を介して、カメラ端末装置1、表示端末6および管理装置8との間で通信し、各種の情報を送受信する。通信部71は、カメラ端末装置1へ対象顔画像情報およびカメラ端末装置1への制御信号を送信し、カメラ端末装置1から収集情報を受信する。また、通信部71は、管理装置8から捜索対象者の顔画像および各種の制御信号を受信する。また、通信部71は、表示端末6へ現在における捜索対象者に関する情報を配信する。 FIG. 3 is a block diagram showing the configuration of the server device 7. The server device 7 includes a communication unit 71, a face image information generation unit 72, an image processing unit 73, a data storage unit 74, and a control unit 75. The communication unit 71 communicates with the camera terminal device 1, the display terminal 6, and the management device 8 via the communication network 9, and transmits and receives various information. The communication unit 71 transmits the target face image information and the control signal to the camera terminal device 1 to the camera terminal device 1, and receives the collected information from the camera terminal device 1. In addition, the communication unit 71 receives the face image of the search target person and various control signals from the management device 8. In addition, the communication unit 71 distributes information about the current search target person to the display terminal 6.

顔画像情報生成部72は、管理装置8から受信した捜索対象者の顔画像に基づいて、カメラ端末装置1の画像認識部12で使用する画像推論処理用のパラメータを生成する。ここで、管理装置8は、例えばPC(パーソナルコンピュータ)などで構成されており、オペレータの操作によって捜索対象者の捜索を管理できる環境を提供する。管理装置8は、例えば、捜索対象者の顔画像データの入力およびサーバ装置7への送信、捜索者への情報通知の制御、並びに、現在までの捜索で収集された情報の受信および表示などの処理を実行する。 The face image information generation unit 72 generates parameters for image inference processing used by the image recognition unit 12 of the camera terminal device 1 based on the face image of the search target person received from the management device 8. Here, the management device 8 is composed of, for example, a PC (personal computer) or the like, and provides an environment in which the search of the search target person can be managed by the operation of the operator. The management device 8 can, for example, input the face image data of the search target person and send it to the server device 7, control the information notification to the searcher, and receive and display the information collected in the search up to now. Execute the process.

画像処理部73は、カメラ端末装置1から受信した収集情報に含まれる映像に基づいて、捜索対象者の捜索に有益な新たな追加情報を画像認識によって抽出する。追加情報は、例えば映像中の捜索対象者の顔画像であり、これは最新の捜索対象者の顔画像となる。また、追加情報は、映像中の顔画像の範囲よりも大きい範囲で切り出された画像、捜索対象者の服装に関する種類や色などの情報、捜索対象者の顔画像の周囲に映っている人の画像などである。 The image processing unit 73 extracts new additional information useful for the search of the search target person by image recognition based on the image included in the collected information received from the camera terminal device 1. The additional information is, for example, a face image of the search target person in the video, which is the latest face image of the search target person. In addition, the additional information includes an image cut out in a range larger than the range of the face image in the video, information such as the type and color of the clothes of the search target person, and the person appearing around the face image of the search target person. It is an image etc.

データ蓄積部74は、管理装置8から受信した捜索対象者の顔画像、カメラ端末装置1から受信した収集情報、および画像処理部73で抽出された追加情報を蓄積する。データ蓄積部74で蓄積された情報は、表示端末6へ送信される。制御部75は、管理装置8からの制御または自己による制御によって、サーバ装置7における各部の動作を制御する。 The data storage unit 74 stores the face image of the search target person received from the management device 8, the collected information received from the camera terminal device 1, and the additional information extracted by the image processing unit 73. The information accumulated in the data storage unit 74 is transmitted to the display terminal 6. The control unit 75 controls the operation of each unit in the server device 7 by the control from the management device 8 or the control by itself.

次に情報収集システムの動作について説明する。図4は、画像推論処理用パラメータの更新処理の手順を示すフローチャートである。サーバ装置7は、管理装置8から送信された捜索対象者の顔画像を受信する(S1)。顔画像情報生成部72は、カメラ端末装置1の画像認識部12で使用する画像推論処理向けに捜索対象者の顔画像を学習し、画像推論処理用のパラメータを生成する(S2)。サーバ装置7は、生成した画像推論処理用のパラメータを含む対象顔画像情報を通信部71からカメラ端末装置1へ送信する(S3)。 Next, the operation of the information collection system will be described. FIG. 4 is a flowchart showing a procedure for updating parameters for image inference processing. The server device 7 receives the face image of the search target person transmitted from the management device 8 (S1). The face image information generation unit 72 learns the face image of the search target person for the image inference processing used in the image recognition unit 12 of the camera terminal device 1 and generates parameters for the image inference processing (S2). The server device 7 transmits the target face image information including the generated parameters for image inference processing from the communication unit 71 to the camera terminal device 1 (S3).

カメラ端末装置1は、サーバ装置7から送信された対象顔画像情報を受信し、対象顔画像情報に含まれる画像推論処理用のパラメータを使用して、画像認識部12が有する画像推論処理回路のパラメータを更新し(S4)、処理を終了する。カメラ端末装置1は、撮影した映像の中に、捜索対象者の顔画像が存在するかどうかを画像認識部12の画像推論回路で推論する。 The camera terminal device 1 receives the target face image information transmitted from the server device 7, and uses the parameters for image inference processing included in the target face image information to obtain the image inference processing circuit of the image recognition unit 12. The parameter is updated (S4), and the process ends. The camera terminal device 1 infers whether or not a face image of the search target person exists in the captured image by the image inference circuit of the image recognition unit 12.

図5は、映像中に捜索対象者が認識された場合の情報収集処理の手順を示すフローチャートである。カメラ端末装置1は、撮影した映像中に捜索対象者の顔画像が映っている場合、画像認識部12において捜索対象者の顔画像と一致する顔画像が存在していることを認識する(S11)。画像認識部12は、認識された顔画像を含む顔画像部分を元の全体画像から切り出す(S12)。画像認識部12は、少なくとも認識された顔画像の横幅および縦幅の範囲を切り出すが、例えば横幅および縦幅を1〜1.5倍程度に割増しした範囲を切り出すようにするとよい。 FIG. 5 is a flowchart showing a procedure of information collection processing when a search target person is recognized in the video. When the face image of the search target person is shown in the captured image, the camera terminal device 1 recognizes that the face image matching the face image of the search target person exists in the image recognition unit 12 (S11). ). The image recognition unit 12 cuts out a face image portion including the recognized face image from the original entire image (S12). The image recognition unit 12 cuts out at least the range of the horizontal width and the vertical width of the recognized face image, and it is preferable to cut out the range in which the horizontal width and the vertical width are increased by about 1 to 1.5 times, for example.

また、収集情報には、捜索対象者の顔画像と一致する顔画像が見つかった元の全体画像を含んでいてもよい。また、収集情報には、元の全体画像の代わりに、収集情報生成部15において顔の横幅のX倍の横幅、および顔の縦幅のY倍の縦幅で切り出した画像を含ませるようにしてもよい。切り出し画像の横幅は左右の両方向に延び、画像の縦幅は顔の天辺から下方向に延びるものとするとよい。尚、XおよびYは、例えば2〜5程度の範囲の値とすると良いが、この範囲に限られるものではない。 In addition, the collected information may include the original whole image in which a face image matching the face image of the search target person is found. Further, the collected information includes an image cut out by the collected information generation unit 15 with a width of X times the width of the face and a height of Y times the height of the face, instead of the original whole image. You may. The width of the cropped image should extend in both the left and right directions, and the height of the image should extend downward from the top of the face. It should be noted that X and Y may be values in the range of, for example, about 2 to 5, but are not limited to this range.

収集情報生成部15は、画像認識部12によって切り出された顔画像部分、および位置情報等を含む収集情報を生成し、通信部14を介してサーバ装置7へ送信する(S13)。サーバ装置7は、カメラ端末装置1から送信された収集情報をデータ蓄積部74に保存する(S14)。 The collected information generation unit 15 generates the collected information including the face image portion cut out by the image recognition unit 12 and the position information, and transmits the collected information to the server device 7 via the communication unit 14 (S13). The server device 7 stores the collected information transmitted from the camera terminal device 1 in the data storage unit 74 (S14).

管理装置8では、サーバ装置7へのアクセスによって収集情報を受信しており、捜索対象者の顔画像を認識して収集情報を送信した送信元であるカメラ端末装置1から、一定の距離範囲内にある捜索者(即ち表示端末6)を抽出する(S15)。管理装置8は、抽出した表示端末6の情報をサーバ装置7へ送信し、サーバ装置7は、抽出した捜索者(表示端末6)に対して、切り出された顔画像部分、および捜索対象者を認識したカメラ端末装置1の位置情報を配信し(S16)、処理を終了する。捜索者は、自分の周囲に存在するであろう捜索対象者の現在の映像と、概略の位置情報とを追加情報として取得することで捜索作業の効率を向上することが可能となる。 The management device 8 receives the collected information by accessing the server device 7, and is within a certain distance range from the camera terminal device 1 which is the source of recognizing the face image of the search target person and transmitting the collected information. The searcher (that is, the display terminal 6) in the above is extracted (S15). The management device 8 transmits the information of the extracted display terminal 6 to the server device 7, and the server device 7 sends the extracted face image portion and the search target person to the extracted searcher (display terminal 6). The recognized position information of the camera terminal device 1 is distributed (S16), and the process ends. The searcher can improve the efficiency of the search work by acquiring the current image of the search target person who may exist around him and the approximate position information as additional information.

図6はサーバ装置7において追加情報を抽出する情報抽出処理の手順を示すフローチャートである。尚、カメラ端末装置1からサーバ装置7へ送信されてくる収集情報には、捜索対象者の顔画像と一致する顔画像が見つかった元の全体画像が含まれているものとし、全体画像はサーバ装置7のデータ蓄積部74に保存される。 FIG. 6 is a flowchart showing a procedure of information extraction processing for extracting additional information in the server device 7. It is assumed that the collected information transmitted from the camera terminal device 1 to the server device 7 includes the original whole image in which the face image matching the face image of the search target person is found, and the whole image is the server. It is stored in the data storage unit 74 of the device 7.

サーバ装置7の画像処理部73は、全体画像中の捜索対象者周辺の画像で顔画像を検出する(S21)。検出した顔画像はデータ蓄積部74に保存される。画像処理部73は、公知の種々の顔画像検出手法を用いて顔画像を検出することができる。 The image processing unit 73 of the server device 7 detects the face image in the image around the search target person in the whole image (S21). The detected face image is stored in the data storage unit 74. The image processing unit 73 can detect a face image by using various known face image detection methods.

サーバ装置7は、捜索者へ画像処理部73で検出した顔画像を配信し(S22)、処理を終了する。尚、全体画像の代わりに、顔の横幅のX倍の横幅、および顔の縦幅のY倍の縦幅で切り出された画像がデータ蓄積部74に保存されている場合には、当該画像中の捜索対象者周辺の画像で顔画像を検出するようにしてもよい。 The server device 7 distributes the face image detected by the image processing unit 73 to the searcher (S22), and ends the processing. If, instead of the entire image, an image cut out with a width X times the width of the face and a height Y times the height of the face is stored in the data storage unit 74, the image is included in the image. The face image may be detected in the image around the person to be searched for.

捜索者は、捜索対象者の現在の映像に加えて、捜索対象者の周辺に存在した人物を見つけ出し、該人物から捜索対象者の手掛かりを得ることも可能となる。捜索対象者の周辺は、全体画像または切り出し画像の範囲内であるが、広がりすぎると有用性が低下する傾向にあり、所定の範囲内、例えば捜索対象者の顔画像から数m〜10m程度の範囲内とすることで、新たに検出される捜索対象者以外の顔画像の捜索における有用性が増す。尚、全体画像または切り出し画像では、縮尺などが判っているものとするが、上述のように顔の横幅のX倍の横幅、および顔の縦幅のY倍の縦幅の画像範囲を所定の範囲としてもよい。 In addition to the current image of the search target person, the searcher can also find a person who existed in the vicinity of the search target person and obtain a clue of the search target person from the person. The area around the search target is within the range of the entire image or the cut-out image, but if it is too wide, the usefulness tends to decrease, and within a predetermined range, for example, about several meters to 10 m from the face image of the search target. By setting it within the range, the usefulness in the search of the face image other than the newly detected search target person is increased. It is assumed that the scale of the whole image or the cut-out image is known, but as described above, the image range of X times the width of the face and Y times the height of the face is defined. It may be a range.

図7は、サーバ装置7において追加情報を抽出する情報抽出処理の手順を示すフローチャートである。この情報抽出処理では、複数の全体映像に共通して映っている人物の顔画像を抽出する。サーバ装置7の画像処理部73は、全体画像中の捜索対象者周辺の画像で顔画像を検出する(S31)。 FIG. 7 is a flowchart showing a procedure of information extraction processing for extracting additional information in the server device 7. In this information extraction process, a face image of a person that is commonly shown in a plurality of overall images is extracted. The image processing unit 73 of the server device 7 detects the face image in the image around the search target person in the whole image (S31).

画像処理部73は、所定時間前に保存した捜索対象者以外の顔画像と比較し(S32)、画像処理部73は、同一人物であるか否かを判定する(S33)。ステップS33において、同一人物であると判定された場合(S33:YES)、捜索者へ画像処理部73で検出した顔画像を配信し(S34)、処理を終了する。またステップS33において、同一人物でないと判定された場合(S33:NO)、処理を終了する。 The image processing unit 73 compares with a face image other than the search target person saved before a predetermined time (S32), and the image processing unit 73 determines whether or not the person is the same person (S33). If it is determined in step S33 that the person is the same person (S33: YES), the face image detected by the image processing unit 73 is delivered to the searcher (S34), and the process ends. If it is determined in step S33 that the person is not the same person (S33: NO), the process ends.

捜索者は、捜索対象者の現在の映像に加えて、捜索対象者の周辺に存在し、2回以上検出される人物の情報を取得することで、捜索対象者に加えて当該人物も捜索しつつ、捜索対象者の手掛かりを得ることが可能となる。捜索対象者の周辺に存在し、2回以上検出される人物が事件に関与している可能性、または捜索対象者に同行している可能性があり、該人物の情報を追加情報として提供することで、捜索作業の効率を向上することが可能となる。 In addition to the current image of the search target person, the searcher searches for the person in addition to the search target person by acquiring information on the person who exists in the vicinity of the search target person and is detected twice or more. At the same time, it is possible to obtain clues to the search target. A person who exists in the vicinity of the person to be searched and may be detected more than once may be involved in the case or may be accompanied by the person to be searched, and the information of the person is provided as additional information. This makes it possible to improve the efficiency of the search work.

(実施形態2)
実施形態2では、捜索者に配信される追加情報の抽出例を示す。実施形態2に係る情報収集システム100は、実施形態1に係る情報収集システム100と同等の構成となっている。図8は、実施形態2に係る情報収集処理の手順を示すフローチャートである。ステップS41からステップS44までは、図5におけるステップS11からステップS14と同じである。サーバ装置7の画像処理部73は、捜索対象者の顔画像を含み顔の横幅のX倍、顔の縦幅の下方向Y倍の切り出し画像を全体画像から生成する(S45)。
(Embodiment 2)
In the second embodiment, an example of extracting additional information to be delivered to the searcher is shown. The information collection system 100 according to the second embodiment has the same configuration as the information collection system 100 according to the first embodiment. FIG. 8 is a flowchart showing the procedure of the information collection process according to the second embodiment. Steps S41 to S44 are the same as steps S11 to S14 in FIG. The image processing unit 73 of the server device 7 generates a cut-out image including the face image of the search target person X times the width of the face and Y times the vertical width of the face downward from the entire image (S45).

図5におけるステップS15と同様に、捜索対象者の顔画像を認識して収集情報を送信した送信元であるカメラ端末装置1から、一定の距離範囲内にある捜索者を抽出する(S46)。サーバ装置7は、抽出した捜索者に対して、ステップS45で生成された切り出し画像および位置情報を配信し(S47)、処理を終了する。捜索者は、切り出し画像によって、捜索対象者の最新の顔画像に加えて、捜索対象者の衣類や所持している物などを把握することができ、捜索作業の効率を向上することが可能となる。 Similar to step S15 in FIG. 5, the searcher within a certain distance range is extracted from the camera terminal device 1 which is the transmission source that recognizes the face image of the search target person and transmits the collected information (S46). The server device 7 distributes the cut-out image and the position information generated in step S45 to the extracted searcher (S47), and ends the process. In addition to the latest facial image of the search target person, the searcher can grasp the clothes and possessions of the search target person by the cut-out image, and it is possible to improve the efficiency of the search work. Become.

図9は、他の情報収集処理の手順を示すフローチャートである。ステップS51からステップS55までは、図8におけるステップS41からステップS45と同じである。サーバ装置7の画像処理部73は、オブジェクト認識処理によって服装の種類を判別する(S56)。画像処理部73は、公知の種々のオブジェクト認識手法を用いて服装を認識し種別を判別することができる。画像処理部73は、服装の判別結果であるテキスト情報を音声データに変換する(S57)。服装のテキスト情報および音声データはデータ蓄積部74に保存される。 FIG. 9 is a flowchart showing the procedure of other information collection processing. Steps S51 to S55 are the same as steps S41 to S45 in FIG. The image processing unit 73 of the server device 7 determines the type of clothing by the object recognition process (S56). The image processing unit 73 can recognize the clothes and determine the type by using various known object recognition methods. The image processing unit 73 converts the text information, which is the result of determining the clothes, into voice data (S57). The text information and voice data of the clothes are stored in the data storage unit 74.

図8におけるステップS46と同様に、捜索対象者の顔画像を認識して収集情報を送信した送信元であるカメラ端末装置1から、一定の距離範囲内にある捜索者を抽出する(S58)。サーバ装置7は、抽出した捜索者に対して、ステップS55で生成された切り出し画像、ステップS57で生成された音声データ、および位置情報を配信し(S59)、処理を終了する。尚、捜索者が携行する表示端末6は音声再生機能を有しているものとする。 Similar to step S46 in FIG. 8, the searcher within a certain distance range is extracted from the camera terminal device 1 which is the transmission source that recognizes the face image of the search target person and transmits the collected information (S58). The server device 7 distributes the cut-out image generated in step S55, the voice data generated in step S57, and the position information to the extracted searcher (S59), and ends the process. It is assumed that the display terminal 6 carried by the searcher has a voice reproduction function.

捜索者は、捜索対象者の最新の顔画像に加えて、捜索対象者の衣類に関する情報を音声によって把握することができ、捜索作業の効率を向上することが可能となる。情報収集システム100は、サーバ装置7の画像処理部73において服装の種類に限らず、服装の色などを含む服装に関する情報を切り出し画像から認識し、捜索者に対して提供することができる。 In addition to the latest facial image of the search target person, the searcher can grasp information about the search target person's clothing by voice, and can improve the efficiency of the search work. The information collecting system 100 can recognize not only the type of clothes but also the information about clothes including the color of clothes from the cut-out image in the image processing unit 73 of the server device 7, and provide the information to the searcher.

(実施形態3)
実施形態3に係るカメラ端末装置1は、サーバ装置7における画像処理部73に相当する画像処理部20を備える。図10は実施形態3に係るカメラ端末装置1の構成を示すブロック図である。カメラ端末装置1に設けた画像処理部20は、上述の実施形態1および2において説明した画像処理部73における画像の切り出し処理、捜索対象者周辺の人物の顔画像検出処理、複数回の同一人物の検出処理、および服装に関する情報抽出処理等を実行する。
(Embodiment 3)
The camera terminal device 1 according to the third embodiment includes an image processing unit 20 corresponding to the image processing unit 73 in the server device 7. FIG. 10 is a block diagram showing the configuration of the camera terminal device 1 according to the third embodiment. The image processing unit 20 provided in the camera terminal device 1 cuts out an image in the image processing unit 73 described in the above-described first and second embodiments, performs face image detection processing of a person around the search target person, and performs the same person a plurality of times. Detection processing, information extraction processing related to clothing, etc. are executed.

カメラ端末装置1の画像処理部20で抽出された上述の追加情報は、収集情報生成部15からサーバ装置7へ送信され、サーバ装置7のデータ蓄積部74に保存される。サーバ装置7は、実施形態1および2と同様に、データ蓄積部74に保存した追加情報を含めて捜索者へ情報を配信する。捜索者は、捜索対象者の最新の顔画像に加えて、捜索対象者の周囲に映っている人物の追加情報を取得することで、捜索作業の効率を向上することが可能となる。 The above-mentioned additional information extracted by the image processing unit 20 of the camera terminal device 1 is transmitted from the collection information generation unit 15 to the server device 7, and is stored in the data storage unit 74 of the server device 7. Similar to the first and second embodiments, the server device 7 distributes information to the searcher including additional information stored in the data storage unit 74. The searcher can improve the efficiency of the search work by acquiring the latest facial image of the search target person and additional information of the person appearing around the search target person.

(実施形態4)
実施形態4では、一つのカメラ端末装置1で捜索対象者の顔画像が認識されたときに、その周辺のカメラ端末装置1からも情報を収集する制御を行う。実施形態4に係る情報収集システム100は、実施形態1に係る情報収集システム100と同等の構成となっている。
(Embodiment 4)
In the fourth embodiment, when the face image of the search target person is recognized by one camera terminal device 1, control is performed to collect information from the surrounding camera terminal devices 1 as well. The information collection system 100 according to the fourth embodiment has the same configuration as the information collection system 100 according to the first embodiment.

図11は、実施形態4に係る情報収集処理の手順を示す模式図である。カメラ端末装置1は、GPS等で取得した位置情報等をサーバ装置7へ送信する(S61)。位置情報等の送信は、全てのカメラ端末装置1が所定時間(例えば数秒〜数分)ごとに実行するとよい。また、サーバ装置7の制御部75は、通信部71により受信した位置情報等をデータ蓄積部74に逐次保存する。 FIG. 11 is a schematic diagram showing a procedure of information collection processing according to the fourth embodiment. The camera terminal device 1 transmits the position information or the like acquired by GPS or the like to the server device 7 (S61). It is preferable that all the camera terminal devices 1 execute the transmission of the position information and the like every predetermined time (for example, several seconds to several minutes). Further, the control unit 75 of the server device 7 sequentially stores the position information and the like received by the communication unit 71 in the data storage unit 74.

一つのカメラ端末装置1において、撮影した映像中に捜索対象者の顔画像が映っている場合、画像認識部12において捜索対象者の顔画像と一致する顔画像が存在していることを認識する(S62)。捜索対象者の顔画像と一致する顔画像を認識したカメラ端末装置1は、図5のステップS12およびS13と同様にサーバ装置7へ収集情報を送信し、サーバ装置7では同図のステップS14と同様に収集情報をデータ蓄積部74に保存する。 When the face image of the search target person is displayed in the captured image in one camera terminal device 1, the image recognition unit 12 recognizes that the face image matching the face image of the search target person exists. (S62). The camera terminal device 1 that recognizes the face image that matches the face image of the search target person transmits the collected information to the server device 7 in the same manner as in steps S12 and S13 of FIG. Similarly, the collected information is stored in the data storage unit 74.

サーバ装置7の制御部75は、捜索対象者の顔画像と一致する顔画像を認識したカメラ端末装置1、即ち捜索対象者の位置から所定の距離範囲内に位置するカメラ端末装置1を、ステップS61で受信した各カメラ端末装置1の位置情報に基づいて抽出する(S63)。尚、所定の距離範囲は、例えば数km〜数十kmとするが、この範囲に限られるものではない。 The control unit 75 of the server device 7 steps the camera terminal device 1 that recognizes the face image that matches the face image of the search target person, that is, the camera terminal device 1 located within a predetermined distance range from the position of the search target person. Extraction is performed based on the position information of each camera terminal device 1 received in S61 (S63). The predetermined distance range is, for example, several km to several tens of km, but is not limited to this range.

サーバ装置7の制御部75は、抽出したカメラ端末装置1に対し、Z(所定値)分前から現時刻までの間に撮影された映像データを送信するよう要求し、映像データを取得する(S64)。所定値のZは例えば数分〜数十分とするが、この範囲に限られるものではない。 The control unit 75 of the server device 7 requests the extracted camera terminal device 1 to transmit the video data captured between Z (predetermined value) minutes before and the current time, and acquires the video data ( S64). The predetermined value of Z is, for example, several minutes to several tens of minutes, but is not limited to this range.

サーバ装置7の画像処理部73は、ステップS64で取得した映像データに対して捜索対象者の顔画像の認識処理を実行し(S65)、捜索対象者が認識されたか否かを判定する(S66)。尚、サーバ装置7で実行する顔画像の認識処理は、カメラ端末装置1で行う顔画像の認識処理と比較し、認識処理時のシステムのリソース(処理能力)が多くなるものの、顔画像認識の精度が高くなるような手法およびシステム構成とするとよい。 The image processing unit 73 of the server device 7 executes the recognition process of the face image of the search target person on the video data acquired in step S64 (S65), and determines whether or not the search target person is recognized (S66). ). The face image recognition process executed by the server device 7 has more system resources (processing capacity) during the recognition process than the face image recognition process performed by the camera terminal device 1, but the face image recognition. The method and system configuration should be such that the accuracy is high.

ステップS66において捜索対象者が認識されたと判定した場合(S66:YES)、ステップS62で捜索対象者を認識したカメラ端末装置1から一定の距離範囲内にある捜索者(即ち、表示端末6)に対し、ステップS65で捜索対象者が認識された映像データを送信したカメラ端末装置1の位置情報と、捜索対象者が認識された映像データ上の時刻と、映像データから切り出された顔部分の画像を配信し(S67)、処理を終了する。ステップS66において捜索対象者が認識されないと判定した場合(S66:NO)、処理を終了する。 When it is determined in step S66 that the search target person is recognized (S66: YES), the searcher (that is, the display terminal 6) within a certain distance range from the camera terminal device 1 that recognizes the search target person in step S62 On the other hand, the position information of the camera terminal device 1 that transmitted the video data recognized by the search target person in step S65, the time on the video data recognized by the search target person, and the image of the face portion cut out from the video data. Is delivered (S67), and the process is terminated. When it is determined in step S66 that the search target person is not recognized (S66: NO), the process ends.

サーバ装置7の画像処理部73は、Z分前からの映像データを所定の距離範囲内のカメラ端末装置1から取得することで、現時刻までの間に周辺のカメラ端末装置1に撮影されている捜索対象者を見つけ出すことができる。これにより、捜索対象者を探し出す際に、カメラ端末装置1およびサーバ装置7の間における通信ネットワーク9に対する通信帯域の抑制や、通信量の削減、および捜索対象者の認識率を向上することが可能となる。 The image processing unit 73 of the server device 7 acquires the video data from Z minutes before from the camera terminal device 1 within a predetermined distance range, so that the image processing unit 73 is photographed by the surrounding camera terminal device 1 by the current time. You can find out who you are searching for. Thereby, when searching for the search target person, it is possible to suppress the communication band with respect to the communication network 9 between the camera terminal device 1 and the server device 7, reduce the communication amount, and improve the recognition rate of the search target person. It becomes.

次に、上述の各実施形態に係る情報収集システム100、カメラ端末装置1、情報収集方法および情報収集プログラムの特徴を説明する。
実施形態に係る情報収集システム100は、カメラ端末装置1と、サーバ装置7とを備える。カメラ端末装置1は、捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部としての通信部14、および撮影した映像から対象顔画像情報に一致する画像を認識する画像認識部12を有する。サーバ装置7は、カメラ端末装置1へ対象顔画像情報を送出する対象情報送出部としての通信部71、および画像認識部12によって一致する画像が認識された場合に、カメラ端末装置1から取得した映像の中で対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理部73を有する。これにより、情報収集システム100は、捜索対象者の画像に基づいて、捜索対象者の周辺に存在した人物を検出して追加情報を収集することができる。
Next, the features of the information collection system 100, the camera terminal device 1, the information collection method, and the information collection program according to each of the above-described embodiments will be described.
The information collection system 100 according to the embodiment includes a camera terminal device 1 and a server device 7. The camera terminal device 1 has a communication unit 14 as a target information acquisition unit that acquires target face image information related to the face image of the search target person, and an image recognition unit 12 that recognizes an image that matches the target face image information from the captured video. Has. The server device 7 is acquired from the camera terminal device 1 when a matching image is recognized by the communication unit 71 as the target information transmission unit for transmitting the target face image information to the camera terminal device 1 and the image recognition unit 12. It has an image processing unit 73 that detects a face image appearing around a face image that matches the target face image information in the video. As a result, the information collection system 100 can detect a person existing in the vicinity of the search target person and collect additional information based on the image of the search target person.

また画像処理部73は、対象顔画像情報に一致する顔画像の位置から所定の範囲内に存在する顔画像を検出する。これにより、情報収集システム100は、捜索対象者の周辺に存在した人物を所定の範囲内で検出することで、新たに検出される捜索対象者以外の顔画像の捜索における有用性が増す。 Further, the image processing unit 73 detects a face image existing within a predetermined range from the position of the face image that matches the target face image information. As a result, the information collecting system 100 detects a person existing in the vicinity of the search target person within a predetermined range, and thus becomes more useful in the search for a face image other than the newly detected search target person.

また画像処理部73は、対象顔画像情報に一致する顔画像が認識された映像、および所定時間を経過した後に対象顔画像情報に一致する顔画像が認識された映像に共通して映っている顔画像を検出する。これにより、情報収集システム100は、捜索対象者の周辺で2回以上検出される人物を検出し、捜索作業の効率を向上することができる。 Further, the image processing unit 73 is commonly displayed in the image in which the face image matching the target face image information is recognized and the image in which the face image matching the target face image information is recognized after a predetermined time has elapsed. Detects a face image. As a result, the information collecting system 100 can detect a person who is detected twice or more in the vicinity of the search target person, and can improve the efficiency of the search work.

また画像処理部73は、対象顔画像情報に一致した顔画像の範囲よりも大きい範囲で画像を切り出す。これにより、情報収集システム100は、捜索対象者の衣類や所持している物などを把握することができ、捜索作業の効率を向上することが可能となる。 Further, the image processing unit 73 cuts out an image in a range larger than the range of the face image that matches the target face image information. As a result, the information collecting system 100 can grasp the clothes and possessions of the person to be searched, and can improve the efficiency of the search work.

また画像処理部73は、切り出した画像に映っている服装に関する情報を抽出する。これにより、情報収集システム100は、捜索対象者の服装を把握することができ、捜索作業の効率を向上することが可能となる。 Further, the image processing unit 73 extracts information about clothes reflected in the cut-out image. As a result, the information collecting system 100 can grasp the clothes of the search target person, and can improve the efficiency of the search work.

実施形態に係る情報収集システム100は、カメラ端末装置1と、サーバ装置7とを備える。カメラ端末装置1は、捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部としての通信部14、および撮影した映像から対象顔画像情報に一致する画像を認識する画像認識部12を有する。サーバ装置7は、カメラ端末装置1へ対象顔画像情報を送出する対象情報送出部としての通信部71、および画像認識部12によって一致する画像が認識された場合に、カメラ端末装置1から所定の距離範囲内に存在する他のカメラ端末装置1から映像データを取得し、所得した映像データの中で対象顔画像情報に一致する画像を認識する画像処理部73を有する。これにより、情報収集システム100は、捜索対象者を探し出す際に、カメラ端末装置1およびサーバ装置7の間における通信ネットワーク9に対する通信帯域の抑制や、通信量の削減、および捜索対象者の認識率を向上することが可能となる。 The information collection system 100 according to the embodiment includes a camera terminal device 1 and a server device 7. The camera terminal device 1 has a communication unit 14 as a target information acquisition unit that acquires target face image information related to the face image of the search target person, and an image recognition unit 12 that recognizes an image that matches the target face image information from the captured video. Has. The server device 7 is determined by the camera terminal device 1 when a matching image is recognized by the communication unit 71 as the target information transmission unit that transmits the target face image information to the camera terminal device 1 and the image recognition unit 12. It has an image processing unit 73 that acquires video data from another camera terminal device 1 existing within a distance range and recognizes an image that matches the target face image information among the income video data. As a result, when searching for the search target person, the information collection system 100 suppresses the communication band with respect to the communication network 9 between the camera terminal device 1 and the server device 7, reduces the communication amount, and recognizes the search target person. Can be improved.

実施形態に係るカメラ端末装置1は、対象情報取得部としての通信部14と、画像認識部12と、画像処理部20とを備える。通信部14は、捜索対象者の顔画像に関する対象顔画像情報を取得する。画像認識部12は、撮影した映像から対象顔画像情報に一致する画像を認識する。画像処理部20は、画像認識部12によって一致する画像が認識された場合に、対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する。これにより、カメラ端末装置1は、捜索対象者の周囲に存在した人物を検出して追加情報を収集することができる。 The camera terminal device 1 according to the embodiment includes a communication unit 14 as a target information acquisition unit, an image recognition unit 12, and an image processing unit 20. The communication unit 14 acquires the target face image information regarding the face image of the search target person. The image recognition unit 12 recognizes an image that matches the target face image information from the captured image. When the image recognition unit 12 recognizes a matching image, the image processing unit 20 detects a face image appearing around the face image that matches the target face image information. As a result, the camera terminal device 1 can detect a person existing around the search target person and collect additional information.

情報収集方法は、対象情報取得ステップと、画像認識ステップと、画像処理ステップとを備える。対象情報取得ステップは、捜索対象者の顔画像に関する対象顔画像情報を取得する。画像認識ステップは、撮影した映像から対象顔画像情報に一致する画像を認識する。画像処理ステップは、画像認識ステップによって一致する画像が認識された場合に、映像の中で前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する。この情報収集方法によれば、捜索対象者の周囲に存在した人物を検出して追加情報を収集することができる。 The information collecting method includes a target information acquisition step, an image recognition step, and an image processing step. The target information acquisition step acquires target face image information regarding the face image of the search target person. The image recognition step recognizes an image that matches the target face image information from the captured image. When the matching image is recognized by the image recognition step, the image processing step detects a face image appearing around the face image matching the target face image information in the video. According to this information gathering method, it is possible to detect a person existing around the search target person and collect additional information.

情報収集プログラムは、対象情報取得ステップと、画像認識ステップと、画像処理ステップとをコンピュータに実行させる。対象情報取得ステップは、捜索対象者の顔画像に関する対象顔画像情報を取得する。画像認識ステップは、撮影した映像から対象顔画像情報に一致する画像を認識する。画像処理ステップは、画像認識ステップによって一致する画像が認識された場合に、映像の中で前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する。この情報収集プログラムによれば、捜索対象者の周囲に存在した人物を検出して追加情報を収集することができる。 The information collection program causes a computer to execute a target information acquisition step, an image recognition step, and an image processing step. The target information acquisition step acquires target face image information regarding the face image of the search target person. The image recognition step recognizes an image that matches the target face image information from the captured image. When the matching image is recognized by the image recognition step, the image processing step detects a face image appearing around the face image matching the target face image information in the video. According to this information gathering program, it is possible to detect the person who existed around the search target person and collect additional information.

以上、本発明の実施の形態をもとに説明した。これらの実施の形態は例示であり、いろいろな変形および変更が本発明の特許請求範囲内で可能なこと、またそうした変形例および変更も本発明の特許請求の範囲にあることは当業者に理解されるところである。従って、本明細書での記述および図面は限定的ではなく例証的に扱われるべきものである。 The above description has been made based on the embodiment of the present invention. It will be appreciated by those skilled in the art that these embodiments are exemplary and that various modifications and modifications are possible within the claims of the invention, and that such modifications and modifications are also within the claims of the present invention. It is about to be done. Therefore, the descriptions and drawings herein should be treated as exemplary rather than limiting.

1 カメラ端末装置、 12 画像認識部、 14 通信部(対象情報取得部)、
20 画像処理部、 7 サーバ装置、 71 通信部(対象情報送出部)、
73 画像処理部、 100 情報収集システム。
1 camera terminal device, 12 image recognition unit, 14 communication unit (target information acquisition unit),
20 Image processing unit, 7 Server device, 71 Communication unit (target information transmission unit),
73 Image processing unit, 100 Information collection system.

Claims (7)

捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部、および撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識部を有するカメラ端末装置と、
前記カメラ端末装置へ前記対象顔画像情報を送出する対象情報送出部、および前記画像認識部によって一致する画像が認識された場合に、前記カメラ端末装置から取得した映像の中で前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理部を有するサーバ装置と、
を備えることを特徴とする情報収集システム。
A camera terminal device having a target information acquisition unit that acquires target face image information related to the face image of the search target person, and an image recognition unit that recognizes an image that matches the target face image information from the captured image.
When a matching image is recognized by the target information transmitting unit that transmits the target face image information to the camera terminal device and the image recognition unit, the target face image information is included in the image acquired from the camera terminal device. A server device having an image processing unit that detects a face image appearing around the face image that matches
An information gathering system characterized by being equipped with.
前記画像処理部は、前記対象顔画像情報に一致する顔画像が認識された映像、および所定時間を経過した後に前記対象顔画像情報に一致する顔画像が認識された映像に共通して映っている顔画像を検出することを特徴とする請求項1に記載の情報収集システム。 The image processing unit is commonly displayed on an image in which a face image matching the target face image information is recognized and an image in which a face image matching the target face image information is recognized after a lapse of a predetermined time. The information gathering system according to claim 1, wherein the face image is detected. 前記画像処理部は、前記対象顔画像情報に一致した顔画像の範囲よりも大きい範囲で画像を切り出し、切り出した画像に映っている服装に関する情報を抽出することを特徴とする請求項1または2に記載の情報収集システム。 Claim 1 or 2 is characterized in that the image processing unit cuts out an image in a range larger than the range of the face image matching the target face image information, and extracts information on clothes reflected in the cut out image. Information gathering system described in. 捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部、および撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識部を有するカメラ端末装置と、
前記カメラ端末装置へ前記対象顔画像情報を送出する対象情報送出部、および前記画像認識部によって一致する画像が認識された場合に、前記カメラ端末装置から所定の距離範囲内に存在する他のカメラ端末装置から映像データを取得し、所得した映像データの中で前記対象顔画像情報に一致する画像を認識する画像処理部を有するサーバ装置と、
を備えることを特徴とする情報収集システム。
A camera terminal device having a target information acquisition unit that acquires target face image information related to the face image of the search target person, and an image recognition unit that recognizes an image that matches the target face image information from the captured image.
When the target information transmitting unit that transmits the target face image information to the camera terminal device and the image recognition unit recognize a matching image, another camera existing within a predetermined distance range from the camera terminal device. A server device having an image processing unit that acquires video data from a terminal device and recognizes an image that matches the target face image information in the income video data.
An information gathering system characterized by being equipped with.
捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得部と、
撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識部と、
前記画像認識部によって一致する画像が認識された場合に、前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理部と、
を備えることを特徴とするカメラ端末装置。
The target information acquisition unit that acquires the target face image information related to the face image of the search target person,
An image recognition unit that recognizes an image that matches the target face image information from the captured image,
When a matching image is recognized by the image recognition unit, an image processing unit that detects a face image appearing around the face image that matches the target face image information, and an image processing unit.
A camera terminal device characterized by being provided with.
捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得ステップと、
撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識ステップと、
前記画像認識ステップによって一致する画像が認識された場合に、映像の中で前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理ステップと、
を備えることを特徴とする情報収集方法。
Target information acquisition step to acquire target face image information related to the face image of the search target person,
An image recognition step that recognizes an image that matches the target face image information from the captured image, and
When a matching image is recognized by the image recognition step, an image processing step of detecting a face image appearing around the face image matching the target face image information in the video, and an image processing step.
An information gathering method characterized by providing.
捜索対象者の顔画像に関する対象顔画像情報を取得する対象情報取得ステップと、
撮影した映像から前記対象顔画像情報に一致する画像を認識する画像認識ステップと、
前記画像認識ステップによって一致する画像が認識された場合に、映像の中で前記対象顔画像情報に一致した顔画像の周囲に映っている顔画像を検出する画像処理ステップと、
をコンピュータに実行させることを特徴とする情報収集プログラム。
Target information acquisition step to acquire target face image information related to the face image of the search target person,
An image recognition step that recognizes an image that matches the target face image information from the captured image, and
When a matching image is recognized by the image recognition step, an image processing step of detecting a face image appearing around the face image matching the target face image information in the video, and an image processing step.
An information gathering program characterized by having a computer execute.
JP2019158021A 2019-08-30 2019-08-30 Information collection system, camera terminal device, information collection method and information collection program Pending JP2021036646A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019158021A JP2021036646A (en) 2019-08-30 2019-08-30 Information collection system, camera terminal device, information collection method and information collection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158021A JP2021036646A (en) 2019-08-30 2019-08-30 Information collection system, camera terminal device, information collection method and information collection program

Publications (1)

Publication Number Publication Date
JP2021036646A true JP2021036646A (en) 2021-03-04

Family

ID=74716738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158021A Pending JP2021036646A (en) 2019-08-30 2019-08-30 Information collection system, camera terminal device, information collection method and information collection program

Country Status (1)

Country Link
JP (1) JP2021036646A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022122994A (en) * 2021-06-10 2022-08-23 阿波▲羅▼智▲聯▼(北京)科技有限公司 target detection system
WO2023190473A1 (en) * 2022-03-28 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 Image processing device and image processing method, image conversion device and image conversion method, ai network generation device and ai network generation method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022122994A (en) * 2021-06-10 2022-08-23 阿波▲羅▼智▲聯▼(北京)科技有限公司 target detection system
WO2023190473A1 (en) * 2022-03-28 2023-10-05 ソニーセミコンダクタソリューションズ株式会社 Image processing device and image processing method, image conversion device and image conversion method, ai network generation device and ai network generation method, and program

Similar Documents

Publication Publication Date Title
US7423669B2 (en) Monitoring system and setting method for the same
KR101425170B1 (en) Object tracking apparatus and method of camera and secret management system
US20170126907A1 (en) Information processing device, photographing device, image sharing system, method of information processing, and program
CN105279480A (en) Method of video analysis
JP2008017093A (en) Monitoring system, monitoring device, and monitoring method
WO2007063970A1 (en) Monitor camera system and face image trace recording method
US10838460B2 (en) Monitoring video analysis system and monitoring video analysis method
JP2007259415A (en) Image processing apparatus and image processing method, server and control method of the same, and program and storage medium
JP2021036646A (en) Information collection system, camera terminal device, information collection method and information collection program
US20230206093A1 (en) Music recommendation method and apparatus
KR102344435B1 (en) Safety control service system unsing artifical intelligence
CN113378616A (en) Video analysis method, video analysis management method and related equipment
JP2018018150A (en) Crime prevention system, crime prevention method, and robot
CN108540707A (en) Recognition of face crime scene investigation device
JP2015128259A (en) Image processing device, photographing device, photographing system, image processing method, and computer program
US20220051012A1 (en) Authentication system, authentication method, and storage medium
JP2006093955A (en) Video processing apparatus
JP2006080644A (en) Camera
CN111914673B (en) Method and device for detecting target behavior and computer readable storage medium
CN111126288B (en) Target object attention calculation method, target object attention calculation device, storage medium and server
KR102077632B1 (en) Hybrid intellgent monitoring system suing local image analysis and cloud service
CN110490104A (en) A kind of monitoring system and monitoring method reducing tramp's conflict
CN113010009B (en) Object sharing method and device
JP6443144B2 (en) Information output device, information output program, information output method, and information output system
JP6749623B1 (en) Authentication method, its system and management server