JP6403784B2 - Surveillance camera system - Google Patents

Surveillance camera system Download PDF

Info

Publication number
JP6403784B2
JP6403784B2 JP2016545500A JP2016545500A JP6403784B2 JP 6403784 B2 JP6403784 B2 JP 6403784B2 JP 2016545500 A JP2016545500 A JP 2016545500A JP 2016545500 A JP2016545500 A JP 2016545500A JP 6403784 B2 JP6403784 B2 JP 6403784B2
Authority
JP
Japan
Prior art keywords
monitoring camera
information
camera
feature amount
surveillance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016545500A
Other languages
Japanese (ja)
Other versions
JPWO2016031720A1 (en
Inventor
忠和 角戸
忠和 角戸
山口 宗明
宗明 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2016031720A1 publication Critical patent/JPWO2016031720A1/en
Application granted granted Critical
Publication of JP6403784B2 publication Critical patent/JP6403784B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明は、監視カメラで撮影した映像を基にして、画像認識技術によって、人物、車(二輪車含む)、動物などの物体の情報を抽出する監視カメラシステムに係り、特に、画像認識による処理負荷を低減することができ、また、効率の良い画像検索が可能な監視カメラシステムに関する。   The present invention relates to a surveillance camera system that extracts information on an object such as a person, a car (including a two-wheeled vehicle), or an animal based on an image captured by a surveillance camera using an image recognition technique, and in particular, a processing load due to image recognition. In addition, the present invention relates to a surveillance camera system capable of reducing image quality and enabling efficient image search.

近年、画像を伝送するためのデータ量は日々増加している。2011年に切替わった地上デジタル放送の影響もあり、一般的に使用される画像の解像度はこれまでのアナログ解像度(720pix×480pix)からFull HD(High-Definition)解像度(1920pix×1080pix)へと変化している。また、さらに高解像度化する流れがある。
駅や空港、ビルや河川といった様々なロケーションで使用される監視カメラにおいても、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサの高精細化が進み、解像度は従来のアナログ解像度から飛躍的に向上した。
その一方で、監視カメラで撮影した映像から、人物、車(二輪車含む)、動物などの物体の様々な情報を検出する画像認識技術も向上している。
In recent years, the amount of data for transmitting images is increasing day by day. Due to the influence of terrestrial digital broadcasting that was switched in 2011, the resolution of commonly used images has changed from the conventional analog resolution (720pix × 480pix) to the Full HD (High-Definition) resolution (1920pix × 1080pix). It has changed. There is also a trend for higher resolution.
In surveillance cameras used in various locations such as stations, airports, buildings, and rivers, CCD (Charge Coupled Device) and CMOS (Complementary Metal-Oxide Semiconductor) sensors have become more sophisticated, and the resolution has been reduced from the conventional analog resolution. Dramatically improved.
On the other hand, image recognition technology for detecting various kinds of information such as a person, a car (including a two-wheeled vehicle), and an animal from an image taken by a surveillance camera is also improved.

従来、画像認識技術等を用いて、監視カメラ等で撮影され或いは記録された映像(動画像)の中から、所望の人物をコンピュータに検索させる人物検索システムが知られている(例えば、特許文献1乃至4参照)。このような、タグ付け等の外部情報に拠らずに画像そのものの特徴に基づいて検索する技術は、一般にCBIR(Content-Based Image Retrieval)と呼ばれ、人物の検索にも利用され始めている。
特許文献1は、画像から人物(の顔)が映った部分を切出し、人物を個々に特定するための特徴量として色ヒストグラム等を抽出し、この特徴量が所望の人物のものと類似する場合に同一人物であると推定する、映像検索システムおよび人物検索方法を開示している。
2. Description of the Related Art Conventionally, there has been known a person search system that allows a computer to search for a desired person from video (moving images) captured or recorded by a surveillance camera or the like using an image recognition technique or the like (for example, Patent Documents). 1 to 4). Such a technique for searching based on the characteristics of an image itself without relying on external information such as tagging is generally called CBIR (Content-Based Image Retrieval), and has begun to be used for searching for a person.
Japanese Patent Application Laid-Open No. 2004-228688 extracts a portion in which a person (face) appears from an image, extracts a color histogram or the like as a feature quantity for individually identifying the person, and the feature quantity is similar to that of a desired person A video search system and a person search method that presume that they are the same person are disclosed.

ある程度の精度で同一人物であるかどうか判断できるようになると、特許文献2のように、複数の異なるカメラで異なる時刻に撮影された同じ人物を紐付けることによって、1台のカメラによる場合とは比較にならないほど広いエリアで、人物の移動を追跡できるようになり、様々な応用が提案されている。例えば、特許文献3は、撮影映像を検索して人の移動経路を特定し、その移動経路をセキュリティ管理に用いる画像セキュリティシステムを開示している。また、特許文献4は、駅ホームにおける利用者の行動が特異であるかどうかを判定する安全管理装置を開示している。   When it is possible to determine whether or not they are the same person with a certain degree of accuracy, as in Patent Document 2, by linking the same person taken at different times with a plurality of different cameras, It has become possible to track the movement of a person in an area that is too large to compare, and various applications have been proposed. For example, Patent Document 3 discloses an image security system that searches a captured video, specifies a movement path of a person, and uses the movement path for security management. Moreover, patent document 4 is disclosing the safety management apparatus which determines whether the user's action in a station platform is peculiar.

特開2009−027393号公報JP 2009-027393 A 特許第4700477号公報Japanese Patent No. 4700477 特開2012−068717号公報JP 2012-068717 A 特開2010−205191号公報JP 2010-205191 A

図8は、従来の一般的な監視カメラシステムの構成の一例を示す図である。
従来の監視カメラシステム100は、図8に示すように、所定の監視エリアを撮影する複数の監視カメラ110−1,110−2,・・・(以下、これら監視カメラ110−1,110−2,・・・を区別しない場合には、単に監視カメラ110という)と、監視カメラ110から送信された映像を基にして、画像認識技術によって、人物、車(二輪車含む)、動物などの物体の情報を抽出する画像認識手段を備えた制御端末150と、制御端末150で抽出した物体情報を表示する表示端末60と、監視カメラ110、制御端末150及び表示端末60がネットワーク回線70を介して互いに接続された構成となっている。
FIG. 8 is a diagram illustrating an example of a configuration of a conventional general surveillance camera system.
As shown in FIG. 8, the conventional surveillance camera system 100 includes a plurality of surveillance cameras 110-1, 110-2,... (Hereinafter referred to as these surveillance cameras 110-1, 110-2). ,... Are simply referred to as the surveillance camera 110), and based on the video transmitted from the surveillance camera 110, an object such as a person, a car (including a two-wheeled vehicle), an animal, etc. A control terminal 150 having image recognition means for extracting information, a display terminal 60 for displaying object information extracted by the control terminal 150, a monitoring camera 110, a control terminal 150, and a display terminal 60 are connected to each other via a network line 70. It is a connected configuration.

前述の通り、様々なロケーションで使用される監視カメラシステム100では、通常、監視カメラ110からの映像は、無線LAN、有線LAN等のネットワーク回線70やIP回線や同軸ケーブルなどによって制御端末150に送られる。制御端末150では、監視カメラ110から送られてきた映像から、画像認識手段で、所定の物体に関する様々な情報を解析および検出し、その結果を管理者が監視を行っている表示端末60の映像モニタへと出力する。管理者は表示される情報を用いて監視業務を行う。
このような従来の監視カメラシステム100においては、映像を送信してくる監視カメラ110の台数が増えるにしたがって、情報解析を行う制御端末150での処理負荷がその台数に比例して増大する。また、制御端末150での処理負荷が増大すれば、当然処理する時間も長くなってしまい、リアルタイム性が求められる監視カメラシステム100では、この処理の遅延が問題となっている。
As described above, in the surveillance camera system 100 used in various locations, the video from the surveillance camera 110 is normally sent to the control terminal 150 via a network line 70 such as a wireless LAN or a wired LAN, an IP line, a coaxial cable, or the like. It is done. In the control terminal 150, the image recognition unit analyzes and detects various information about a predetermined object from the video sent from the monitoring camera 110, and the video of the display terminal 60 that is monitored by the administrator is displayed. Output to the monitor. The administrator performs monitoring work using the displayed information.
In such a conventional surveillance camera system 100, as the number of surveillance cameras 110 that transmit images increases, the processing load on the control terminal 150 that performs information analysis increases in proportion to the number. Further, if the processing load on the control terminal 150 increases, the processing time naturally increases, and in the monitoring camera system 100 that requires real-time performance, this processing delay is a problem.

本発明は、このような従来の事情に鑑みなされたものであり、それぞれの監視カメラが画像認識手段を備え、画像認識した情報を監視カメラ同士で相互にやりとりすることにより、制御端末での画像認識に関する処理負荷が軽減でき、また、システム全体での処理負荷および処理時間を低減させることが可能な監視カメラシステムを提供することを目的とする。   The present invention has been made in view of such a conventional situation, and each monitoring camera includes an image recognition unit, and image information at the control terminal is exchanged between the monitoring cameras. It is an object of the present invention to provide a surveillance camera system that can reduce the processing load related to recognition and can reduce the processing load and processing time of the entire system.

上記目的を達成するための本発明に係る監視カメラシステムは、監視対象区域内を撮影する監視カメラと、前記監視カメラで撮影した画像を表示する表示端末と、前記監視カメラを制御する制御端末と、から構成される監視カメラシステムにおいて、前記監視カメラは、自身で撮影した画像を基に画像認識し、特定の物体情報を抽出する画像解析手段と、前記画像解析手段で抽出した前記特定の物体情報を他の監視カメラとの間で相互にやり取りする情報通信手段と、を備えたことを特徴とする。   In order to achieve the above object, a surveillance camera system according to the present invention comprises a surveillance camera that takes an image of a surveillance area, a display terminal that displays an image taken by the surveillance camera, and a control terminal that controls the surveillance camera; In the surveillance camera system, the surveillance camera recognizes an image based on an image taken by itself, extracts specific object information, and the specific object extracted by the image analysis means. And an information communication means for exchanging information with other surveillance cameras.

また、上記目的を達成するための本発明に係る上記監視カメラシステムにおいて、前記監視カメラは、前記画像解析手段で抽出した前記所定の物体情報を前記制御端末に送信し、前記制御端末は、前記監視カメラから送信された前記所定の物体情報を前記表示端末に通知し、前記表示端末は、前記制御端末から通知された前記所定の物体情報を表示部に表示することを特徴とする。   In the monitoring camera system according to the present invention for achieving the above object, the monitoring camera transmits the predetermined object information extracted by the image analysis means to the control terminal, and the control terminal The predetermined object information transmitted from the monitoring camera is notified to the display terminal, and the display terminal displays the predetermined object information notified from the control terminal on a display unit.

また、上記目的を達成するための本発明に係る上記監視カメラシステムにおいて、前記監視カメラから他の監視カメラまたは前記制御端末に送信される前記所定の物体情報には、カメラID、物体検出時の特徴量、時刻情報および位置情報が含まれることを特徴とする。   In the monitoring camera system according to the present invention for achieving the above object, the predetermined object information transmitted from the monitoring camera to another monitoring camera or the control terminal includes a camera ID and an object detection time. A feature amount, time information, and position information are included.

本発明によれば、それぞれの監視カメラが画像認識手段を備え、画像認識した情報を監視カメラ同士で相互にやりとりすることにより、制御端末での画像認識に関する処理負荷が軽減でき、また、システム全体での処理負荷および処理時間を低減させることができる。   According to the present invention, each monitoring camera includes an image recognition means, and the processing information relating to image recognition at the control terminal can be reduced by exchanging the image-recognized information between the monitoring cameras. The processing load and processing time can be reduced.

本発明の実施形態1に係る監視カメラシステムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the surveillance camera system which concerns on Embodiment 1 of this invention. 図1に示した監視カメラ10の映像蓄積サーバ30の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the video storage server 30 of the monitoring camera 10 shown in FIG. 図1に示した監視カメラ10の画像解析部40の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image analysis part 40 of the monitoring camera 10 shown in FIG. 図1に示した表示端末60の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the display terminal 60 shown in FIG. 図1に示した制御端末50の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the control terminal 50 shown in FIG. 本発明の実施形態1に係る監視カメラシステムにおける特定人物検索処理を説明するためのタイムチャートである。It is a time chart for demonstrating the specific person search process in the surveillance camera system which concerns on Embodiment 1 of this invention. 本発明の実施形態2に係る監視カメラシステムにおける監視カメラ同士で情報を共有した場合の特定人物検索処理を説明するためのタイムチャートである。It is a time chart for demonstrating the specific person search process at the time of sharing information between the surveillance cameras in the surveillance camera system which concerns on Embodiment 2 of this invention. 従来の一般的な監視カメラシステムの構成の一例を示す図である。It is a figure which shows an example of a structure of the conventional general surveillance camera system.

<実施形態1> 以下、本発明の実施形態1に係る監視カメラシステムについて説明する。
本発明の実施形態1に係る監視カメラシステム1は、監視カメラが自身で撮影した画像を基に画像認識し、物体の情報を抽出する手段と、他の監視カメラとの間で相互に物体情報をやり取りする手段とを有することにより、監視カメラが、監視者から指示された、例えば、人物、またはその人物の顔、等の特定部位を、自身で撮影した画像の中から、画像認識によって情報抽出すると共に、抽出した情報を他の監視カメラと共有することで、制御端末での画像認識に関する処理負荷を軽減させると共に、監視カメラ同士が相互に物体情報をやりとりすることで、システム全体の処理負荷及び処理時間を低減させることができる。
Embodiment 1 Hereinafter, a surveillance camera system according to Embodiment 1 of the present invention will be described.
The surveillance camera system 1 according to Embodiment 1 of the present invention recognizes object information between a unit that recognizes an image based on an image captured by the surveillance camera and extracts information on the object, and another surveillance camera. By means of image recognition, the surveillance camera is informed by image recognition from among images taken by itself, for example, a person or a specific part of the person's face, etc., instructed by the supervisor. By extracting and sharing the extracted information with other surveillance cameras, the processing load related to image recognition on the control terminal is reduced, and the surveillance cameras exchange object information with each other, thereby processing the entire system. Load and processing time can be reduced.

〔監視カメラシステムの制御構成〕 本発明の実施形態1に係る監視カメラシステムの制御構成について、図1を参照して説明する。図1は、本発明の実施形態1に係る監視カメラシステムの構成の一例を示すブロック図である。
本発明の実施形態1に係る監視カメラシステム1は、監視カメラ10−1,10−2(以下、監視カメラ10−1,10−2を区別しない場合には、単に監視カメラ10という)と、制御端末50と、表示端末60と、監視カメラ10、制御端末50及び表示端末60とがネットワーク回線70を介して互いに接続された構成となっている。
なお、図1において、図8と同様の構成については同じ部番を付している。
[Control Configuration of Monitoring Camera System] A control configuration of the monitoring camera system according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the configuration of a surveillance camera system according to Embodiment 1 of the present invention.
The surveillance camera system 1 according to the first embodiment of the present invention includes surveillance cameras 10-1 and 10-2 (hereinafter simply referred to as surveillance camera 10 when the surveillance cameras 10-1 and 10-2 are not distinguished), The control terminal 50, the display terminal 60, the monitoring camera 10, the control terminal 50, and the display terminal 60 are connected to each other via a network line 70.
In FIG. 1, the same parts as those in FIG.

〔監視カメラの制御構成〕 図1に示すように、監視カメラ10は、撮像部20と、映像蓄積サーバ30と、画像解析部40とから構成されている。
撮像部20は、監視対象区域内を撮影し、撮影した画像データを映像蓄積サーバ30および画像解析部40に出力する。
[Control Configuration of Monitoring Camera] As shown in FIG. 1, the monitoring camera 10 includes an imaging unit 20, a video storage server 30, and an image analysis unit 40.
The imaging unit 20 captures an image of the monitored area and outputs the captured image data to the video storage server 30 and the image analysis unit 40.

次に、本発明の実施形態1に係る監視カメラ10の映像蓄積サーバ30の構成について、図2を参照して説明する。図2は、図1に示した監視カメラ10の映像蓄積サーバ30の構成の一例を示すブロック図である。
映像蓄積サーバ30は、撮像部20に映像送信要求を送り、撮像部20から画像データを受信して蓄積する。また蓄積した画像を、画像解析部40等からの求めに応じて提供する。
図2に示すように、映像蓄積サーバ30は、機能構成として、映像入力部31、記録配信制御部32、Webサーバ部33、ストレージ34、設定保持部35を有する。
Next, the configuration of the video storage server 30 of the surveillance camera 10 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the configuration of the video storage server 30 of the monitoring camera 10 shown in FIG.
The video storage server 30 sends a video transmission request to the imaging unit 20 and receives and stores image data from the imaging unit 20. The accumulated image is provided in response to a request from the image analysis unit 40 or the like.
As shown in FIG. 2, the video storage server 30 includes a video input unit 31, a recording / distribution control unit 32, a Web server unit 33, a storage 34, and a setting holding unit 35 as functional configurations.

映像入力部31は、撮像部20との間で、画像を取得できる権限の確認を行う認証、画質等の指定を含む映像送信要求、また、画像データの取得を行う。   The video input unit 31 performs authentication for confirming the authority to acquire an image with the imaging unit 20, a video transmission request including designation of image quality, and acquisition of image data.

記録配信制御部32は、大容量のキャッシュメモリを有し、ストレージ34への画像データの書込みや読出しを管理する。記録の際は、画像データに加え、画像データを読出す際の情報となる画像ID(画像の識別情報)も併せて記録する。撮像部20からの画像データのストリームを、欠落することなくリアルタイムで記録しつつ読出し要求にも応える必要から、記録配信制御部32は、画像データの書込み単位やストレージ34上で記録配置を最適化するとともに、書込みや読出しのスケジューリングを行なう。またストレージ34をRAID(Redundant Arrays of Inexpensive Disks)化するために、冗長データ(パリティ)の生成や書込みの制御を行う。複数の画像データのストリームを、複数の書込みストリームに振り分けて、それらから水平パリティ等を生成することで、パリティ生成のための読出しを要しないようにしている。   The record distribution control unit 32 has a large-capacity cache memory, and manages writing and reading of image data to and from the storage 34. At the time of recording, in addition to the image data, an image ID (image identification information) serving as information for reading the image data is also recorded. The recording / distribution control unit 32 optimizes the recording arrangement in the image data writing unit and the storage 34 because the stream of the image data from the imaging unit 20 needs to be recorded in real time without being lost and meet the read request. In addition, scheduling of writing and reading is performed. In addition, in order to make the storage 34 RAID (Redundant Arrays of Inexpensive Disks), redundant data (parity) generation and writing control are performed. By dividing a plurality of image data streams into a plurality of write streams and generating horizontal parity or the like therefrom, reading for parity generation is not required.

Webサーバ部33は、画像解析部40から画像要求を受付け、記録配信制御部32に要求して読み出された画像データを、画像要求応答として返す。また、映像蓄積サーバ30の稼動状態等をWebページとして提供する。   The Web server unit 33 receives an image request from the image analysis unit 40, and returns image data read out by requesting the recording / distribution control unit 32 as an image request response. Further, the operating state of the video storage server 30 is provided as a Web page.

ストレージ34は、複数のHDD(Hard Disk Drive)やSSD(Solid State Drive)で構成されるディスクアレイであり、映像ストリームの同時複数アクセスに適した特別のファイルシステムが用いられる。例えば、1つの画像を一意に特定できる画像IDと、記録位置との対応付けを全てテーブル化すると、主記憶の容量より大きくなってしまうため、その対応付けを効率的に参照できるようにしている。記録するデータは、RAIDコントローラにより或いは個々のドライブ毎でAES(Advanced Encryption Standard)−256等による暗号化を施す。   The storage 34 is a disk array composed of a plurality of HDDs (Hard Disk Drives) and SSDs (Solid State Drives), and uses a special file system suitable for simultaneous multiple access of video streams. For example, if all the correspondences between the image IDs that can uniquely identify one image and the recording positions are tabulated, it becomes larger than the capacity of the main memory, so that the correspondence can be referred to efficiently. . Data to be recorded is encrypted by a RAID controller or by each drive according to AES (Advanced Encryption Standard) -256 or the like.

設定保持部35は、映像入力部31が撮像部20から映像を取得すべきスケジュールや、表示端末60等への再配信のスケジュール等を記憶する。   The setting holding unit 35 stores a schedule for the video input unit 31 to acquire a video from the imaging unit 20, a schedule for redistribution to the display terminal 60, and the like.

次に、本発明の実施形態1に係る監視カメラ10の画像解析部40の構成について、図3を参照して説明する。図3は、図1に示した監視カメラ10の画像解析部40の構成の一例を示すブロック図である。
画像解析部40は、図3に示すように、機能構成として、画像取得部41、顔検出・特徴量算出部42、顔登録・検索部43、顔特徴量DB44、Webサービス部45、検索トリガー部46、設定保持部47、障害通知部48を有する。
画像取得部41は、撮像部20から入力される映像や、映像蓄積サーバ30の記録画像データを、画像取得要求等を行なうことで取得する。
Next, the configuration of the image analysis unit 40 of the monitoring camera 10 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 3 is a block diagram illustrating an example of the configuration of the image analysis unit 40 of the monitoring camera 10 illustrated in FIG. 1.
As shown in FIG. 3, the image analysis unit 40 includes an image acquisition unit 41, a face detection / feature amount calculation unit 42, a face registration / search unit 43, a face feature DB 44, a Web service unit 45, a search trigger as functional configurations. Unit 46, setting holding unit 47, and failure notification unit 48.
The image acquisition unit 41 acquires the video input from the imaging unit 20 and the recorded image data of the video storage server 30 by making an image acquisition request or the like.

顔検出・特徴量算出部42は、画像取得部41が取得した画像をフレーム毎に分割し、各フレームから人の顔と推定される領域を抽出する。推定は、基本的には肌の色や、目鼻口が検出できるかどうかにより行ない、抽出した顔領域毎に、顔の領域の重心と目鼻口の相対位置から顔の向きを更に推定する。顔領域は、所定の縦横比の矩形画像として扱われるが、四隅などの顔以外の部分(背景領域)は規定色に塗りつぶされる。次に、各顔領域について、サイズ(縦及び横の画素数)、解像度、明度及びコントラスト(ヒストグラム)等の正規化処理を行う。サイズについては複数の大きさに正規化する。次に、複数のサイズ毎に、正規化された顔領域を一定サイズのブロックに分割し、ブロック毎に色や輝度、それらの勾配やエッジ、或いは勾配やエッジのパターンのヒストグラムを求め、その結果を集約した多次元ベクトルを顔特徴量として出力する。その際、抽出する元となったフレームが有していた、撮影時刻、カメラID、画像IDその他のメタデータや顔向き情報を一緒に出力する。   The face detection / feature amount calculation unit 42 divides the image acquired by the image acquisition unit 41 for each frame, and extracts an area estimated to be a human face from each frame. The estimation is basically performed based on the color of the skin and whether or not the eyes and nose can be detected, and for each extracted face area, the face direction is further estimated from the center of gravity of the face area and the relative position of the eyes and nose and mouth. The face area is handled as a rectangular image having a predetermined aspect ratio, but portions other than the face (background area) such as the four corners are filled with a prescribed color. Next, normalization processing such as size (number of vertical and horizontal pixels), resolution, brightness, and contrast (histogram) is performed on each face area. The size is normalized to a plurality of sizes. Next, the normalized face area is divided into blocks of a certain size for each of a plurality of sizes, and a color or luminance, gradient or edge thereof, or a histogram of gradient or edge pattern is obtained for each block, and the result Is output as a facial feature value. At that time, the photographing time, camera ID, image ID, and other metadata and face orientation information that the frame from which the extraction is performed have are output together.

メタデータとしては、サイズ正規化時の拡大率、顔推定の確度、顔を抽出したフレーム内での位置、同じフレーム内で抽出された複数の顔のうちの何番目かを示す抽出ID、イベントの種別等を含みうる。顔推定の確度は、顔の一部に別の物体が被った場合などに0に近づく値である。イベント種別とは、取得した画像が通常録画(配信)とアラーム録画(配信)のどちらによるものかを示す情報である。なお、顔特徴量はそのままでは数千次元を有するため、他の成分と相関の高い冗長な成分を除去するものとする。また、特徴量の次元を減らすため、Linde-Buzo-Gray法などベクトル量子化の手法を用いてもよい。   As metadata, the enlargement ratio at the time of size normalization, the accuracy of face estimation, the position in the frame from which the face is extracted, the extraction ID indicating the number of the plurality of faces extracted in the same frame, the event May be included. The accuracy of face estimation is a value that approaches 0 when another object covers a part of the face. The event type is information indicating whether the acquired image is based on normal recording (distribution) or alarm recording (distribution). Note that since the face feature amount has several thousand dimensions as it is, redundant components having high correlation with other components are removed. Further, a vector quantization method such as the Linde-Buzo-Gray method may be used in order to reduce the dimension of the feature amount.

顔登録・検索部43は、顔検出・特徴量算出部42で算出した特徴量を顔特徴量DB44へ書込む(登録)ほか、読出しや検索やその他の操作を行う。特徴量は、撮影時刻、カメラID、顔画像ID、顔向き、拡大率等の属性情報を含むレコードとして登録される。登録の際、顔登録・検索部43は特徴量をいずれかのカテゴリに分類し、そのカテゴリに対応するクラスタ(葉クラスタ)に登録する。このクラスタリングは辞書(マップ、コードブックなどとも呼ばれる)やハッシュ関数、共分散行列等を用いて多階層的に行なう。この階層クラスタリングによるデータ構造は、データマイニングの分野における多分岐の決定木と同じであり、本例でもツリーと呼ぶ。   The face registration / search unit 43 writes (registers) the feature amount calculated by the face detection / feature amount calculation unit 42 into the face feature amount DB 44, and performs reading, searching, and other operations. The feature amount is registered as a record including attribute information such as a shooting time, a camera ID, a face image ID, a face orientation, and an enlargement ratio. At the time of registration, the face registration / retrieval unit 43 classifies the feature quantity into one of the categories and registers it in a cluster (leaf cluster) corresponding to the category. This clustering is performed in a multilevel manner using a dictionary (also called a map, a code book, etc.), a hash function, a covariance matrix, or the like. The data structure by this hierarchical clustering is the same as a multi-branch decision tree in the field of data mining, and is also called a tree in this example.

辞書を使う方式として、ベクトル量子化、自己組織化写像等が知られる。辞書には、代表ベクトル(重みベクトルなどとも呼ばれる)と次に参照すべき辞書または末端クラスタ(葉クラスタ)のアドレスとの組が複数記録されており、登録対象の特徴量は、最初に最上位の辞書から全探索により最も距離の近い代表ベクトルを見つけ次の辞書に移る、ということを繰り返し、最終的に葉クラスタに到達する。葉クラスタのアドレスを指し示す辞書では、アドレスのほか、その葉クラスタが含む人物の人物IDを保持する。葉クラスタは、よく類似した複数の特徴量のレコードのデータを格納する。辞書は、最も距離の近い代表ベクトルが見つかるたびに、そのクラスタ及び近隣のクラスタの代表ベクトルを僅かに修正する、LBGやLVQなどと呼ばれるアルゴリズムにより更新する。なお、辞書に代えて特徴量ベクトルをLocality Sensitive Hashing等のハッシュ関数(識別器)でコード化したものをそのクラスタのアドレスとする方法で実現することもできる。   As a method using a dictionary, vector quantization, self-organizing mapping, and the like are known. In the dictionary, multiple pairs of representative vectors (also called weight vectors) and the address of the dictionary or terminal cluster (leaf cluster) to be referred to next are recorded. The representative vector closest to the distance is found from all the dictionaries by a full search, and the process moves to the next dictionary, and finally the leaf cluster is reached. In the dictionary indicating the address of the leaf cluster, in addition to the address, the person ID of the person included in the leaf cluster is held. The leaf cluster stores data of records having a plurality of similar features. Each time a representative vector with the closest distance is found, the dictionary is updated by an algorithm called LBG or LVQ that slightly modifies the representative vectors of the cluster and neighboring clusters. In addition, it can also implement | achieve by the method of replacing with a dictionary and using as an address of the cluster what encoded the feature-value vector with hash functions (identifier), such as Locality Sensitive Hashing.

共分散行列等を使う方式は、混合分布モデルに基づくもので、登録対象の特徴量ベクトルと、平均値ベクトルや共分散行列等との行列演算により、事後確率(対数尤度、或いはマハラノビス距離の符号を負にした値)が最大のものを選択することで分類、つまり、次に参照すべき1つ下の階層のクラスタを決める。共分散行列等のパラメータを最適化するアルゴリズムとしてEMアルゴリズムが知られる。なお、古くから知られるk-d tree法は、本例のような高次元ベクトルの探索には不適である。ただし、特徴量ベクトルの成分のうち、小さいサイズに正規化され抽出された成分に限るなどすれば、ツリーの上位において使用できる可能性がある。   A method using a covariance matrix or the like is based on a mixed distribution model, and performs a posteriori probability (logarithmic likelihood or Mahalanobis distance of a Mahalanobis distance) by performing a matrix operation between a feature quantity vector to be registered and an average value vector or a covariance matrix. Classification is performed by selecting the one having the largest sign (negative value), that is, the next lower cluster to be referred to is determined. An EM algorithm is known as an algorithm for optimizing parameters such as a covariance matrix. The k-d tree method that has been known for a long time is not suitable for searching for a high-dimensional vector as in this example. However, if only the components normalized and extracted to a small size among the components of the feature vector are used, there is a possibility that they can be used in the upper part of the tree.

各葉クラスタは、プロトタイプに対応するよう、一人の人の顔画像の分布をちょうど1つ含むサイズとなることが望ましい。葉クラスタの辞書等が保持する人物IDは、上述のクラスタリングアルゴリズムによる葉クラスタの生成、分割、統合に応じて、対応付けが維持される。ただし人物IDは、実際の個々の人物と1対1に対応するものとは限らず、葉クラスタのIDとして扱っても良い。   Each leaf cluster preferably has a size including exactly one distribution of a person's face image so as to correspond to the prototype. The person IDs held in the leaf cluster dictionary and the like are maintained in correspondence with the generation, division, and integration of the leaf clusters by the clustering algorithm described above. However, the person ID is not necessarily one-to-one corresponding to an actual individual person, and may be handled as a leaf cluster ID.

人物IDをキーにした参照を高速化するため、人物IDと対応する葉クラスタのアドレスを格納した人物IDテーブルを設けても良い。顔画像IDをキーにした参照を行ないたい場合は、顔画像IDテーブルを別途設けるか、人物IDテーブルに代表的な顔画像IDの列を加える。いずれにしても、映像蓄積サーバ30の映像から検出されうる全ての顔が顔特徴量DB44に登録されているわけではないので、顔画像IDによる検索は完全ではない。つまり、任意のフレームに映った顔をキーにして検索したい場合は、そのフレームから(再度)特徴量を抽出することになる。   In order to speed up the reference using the person ID as a key, a person ID table storing the address of the leaf cluster corresponding to the person ID may be provided. When reference is made using the face image ID as a key, a face image ID table is separately provided or a representative face image ID column is added to the person ID table. In any case, not all the faces that can be detected from the video of the video storage server 30 are registered in the face feature DB 44, so the search based on the face image ID is not complete. In other words, when it is desired to search using a face reflected in an arbitrary frame as a key, a feature amount is extracted from that frame (again).

特徴量の検索の方法は、登録と似ており、顔登録・検索部43は、与えられた特徴量をキーに、最上位のクラスタから順次、最近傍探索(NNS:Nearest neighbor search)を行ない、葉クラスタでは各レコードの特徴量とキー特徴量とのマンハッタン距離をそれぞれ求める線形(総当り)探索を行い、所望の類似度あるいは所望の数のレコードを得る。なお、葉クラスタに至るまでの複数の分類階層のどこかで1回だけ最近傍ではなく2番目に近いクラスタを選択すると、最大で階層数個の葉クラスタにたどり着く。これらの中で線形探索を行なうようにすると検索漏れを削減できる。なお、葉クラスタのサイズが、一人の人の特徴量の分布より小さくなるようにしていれば、葉クラスタでの検索は不要である。   The feature amount search method is similar to registration, and the face registration / search unit 43 performs nearest neighbor search (NNS) sequentially from the highest cluster using the given feature amount as a key. In the leaf cluster, a linear (brute force) search is performed to obtain the Manhattan distance between the feature quantity and the key feature quantity of each record, and a desired similarity or a desired number of records is obtained. Note that if a cluster closest to the second, not the nearest neighbor, is selected only once in any of a plurality of classification hierarchies up to the leaf cluster, a maximum of several leaf clusters in the hierarchy is reached. If a linear search is performed among these, search omissions can be reduced. If the size of the leaf cluster is smaller than the distribution of the feature amount of one person, the search with the leaf cluster is unnecessary.

顔特徴量DB44は、末端のクラスタが含むレコードのデータを、多階層のクラスタ化の構造(ツリー)の情報を保って保持する、HDD等の記録媒体である。また、辞書やハッシュ関数、共分散行列等のパラメータ及びそのパラメータを最適化するアルゴリズムが使用する数値(計算途中の値など)も保持するほか、適宜、人物IDテーブル、最終検索日時リスト、ブラックリスト等も保持する。これらツリー情報やパラメータや数値並びにリスト類は、運用中においてはメモリに全てキャッシュされる。また末端のクラスタは、連続して読み出せる記録位置(セクター)に配置される。これにより、少なくとも検索時は、1件の検索に対し1回のシークしか発生しない。顔特徴量DB44のレコードは、基本的には新規登録のみである。顔特徴量DB44は内部的には複数の分割DB(これまで述べたクラスタ化とは異なる)から構成され、ある分割DBの容量が上限に達したときは、最も古い分割DBを初期化してそれを新たな登録先とするローテーションにより運用する。分割DBの時間的系列を世代と呼ぶ。また拡大率、顔向き等に応じて、さらに分割して構成してもよい。   The face feature DB 44 is a recording medium such as an HDD that holds record data included in the end cluster while maintaining information on a multi-level clustering structure (tree). In addition to storing parameters such as dictionaries, hash functions, and covariance matrices, and numerical values used by algorithms that optimize those parameters (such as values that are being calculated), a person ID table, a final search date / time list, and a black list are used as appropriate. And so on. These tree information, parameters, numerical values, and lists are all cached in the memory during operation. The end cluster is arranged at a recording position (sector) that can be read continuously. As a result, at least during a search, only one seek occurs for one search. The record of the face feature DB 44 is basically only new registration. The face feature DB 44 is internally composed of a plurality of divided DBs (different from the clustering described above). When the capacity of a certain divided DB reaches the upper limit, the oldest divided DB is initialized and Will be operated by a new registration destination. A time series of divided DBs is called a generation. Further, the image may be further divided according to the enlargement ratio, face orientation, and the like.

Webサービス部45は、表示端末60からの検索要求、画像要求、或いは制御端末50からの監視カメラ10の画像解析部40の設定情報等を受信し、それに対する処理結果をWebページ等のデータで応答することで検索アプリケーションを体現する。検索要求には、特定人物検知要求(短期検索要求)、キー指定検索要求、ブラックリスト照合要求、イベント検索要求、及びそれらの組合せがあり、それらを受信すると、それらが含んでいた検索条件の情報(キーとする特徴量に対応する顔画像ID等)を顔登録・検索部43に渡す。そして顔登録・検索部43から受取った検索結果を元に、Webページ(表示画面)データを生成して、表示端末60への応答とする。検索結果は、複数の顔画像を格子状に並べたタイル表示等として提供され、各顔画像は顔画像IDに基づく映像蓄積サーバ30でのアドレス(URI)をWebページ中に記述することで、表示端末60に取得させ、また顔画像IDそのものや人物ID等を併せて記述することで、表示端末60がそれら検索結果中の顔をキーにした新たな検索要求をできるようにする。   The Web service unit 45 receives a search request from the display terminal 60, an image request, or setting information of the image analysis unit 40 of the monitoring camera 10 from the control terminal 50, and the processing result for the received request as data such as a Web page. Embody a search application by responding. The search request includes a specific person detection request (short-term search request), a key designation search request, a blacklist collation request, an event search request, and a combination thereof. When these are received, information on search conditions included in them (Face image ID or the like corresponding to the feature amount as a key) is transferred to the face registration / search unit 43. Based on the search result received from the face registration / search unit 43, Web page (display screen) data is generated and used as a response to the display terminal 60. The search result is provided as a tile display or the like in which a plurality of face images are arranged in a grid pattern. Each face image describes an address (URI) in the video storage server 30 based on the face image ID in the Web page. By making the display terminal 60 obtain and describing the face image ID itself and the person ID together, the display terminal 60 can make a new search request using the face in the search result as a key.

検索トリガー部46は、適切な時間間隔で自動的に特定人物検知を行なうよう顔登録・検索部43を制御する。検索トリガー部46は、現在日時と照合して適切な検索条件を顔登録・検索部43に与える。   The search trigger unit 46 controls the face registration / search unit 43 to automatically detect a specific person at an appropriate time interval. The search trigger unit 46 checks the current date and time and gives an appropriate search condition to the face registration / search unit 43.

設定保持部47は、画像解析部40で必要な各種設定や、ログインできるユーザの情報等を保持する。障害通知部48は、画像解析部40で生じた障害を、SNMP(Simple Network Management Protocol)トラップ等で制御端末50に通知する。   The setting holding unit 47 holds various settings necessary for the image analysis unit 40, information on users who can log in, and the like. The failure notification unit 48 notifies the control terminal 50 of a failure that has occurred in the image analysis unit 40 using an SNMP (Simple Network Management Protocol) trap or the like.

〔表示端末の制御構成〕 次に、本発明の実施形態1に係る監視カメラシステムの表示端末60の構成について、図4を参照して説明する。図4は、図1に示した表示端末60の構成の一例を示すブロック図である。
表示端末60は、図4に示すように、Webブラウザの機能を有するPC(パーソナルコンピュータ)であり、監視カメラ10の画像解析部40や映像蓄積サーバ30に対して検索要求や画像要求を送信し、その応答として受取ったWebページ等を表示する。検索要求制御部62、検索結果表示処理部63、検索条件指定処理部64、サーバ状態表示処理部65の機能は、WebブラウザおよびWebページが含むjavascript(商標)やActive X(商標)や.Net Frameworks(商標)のコンポーネント等で実現され、映像表示処理部61はDirectshow(商標)等で実現される。表示端末60は、一般的な監視カメラシステムの表示端末と同様の機能を有しても良い。つまり任意の監視カメラ10を指定して、MRCP(Media Resource Control Protocol)等のプロトコルにより、映像蓄積サーバ30からライブ映像あるいは記録映像を取得して表示することができる。
[Control Configuration of Display Terminal] Next, the configuration of the display terminal 60 of the surveillance camera system according to Embodiment 1 of the present invention will be described with reference to FIG. FIG. 4 is a block diagram showing an example of the configuration of the display terminal 60 shown in FIG.
As shown in FIG. 4, the display terminal 60 is a PC (personal computer) having a Web browser function, and transmits a search request and an image request to the image analysis unit 40 and the video storage server 30 of the monitoring camera 10. The Web page received as a response is displayed. The functions of the search request control unit 62, the search result display processing unit 63, the search condition designation processing unit 64, and the server status display processing unit 65 are javascript (trademark), Active X (trademark), and .Net included in the web browser and web page. The video display processing unit 61 is realized by Directshow (trademark) or the like. The display terminal 60 may have the same function as the display terminal of a general surveillance camera system. That is, an arbitrary surveillance camera 10 can be designated, and live video or recorded video can be acquired and displayed from the video storage server 30 by a protocol such as MRCP (Media Resource Control Protocol).

〔制御端末の制御構成〕 次に、本発明の実施形態1に係る監視カメラシステムの制御端末50の構成について、図5を参照して説明する。図5は、図1に示した制御端末50の構成の一例を示すブロック図である。
制御端末50は、本例の監視カメラシステムに対して、外部媒体の映像を取り込ませたり、或いは録画映像のバックアップを行なったりするため、一般的なPC(パーソナルコンピュータ)である。外部媒体I/F51はDVDドライブ、或いはUSB(商標)等の任意の外付け媒体を接続可能なインターフェースである。フォーマット変換部52は、外部媒体I/F51等から取り込んだ映像やDBを監視カメラシステムのフォーマットに合致するよう変換する。
[Control Configuration of Control Terminal] Next, the configuration of the control terminal 50 of the surveillance camera system according to Embodiment 1 of the present invention will be described with reference to FIG. FIG. 5 is a block diagram showing an example of the configuration of the control terminal 50 shown in FIG.
The control terminal 50 is a general PC (personal computer) in order to cause the monitoring camera system of this example to capture an image of an external medium or to back up a recorded image. The external medium I / F 51 is an interface capable of connecting an arbitrary external medium such as a DVD drive or USB (trademark). The format conversion unit 52 converts the video and DB captured from the external medium I / F 51 and the like so as to match the format of the surveillance camera system.

ファイル部53は、外部媒体I/F51等から取り込んだ或いはフォーマット変換後の映像等を保持する記憶装置である。アップロード部54は、監視カメラ10の画像解析部40や映像蓄積サーバ30とファイル部53との間で、ネットワーク回線70を介してFTPプロトコル等によりファイルを伝送する。例えば、他の監視カメラ10から取得した特定人物に関する特徴量および閾値を画像解析部40にアップロードし、画像解析部40の顔特徴量DB44とマージさせたり、顔特徴量DB44のスナップショットをファイル部53にダウンロードしたりする。
外部DB I/F55は、ODBCやJETデータベースエンジン等であり、ネットワーク上の任意のサーバにアクセスし、データを入出力できる。例えば、他の地域に設置された同様の監視カメラシステムの特定人物に関する特徴量および閾値を互いに連携させる場合に使用する。
The file unit 53 is a storage device that holds video captured from the external medium I / F 51 or the like or after format conversion. The upload unit 54 transmits a file by the FTP protocol or the like via the network line 70 between the image analysis unit 40 or the video storage server 30 of the monitoring camera 10 and the file unit 53. For example, the feature quantity and threshold value related to a specific person acquired from another monitoring camera 10 are uploaded to the image analysis unit 40 and merged with the face feature quantity DB 44 of the image analysis unit 40, or a snapshot of the face feature quantity DB 44 is taken as a file part. Or download to 53.
The external DB I / F 55 is an ODBC, JET database engine, or the like, and can access any server on the network and input / output data. For example, it is used when a feature amount and a threshold value related to a specific person of a similar surveillance camera system installed in another area are linked to each other.

ネットワーク回線70は、例えば、Ethernet(登録商標)等で構築されたプライベートネットワークであり、様々な拠点に設置されうる監視カメラ10の映像蓄積サーバ30から制御端末50までの各装置を接続する。ネットワーク回線70は、単一のコリジョンドメインのネットワークに限定されない。監視カメラ10の画像解析部40などは、PaaSやIaaS等のクラウドコンピューティングインフラを利用して構築されうる。   The network line 70 is a private network constructed by, for example, Ethernet (registered trademark) or the like, and connects each device from the video storage server 30 to the control terminal 50 of the monitoring camera 10 that can be installed at various bases. The network line 70 is not limited to a single collision domain network. The image analysis unit 40 or the like of the monitoring camera 10 can be constructed using a cloud computing infrastructure such as PaaS or IaaS.

〔監視カメラシステムにおける特定人物検索処理〕 次に、本発明の実施形態1に係る監視カメラシステムにおける特定人物検索処理について、図6を参照して説明する。図6は、本発明の実施形態1に係る監視カメラシステムにおける特定人物検索処理を説明するためのタイムチャートである。
本発明の実施形態1に係る監視カメラシステムの監視カメラ10−1および10−2は、それぞれ画像認識機能を用いて人物の特定を行う画像解析部40を有する。人物の特定方法については、特開2013−242719号公報などに開示されている既存の技術を使用してもよい。
この時、監視カメラ10−1および10−2は、画像認識機能を用いて抽出した人物に関する特徴量(顔情報/服装/歩行速度などの付加情報)と監視カメラ10を特定するカメラID/位置情報/時刻情報を監視カメラ10間で通信し、情報を共有する。監視カメラ10間の通信方法は、IPパケットによる通信、または専用線(同軸/シリアルなど)を用いて行う。
[Specific Person Search Processing in Surveillance Camera System] Next, specific person search processing in the monitoring camera system according to Embodiment 1 of the present invention will be described with reference to FIG. FIG. 6 is a time chart for explaining a specific person search process in the surveillance camera system according to the first embodiment of the present invention.
The monitoring cameras 10-1 and 10-2 of the monitoring camera system according to the first embodiment of the present invention each include an image analysis unit 40 that identifies a person using an image recognition function. As a method for identifying a person, an existing technique disclosed in Japanese Patent Laid-Open No. 2013-242719 may be used.
At this time, the monitoring cameras 10-1 and 10-2 have a feature amount (additional information such as face information / clothing / walking speed) related to the person extracted by using the image recognition function and a camera ID / position for identifying the monitoring camera 10. Information / time information is communicated between the monitoring cameras 10 to share the information. The communication method between the monitoring cameras 10 is performed using IP packet communication or a dedicated line (coaxial / serial, etc.).

図6に示すように、ステップS101において、制御端末50は、監視カメラ10−1に対して、特定人物に関する特徴量および当該特徴量の閾値(マッチング率)を送信する。
ステップS102において、監視カメラ10−1は、監視カメラ10−2等の他の監視カメラ10に対して、制御端末50から伝送された特定人物に関する特徴量および当該特徴量の閾値の情報を送信する。
As shown in FIG. 6, in step S101, the control terminal 50 transmits a feature amount related to a specific person and a threshold value (matching rate) of the feature amount to the monitoring camera 10-1.
In step S <b> 102, the monitoring camera 10-1 transmits the feature amount related to the specific person and the threshold value of the feature amount transmitted from the control terminal 50 to the other monitoring camera 10 such as the monitoring camera 10-2. .

ステップS103において、各監視カメラ10は、自身で撮影した画像について、受信した特定人物に関する情報にマッチングする人物を画像認識によって解析を行う。
ステップS104において、監視カメラ10−1および10−2で人物検出を行った結果、制御端末50から送信された閾値を超えた人物を監視カメラ10−1で検出した場合、監視カメラ10−1では、画像解析部40が、一旦、顔特徴量DB44に特定人物情報として蓄積し(ステップS105)、制御端末50および監視カメラ10−2に対して、カメラID/各種検出時の特徴量/時刻情報/位置情報を送信する(ステップS106)。《※ここでは、監視カメラ10−1で特定人物を検出したと仮定する。》
In step S <b> 103, each surveillance camera 10 analyzes a person who matches the received information related to the specific person by image recognition.
In step S104, when the monitoring camera 10-1 detects a person exceeding the threshold value transmitted from the control terminal 50 as a result of the person detection by the monitoring cameras 10-1 and 10-2, the monitoring camera 10-1 Then, the image analysis unit 40 temporarily accumulates as specific person information in the face feature value DB 44 (step S105), and for the control terminal 50 and the monitoring camera 10-2, the camera ID / feature value at the time of various detections / time information. / The position information is transmitted (step S106). << Here, it is assumed that a specific person is detected by the monitoring camera 10-1. >>

ステップS107において、監視カメラ10−1から特定人物情報を受信した制御端末50は、検出結果を管理者が監視している表示端末60に対して通知する。一方、監視カメラ10−1から特定人物情報を受信した監視カメラ10−2は、検出結果を画像解析部40の顔特徴量DB44に登録する(ステップS108)。
ステップS109において、表示端末60は、監視カメラ10−1から通知された特定人物情報を図示していない表示部に表示する。
ステップS110において、表示端末60では、管理者からの操作指示により、監視カメラ10−1からの位置情報/時刻情報などを元に近接する監視カメラ(ここでは、監視カメラ10−2)に制御信号を送信し、特定人物の追跡を行うなど、管理者として処理を実行する。
In step S107, the control terminal 50 that has received the specific person information from the monitoring camera 10-1 notifies the detection result to the display terminal 60 monitored by the administrator. On the other hand, the monitoring camera 10-2 that has received the specific person information from the monitoring camera 10-1 registers the detection result in the face feature DB 44 of the image analysis unit 40 (step S108).
In step S109, the display terminal 60 displays the specific person information notified from the monitoring camera 10-1 on a display unit (not shown).
In step S110, in response to an operation instruction from the administrator, the display terminal 60 controls the monitoring camera (here, the monitoring camera 10-2) that is in close proximity based on the position information / time information from the monitoring camera 10-1. And perform processing as an administrator, such as tracking a specific person.

以上説明したように、本発明の実施形態1に係る監視カメラシステムによれば、それぞれの監視カメラが画像認識手段を備え、画像認識した情報を監視カメラ同士で相互にやりとりすることにより、制御端末での画像認識に関する処理負荷が軽減でき、また、システム全体での処理負荷および処理時間を低減させることができる。   As described above, according to the surveillance camera system according to the first embodiment of the present invention, each surveillance camera includes an image recognition unit, and the image recognition information is mutually exchanged between the surveillance cameras. The processing load related to image recognition in the system can be reduced, and the processing load and processing time in the entire system can be reduced.

<実施形態2> 以下、本発明の実施形態2に係る監視カメラシステムについて説明する。
本発明の実施形態2に係る監視カメラシステムは、本発明の実施形態1に係る監視カメラシステムと制御構成は同様であるが、以下に説明する人物特定処理が異なる。
<Embodiment 2> Hereinafter, a surveillance camera system according to Embodiment 2 of the present invention will be described.
The surveillance camera system according to Embodiment 2 of the present invention has the same control configuration as that of the surveillance camera system according to Embodiment 1 of the present invention, but differs in the person specifying process described below.

〔監視カメラシステムにおける特定人物検索処理〕 次に、本発明の実施形態2に係る監視カメラシステムにおける特定人物検索処理について、図7を参照して説明する。図7は、本発明の実施形態2に係る監視カメラシステムにおける監視カメラ同士で情報を共有した場合の特定人物検索処理を説明するためのタイムチャートである。 [Specific Person Search Processing in Surveillance Camera System] Next, specific person search processing in the monitoring camera system according to Embodiment 2 of the present invention will be described with reference to FIG. FIG. 7 is a time chart for explaining a specific person search process when information is shared between monitoring cameras in the monitoring camera system according to the second embodiment of the present invention.

図7に示すように、ステップS201において、制御端末50は、監視カメラ10−1に対して、特定人物に関する特徴量および当該特徴量の閾値(マッチング率)を送信する。
ステップS202において、監視カメラ10−1は、監視カメラ10−2等の他の監視カメラ10に対して、制御端末50から伝送された特定人物に関する特徴量および当該特徴量の閾値の情報を送信する。
As shown in FIG. 7, in step S201, the control terminal 50 transmits a feature amount related to a specific person and a threshold value (matching rate) of the feature amount to the monitoring camera 10-1.
In step S202, the monitoring camera 10-1 transmits to the other monitoring camera 10 such as the monitoring camera 10-2 the feature amount related to the specific person and the threshold value of the feature amount transmitted from the control terminal 50. .

ステップS203において、各監視カメラ10は、自身で撮影した画像について、受信した特定人物に関する情報にマッチングする人物を画像認識によって解析を行う。
ステップS204において、監視カメラ10−1および10−2で人物検出を行った結果、制御端末50から送信された閾値を超えた人物を監視カメラ10−1で検出した場合、監視カメラ10−1では、画像解析部40が、一旦、顔特徴量DB44に特定人物情報として蓄積し(ステップS205)、制御端末50および監視カメラ10−2に対して、カメラID/各種検出時の特徴量/時刻情報/位置情報を送信する(ステップS206)。《※ここでは、監視カメラ10−1で特定人物を検出したと仮定する。》
In step S <b> 203, each surveillance camera 10 analyzes a person who matches the received information on the specific person by image recognition with respect to the image taken by the surveillance camera 10.
In step S204, when the monitoring camera 10-1 detects a person exceeding the threshold value transmitted from the control terminal 50 as a result of performing the person detection with the monitoring cameras 10-1 and 10-2, the monitoring camera 10-1 Then, the image analysis unit 40 temporarily accumulates as specific person information in the face feature amount DB 44 (step S205), and for the control terminal 50 and the monitoring camera 10-2, the camera ID / feature amount / time information at the time of various detections. / The position information is transmitted (step S206). << Here, it is assumed that a specific person is detected by the monitoring camera 10-1. >>

ステップS207において、監視カメラ10−1から特定人物情報を受信した制御端末50は、検出結果を管理者が監視している表示端末60に対して通知する。一方、監視カメラ10−1から特定人物情報を受信した監視カメラ10−2は、検出結果を画像解析部40の顔特徴量DB44に登録する(ステップS208)。
ステップS209において、表示端末60は、監視カメラ10−1から通知された特定人物情報を図示していない表示部に表示する。
ステップS210において、一方、監視カメラ10−1から特定人物情報を受信した制御端末50は、特定人物を検出した監視カメラ10−1以外の監視カメラ(ここでは、監視カメラ10−2)に対して、特徴量の更新を行うか否かの判定を行う。具体的には、ステップS201で伝送したデータ(特定人物に関する特徴量および当該特徴量の閾値)を保持するか、または、監視カメラ10−1が抽出した特徴量を、今後の処理として使用するかどうかを判定する。
ここで、制御端末50は、判断結果が「YES」の場合には、ステップS211に処理を進めて、監視カメラ10−1へ特徴量の更新指示を送信し、判断結果が「NO」の場合には、処理を終了する。
ステップS212において、監視カメラ10−1は、他の監視カメラ10−2へ特徴量の更新指示を送信することで、他の監視カメラ10との情報共有が為される。
これは、ステップS201で制御端末50が送信した特徴量が必ずしも正確でない場合を想定している。このような場合には、監視カメラ10−1で検出した特定人物に関する特徴量を用いて、その後、特定人物検出を行うことが望ましい。
In step S207, the control terminal 50 that has received the specific person information from the monitoring camera 10-1 notifies the detection result to the display terminal 60 monitored by the administrator. On the other hand, the monitoring camera 10-2 that has received the specific person information from the monitoring camera 10-1 registers the detection result in the face feature DB 44 of the image analysis unit 40 (step S208).
In step S209, the display terminal 60 displays the specific person information notified from the monitoring camera 10-1 on a display unit (not shown).
On the other hand, in step S210, the control terminal 50 that has received the specific person information from the monitoring camera 10-1 detects a monitoring camera other than the monitoring camera 10-1 that has detected the specific person (here, the monitoring camera 10-2). Then, it is determined whether or not to update the feature amount. Specifically, whether the data transmitted in step S201 (the feature amount related to the specific person and the threshold value of the feature amount) is retained, or the feature amount extracted by the monitoring camera 10-1 is used as future processing. Determine if.
Here, if the determination result is “YES”, the control terminal 50 advances the process to step S211 to transmit a feature amount update instruction to the monitoring camera 10-1, and if the determination result is “NO”. Then, the process ends.
In step S <b> 212, the monitoring camera 10-1 transmits the feature amount update instruction to the other monitoring camera 10-2, thereby sharing information with the other monitoring camera 10.
This assumes that the feature amount transmitted by the control terminal 50 in step S201 is not always accurate. In such a case, it is desirable to perform specific person detection after that using the feature quantity related to the specific person detected by the monitoring camera 10-1.

ステップS211およびS212により、制御端末50から新しい特徴量を受信した監視カメラ10−1および10−2は、画像認識による特定人物の解析を新たな特徴量で実施する(ステップS213およびS214)。
ステップS215において、制御端末50から送信された新たな閾値を超えた人物を監視カメラ10−2が検出した場合には、監視カメラ10−2では、画像解析部40が、一旦、顔特徴量DB44に特定人物情報として蓄積し(ステップS216)、制御端末50および監視カメラ10−1に対して、カメラID/各種検出時の特徴量/時刻情報/位置情報を送信する(ステップS217)。《※ここでは、監視カメラ10−2で特定人物を検出したと仮定する。》
The monitoring cameras 10-1 and 10-2 that have received the new feature value from the control terminal 50 in steps S211 and S212 perform analysis of the specific person by image recognition using the new feature value (steps S213 and S214).
In step S215, when the monitoring camera 10-2 detects a person who has exceeded the new threshold value transmitted from the control terminal 50, in the monitoring camera 10-2, the image analysis unit 40 temporarily performs the facial feature value DB 44. (Step S216), and the camera ID / feature amount / time information / position information at the time of various detections are transmitted to the control terminal 50 and the monitoring camera 10-1 (step S217). << Here, it is assumed that a specific person is detected by the monitoring camera 10-2. >>

ステップS218において、監視カメラ10−2から特定人物情報を受信した制御端末50は、検出結果を管理者が監視している表示端末60に対して通知する。一方、監視カメラ10−2から特定人物情報を受信した監視カメラ10−1は、検出結果を画像解析部40の顔特徴量DB44に登録する(ステップS219)。
ステップS220において、表示端末60は、監視カメラ10−2から通知された特定人物情報を図示していない表示部に表示する。
ステップS221において、表示端末60では、管理者からの操作指示により、監視カメラ10−2からの位置情報/時刻情報などを元に近接する監視カメラ(※ここでは、監視カメラ10−1)に制御信号を送信し、特定人物の追跡を行うなど、管理者として処理を実行する。
In step S218, the control terminal 50 that has received the specific person information from the monitoring camera 10-2 notifies the detection result to the display terminal 60 monitored by the administrator. On the other hand, the monitoring camera 10-1 that has received the specific person information from the monitoring camera 10-2 registers the detection result in the face feature DB 44 of the image analysis unit 40 (step S219).
In step S220, the display terminal 60 displays the specific person information notified from the monitoring camera 10-2 on a display unit (not shown).
In step S221, the display terminal 60 controls an adjacent monitoring camera (in this case, the monitoring camera 10-1) based on the position information / time information from the monitoring camera 10-2 in accordance with an operation instruction from the administrator. Process as an administrator, such as sending a signal and tracking a specific person.

以上説明したように、本発明の実施形態2に係る監視カメラシステムによれば、それぞれの監視カメラが画像認識手段を備え、画像認識した情報を監視カメラ同士で相互にやりとりすることにより、制御端末での画像認識に関する処理負荷が軽減でき、また、システム全体での処理負荷および処理時間を低減させることができる。   As described above, according to the surveillance camera system according to the second embodiment of the present invention, each surveillance camera includes the image recognition means, and the image recognition information is mutually exchanged between the surveillance cameras. The processing load related to image recognition in the system can be reduced, and the processing load and processing time in the entire system can be reduced.

<実施形態3> 以下、本発明の実施形態3に係る監視カメラシステムについて説明する。
本発明の実施形態3に係る監視カメラシステムは、本発明の実施形態1に係る監視カメラシステムに対し、以下の内容が異なる。(1)各監視カメラ10において、パン、チルトおよびズームなどの機能を有した監視カメラを用いる場合、指定された特定人物情報を検出した監視カメラから他の監視カメラが位置情報/時刻情報を受信した場合、受信した監視カメラは位置情報から指定された情報を検出しやすくするために、自身の向きなどを自動で制御してもよい。
具体的には、監視カメラ10−1が特定人物情報を検出し、その監視カメラ10−1が通路の入り口を撮影している場合で、かつ監視カメラ10−2が通路の出口付近を撮影している場合には、特定人物情報を共有した監視カメラ10−2は向きを通路出口付近に向け、かつピントを合わせるなどの処理を行う。
<Embodiment 3> Hereinafter, a surveillance camera system according to Embodiment 3 of the present invention will be described.
The surveillance camera system according to Embodiment 3 of the present invention differs from the surveillance camera system according to Embodiment 1 of the present invention in the following contents. (1) When a surveillance camera having functions such as pan, tilt, and zoom is used in each surveillance camera 10, other surveillance cameras receive position information / time information from the surveillance camera that has detected the specified specific person information. In this case, the received surveillance camera may automatically control its orientation and the like in order to make it easier to detect the information specified from the position information.
Specifically, when the monitoring camera 10-1 detects specific person information and the monitoring camera 10-1 is photographing the entrance of the passage, the monitoring camera 10-2 photographs the vicinity of the exit of the passage. If it is, the monitoring camera 10-2 sharing the specific person information performs processing such as turning the direction near the passage exit and focusing.

以上説明したように、本発明の実施形態3に係る監視カメラシステムによれば、それぞれの監視カメラが画像認識手段を備え、画像認識した情報を監視カメラ同士で相互にやりとりすることにより、制御端末での画像認識に関する処理負荷が軽減でき、また、システム全体での処理負荷および処理時間を低減させることができる。   As described above, according to the surveillance camera system according to the third embodiment of the present invention, each surveillance camera includes an image recognition unit, and the image recognition information is mutually exchanged between the surveillance cameras. The processing load related to image recognition in the system can be reduced, and the processing load and processing time in the entire system can be reduced.

なお、上記した各実施形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。   It should be noted that the configurations and operations of the above-described embodiments are examples, and it is needless to say that they can be appropriately modified and executed without departing from the spirit of the present invention.

本発明は、監視カメラで撮影した映像を基にして、画像認識技術によって、人物、車(二輪車含む)、動物などの移動物体の情報を抽出する監視カメラシステムに係り、特に、画像認識による処理負荷を低減することができ、また、効率の良い画像検索が可能な幅広い監視カメラシステムに応用可能である。   The present invention relates to a surveillance camera system that extracts information on a moving object such as a person, a car (including a two-wheeled vehicle), or an animal based on an image captured by a surveillance camera using an image recognition technique. The present invention can be applied to a wide range of surveillance camera systems that can reduce the load and that enable efficient image retrieval.

1:監視カメラシステム、10,10−1,10−2:監視カメラ、20:撮像部、30:映像蓄積サーバ、31:映像入力部、32:記録配信制御部、33:Webサーバ部、34:ストレージ、35:設定保持部、40:画像解析部、41:画像取得部、42:顔検出・特徴量算出部、43:顔登録・検索部、44:顔特徴量DB、45:Webサービス部、46:検索トリガー部、47:設定保持部、48:障害通知部、50:制御端末、51:外部媒体I/F、52:フォーマット変換部、53:ファイル部、54:アップロード部、55:外部DB I/F、60:表示端末、61:映像表示処理部、62:検索要求制御部、63:検索結果表示処理部、64:検索条件指定処理部、65:サーバ状態表示処理部、66:設定保持部、70:ネットワーク回線、100:監視カメラシステム、110,110−1,110−2:監視カメラ、150:制御端末。 1: surveillance camera system, 10, 10-1, 10-2: surveillance camera, 20: imaging unit, 30: video storage server, 31: video input unit, 32: record distribution control unit, 33: Web server unit, 34 : Storage, 35: Setting holding unit, 40: Image analysis unit, 41: Image acquisition unit, 42: Face detection / feature amount calculation unit, 43: Face registration / search unit, 44: Face feature amount DB, 45: Web service Unit: 46: search trigger unit, 47: setting holding unit, 48: failure notification unit, 50: control terminal, 51: external medium I / F, 52: format conversion unit, 53: file unit, 54: upload unit, 55 : External DB I / F, 60: Display terminal, 61: Video display processing unit, 62: Search request control unit, 63: Search result display processing unit, 64: Search condition designation processing unit, 65: Server status display processing unit, 66: Setting holding unit , 70: network line, 100: surveillance camera system, 110, 110-1, 110-2: surveillance camera, 150: control terminal.

Claims (3)

監視対象区域内を撮影する監視カメラと、前記監視カメラで撮影した画像を表示する表示端末と、前記監視カメラを制御する制御端末と、から構成される監視カメラシステムにおいて、
前記監視カメラは、
自身で撮影した画像を基に画像認識し、特定の物体情報を抽出する画像解析手段と、
前記画像解析手段で抽出した前記特定の物体情報を他の監視カメラとの間で相互にやり取りする情報通信手段と、を備え、
前記監視カメラは、画像認識機能を用いて抽出した前記特定の物体情報に関する特徴量と前記監視カメラを特定するカメラID/位置情報/時刻情報を前記監視カメラ間で通信し、情報を共有すると共に、
前記制御端末は、前記監視カメラに対して、前記特定の物体情報に関する特徴量および前記特徴量のマッチング率を送信し、前記監視カメラは、前記他の監視カメラに対して、前記制御端末から伝送された前記特定の物体情報に関する特徴量および前記特徴量のマッチング率の情報を送信し、
前記各監視カメラは、自身で撮影した画像について受信した前記特定の物体情報にマッチングする人物を画像認識によって解析し、
前記監視カメラから前記特定の物体情報を受信した前記制御端末は、検出結果を管理者が監視している前記表示端末に対して通知し、
前記監視カメラから前記特定の物体情報を受信した前記他の監視カメラは、検出結果を前記画像解析手段の顔特徴量DBに登録し、
前記表示端末は、前記監視カメラから通知された前記特定の物体情報を表示すると共に、管理者からの操作指示により前記監視カメラからの位置情報/時刻情報を元に近接する前記監視カメラに制御信号を送信して前記特定の物体情報に基づく追跡を行うことを特徴とする監視カメラシステム。
In a surveillance camera system comprising a surveillance camera that captures an area within a surveillance area, a display terminal that displays an image captured by the surveillance camera, and a control terminal that controls the surveillance camera,
The surveillance camera is
Image analysis means for recognizing an image based on an image taken by itself and extracting specific object information;
Information communication means for exchanging the specific object information extracted by the image analysis means with other surveillance cameras,
The monitoring camera communicates the feature amount related to the specific object information extracted using the image recognition function and the camera ID / position information / time information for specifying the monitoring camera between the monitoring cameras, and shares the information. ,
The control terminal transmits a feature amount related to the specific object information and a matching rate of the feature amount to the monitoring camera, and the monitoring camera transmits the other monitoring camera from the control terminal. Transmitting the feature amount related to the specific object information and the matching rate information of the feature amount,
Each of the surveillance cameras analyzes a person who matches the specific object information received with respect to the image captured by the user by image recognition,
The control terminal that has received the specific object information from the monitoring camera notifies the display terminal that an administrator is monitoring the detection result,
The other monitoring camera that has received the specific object information from the monitoring camera registers the detection result in the face feature DB of the image analysis unit,
The display terminal displays the specific object information notified from the monitoring camera, and controls a control signal to the adjacent monitoring camera based on position information / time information from the monitoring camera according to an operation instruction from an administrator. And monitoring based on the specific object information.
請求項1記載の監視カメラシステムにおいて、
前記監視カメラから前記特定の物体情報を受信した前記制御端末は、前記特定の物体情報を検出した前記監視カメラ以外の前記他の監視カメラに対して、前記特徴量の更新を行うか否かの判定を行い、伝送した前記特定の物体情報に関する前記特徴量および前記特徴量のマッチング率を保持するか、または前記監視カメラが抽出した前記特徴量を今後の処理として使用するかどうかを判定し、
前記制御端末は、判断結果が「YES」の場合には前記監視カメラへ前記特徴量の更新指示を送信し、判断結果が「NO」の場合には処理を終了し、
前記監視カメラは、前記他の監視カメラへ前記特徴量の更新指示を送信することで前記他の監視カメラとの情報共有を行い、
前記制御端末から送信された新たなマッチング率を超えた物体を前記監視カメラが検出した場合には、前記画像解析手段が前記顔特徴量DBに前記特定の物体情報として蓄積し、前記制御端末および前記他の監視カメラに対して各種検出時の特徴量/カメラID/位置情報/時刻情報を送信することを特徴とする監視カメラシステム。
The surveillance camera system according to claim 1,
Whether the control terminal that has received the specific object information from the monitoring camera updates the feature amount for the other monitoring camera other than the monitoring camera that has detected the specific object information. Determine whether to hold the feature amount and the matching rate of the feature amount related to the transmitted specific object information, or to determine whether to use the feature amount extracted by the monitoring camera as future processing,
When the determination result is “YES”, the control terminal transmits an update instruction for the feature amount to the monitoring camera, and when the determination result is “NO”, the process ends.
The monitoring camera performs information sharing with the other monitoring camera by transmitting an update instruction for the feature amount to the other monitoring camera;
When the surveillance camera detects an object exceeding the new matching rate transmitted from the control terminal, the image analysis means stores the specific object information in the face feature DB, and the control terminal and A monitoring camera system, wherein a feature amount / camera ID / position information / time information at the time of various detections is transmitted to the other monitoring camera.
請求項1または2に記載の監視カメラシステムにおいて、
パン、チルトおよびズームの機能を有した前記監視カメラを用いる場合、指定された前記特定の物体情報を検出した前記監視カメラから前記他の監視カメラが位置情報/時刻情報を受信した場合、受信した前記監視カメラは位置情報から指定された情報を検出しやすくするために、自身の向きを自動で制御することを特徴とする監視カメラシステム。
The surveillance camera system according to claim 1 or 2,
When using the surveillance camera having pan, tilt and zoom functions, received when the other surveillance camera receives position information / time information from the surveillance camera that has detected the specified specific object information. The surveillance camera system characterized in that the orientation of the surveillance camera is automatically controlled in order to facilitate detection of information designated from position information.
JP2016545500A 2014-08-25 2015-08-21 Surveillance camera system Active JP6403784B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014170370 2014-08-25
JP2014170370 2014-08-25
PCT/JP2015/073540 WO2016031720A1 (en) 2014-08-25 2015-08-21 Monitoring camera system

Publications (2)

Publication Number Publication Date
JPWO2016031720A1 JPWO2016031720A1 (en) 2017-06-29
JP6403784B2 true JP6403784B2 (en) 2018-10-10

Family

ID=55399613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016545500A Active JP6403784B2 (en) 2014-08-25 2015-08-21 Surveillance camera system

Country Status (2)

Country Link
JP (1) JP6403784B2 (en)
WO (1) WO2016031720A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6885682B2 (en) * 2016-07-15 2021-06-16 パナソニックi−PROセンシングソリューションズ株式会社 Monitoring system, management device, and monitoring method
JP6603645B2 (en) * 2016-11-17 2019-11-06 日本電信電話株式会社 Resource search apparatus and resource search method
JP2018092468A (en) * 2016-12-06 2018-06-14 株式会社村田製作所 Crime prevention monitoring system, control method therefor, and computer program
JP6977734B2 (en) * 2016-12-22 2021-12-08 日本電気株式会社 Surveillance cameras, surveillance systems, surveillance camera control methods and programs
JP6725454B2 (en) * 2017-06-02 2020-07-22 株式会社日立ビルシステム Video monitoring system and video monitoring device
JP7185537B2 (en) * 2019-01-15 2022-12-07 株式会社Nttドコモ Imaging system
EP3817371A1 (en) * 2019-10-28 2021-05-05 Axis AB Method and system for composing a video material
JP2021136666A (en) 2020-02-28 2021-09-13 キヤノン株式会社 Imaging apparatus, device, control method and program
JP2021136664A (en) 2020-02-28 2021-09-13 キヤノン株式会社 Device, control method and program
JP2021136665A (en) 2020-02-28 2021-09-13 キヤノン株式会社 Imaging apparatus, device, control method and program
JP7311463B2 (en) 2020-06-02 2023-07-19 Kddi株式会社 ID estimation system, device, method and program
CN115955570A (en) * 2023-03-10 2023-04-11 武汉同创万智数字科技有限公司 Video remote system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3999561B2 (en) * 2002-05-07 2007-10-31 松下電器産業株式会社 Surveillance system and surveillance camera
JP5550293B2 (en) * 2009-09-18 2014-07-16 キヤノン株式会社 Image collation system, imaging device, transmission device, and program
JP2012119967A (en) * 2010-12-01 2012-06-21 Hitachi Kokusai Electric Inc Management server of monitoring system
JP5894807B2 (en) * 2012-01-25 2016-03-30 株式会社日立国際電気 Surveillance device, surveillance camera system, and video transmission method

Also Published As

Publication number Publication date
WO2016031720A1 (en) 2016-03-03
JPWO2016031720A1 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
JP6403784B2 (en) Surveillance camera system
JP6080940B2 (en) Person search method and home staying person search device
JP7038744B2 (en) Face image retrieval methods and systems, imaging devices, and computer storage media
US10438000B1 (en) Using recognized backup images for recovery after a ransomware attack
US11908238B2 (en) Methods and systems for facial point-of-recognition (POR) provisioning
EP2923487B1 (en) Method and system for metadata extraction from master-slave cameras tracking system
JP2023145558A (en) Appearance search system and method
JP5170961B2 (en) Image processing system, image processing apparatus and method, program, and recording medium
US20140176708A1 (en) System And Method For Detection Of High-Interest Events In Video Data
JP2007206919A (en) Display control device, method, program and storage medium
JP2022518459A (en) Information processing methods and devices, storage media
KR101372860B1 (en) System for searching video and server for analysing video
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
US11586667B1 (en) Hyperzoom attribute analytics on the edge
JP2023505864A (en) Target movement trajectory construction method, equipment and computer storage medium
Ye et al. Negative faceblurring: A privacy-by-design approach to visual lifelogging with google glass
Singh et al. A comprehensive survey on person re-identification approaches: various aspects
JP5202419B2 (en) Security system and security method
WO2022057773A1 (en) Image storage method and apparatus, computer device and storage medium
US11599577B2 (en) System and method for content-hashed object storage
JP6109118B2 (en) Image processing apparatus and method, information processing apparatus and method, and program
JP2014042170A (en) Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program
JP6632632B2 (en) Monitoring system
KR102641534B1 (en) Cloud-edge integrated platform system
WO2023084814A1 (en) Communication system, server, communication method, and communication program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180911

R150 Certificate of patent or registration of utility model

Ref document number: 6403784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250