JP2019153908A - Image authentication system, image authentication method and image authentication program - Google Patents

Image authentication system, image authentication method and image authentication program Download PDF

Info

Publication number
JP2019153908A
JP2019153908A JP2018037561A JP2018037561A JP2019153908A JP 2019153908 A JP2019153908 A JP 2019153908A JP 2018037561 A JP2018037561 A JP 2018037561A JP 2018037561 A JP2018037561 A JP 2018037561A JP 2019153908 A JP2019153908 A JP 2019153908A
Authority
JP
Japan
Prior art keywords
image
monitoring
image data
input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018037561A
Other languages
Japanese (ja)
Other versions
JP7142443B2 (en
Inventor
久和 柳内
Hisakazu Yanagiuchi
久和 柳内
俊介 馬場
Shunsuke Baba
俊介 馬場
浩二 有水
Koji Arimizu
浩二 有水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2018037561A priority Critical patent/JP7142443B2/en
Publication of JP2019153908A publication Critical patent/JP2019153908A/en
Application granted granted Critical
Publication of JP7142443B2 publication Critical patent/JP7142443B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image authentication system, an image authentication method and an image authentication program which allow a monitoring person to visually recognize a monitoring object immediately and easily.SOLUTION: An image authentication system 100 includes: an imaging terminal 2 for acquiring a monitoring image; an imaging side storage section 26 for storing the monitoring image; a clip section 22 for clipping as an input feature image included in the monitoring image, and generating input image data containing the input feature image, image identification information for identifying the monitoring image, and positional information for specifying the clip position of the input feature image in the monitoring image; a collation section 12 for collating the input image data and a prestored registration image database of a monitoring object, and detecting an input image data corresponding to the registration image database as the detection image data; and a monitor 35 for displaying a position of the input feature image and at least a part including the input feature image of the monitoring image identified based on the detection image data, when the detection image data is detected as a result of collation by the collation section 12.SELECTED DRAWING: Figure 1

Description

本発明は、画像認証システム、画像認証方法および画像認証プログラムに関する。   The present invention relates to an image authentication system, an image authentication method, and an image authentication program.

商業施設、空港、銀行、オフィスビル、マンション等の、多数の人が出入りする施設では、セキュリティを確保するために、監視カメラなどの撮像端末で撮像した画像(以下では、監視画像と称する)を用いて人の出入りを監視するシステムが利用されている。この監視画像は、必要に応じて撮像端末からサーバに送信されて画像解析により情報を抽出される。例えば、監視画像から特徴画像として顔画像を切り出し、その画像の特徴量、例えば、顔画像またはその顔の特徴を数値化した特徴量からなる入力画像データとして記憶される。この入力画像データは、例えば顔画像の検索に用いられる(例えば、特許文献1や特許文献2)。監視画像は、必要に応じてユーザ端末に送信されて、当該ユーザ端末の表示部を通じて人(例えば、監視者)に確認されることがある(例えば、特許文献3)。なお、監視画像は、静止画や、当該静止画を時系列に並べた動画として取り扱われている。   In facilities where a large number of people enter and exit, such as commercial facilities, airports, banks, office buildings, and condominiums, an image captured by an imaging terminal such as a surveillance camera (hereinafter referred to as a surveillance image) is used to ensure security. Systems that use it to monitor the entry and exit of people are used. The monitoring image is transmitted from the imaging terminal to the server as needed, and information is extracted by image analysis. For example, a face image is cut out as a feature image from the monitoring image, and stored as input image data including a feature amount of the image, for example, a feature amount obtained by quantifying the face image or the feature of the face. This input image data is used, for example, for searching for a face image (for example, Patent Document 1 and Patent Document 2). A monitoring image is transmitted to a user terminal as necessary, and may be confirmed by a person (for example, a monitoring person) through a display unit of the user terminal (for example, Patent Document 3). Note that the monitoring image is handled as a still image or a moving image in which the still images are arranged in time series.

特許文献1には、顔画像データサーバに登録もしくは保存された顔画像の中から該当する顔画像の候補を抽出する顔画像照合システム(画像認証システムの一例)に係る発明が開示されている。顔画像照合システムでは、顔画像登録装置より検索対象となる顔画像を取り込み、顔画像データサーバの登録部において、取り込まれた顔画像を特定の顔画像パーツ(目、鼻、口および輪郭等を指す)に分割し、元の顔画像と共に結合されたデータとしてデータベースに登録している。この顔画像照合システムでは、顔画像検索装置で探したい顔画像のパーツに該当する顔全体の画像を検索し、顔画像検索装置へ送信して表示することができる。   Patent Document 1 discloses an invention relating to a face image collation system (an example of an image authentication system) that extracts a corresponding face image candidate from face images registered or stored in a face image data server. In the face image collation system, a face image to be searched is acquired from the face image registration device, and the registered face image data is searched for specific face image parts (eyes, nose, mouth, contour, etc.) in the registration unit of the face image data server. Are registered in the database as data combined with the original face image. In this face image matching system, an image of the entire face corresponding to the part of the face image to be searched for by the face image search device can be searched and transmitted to the face image search device for display.

特許文献2には、より多くの利用者の個人照合を効率良く行うことができる個人認証システム等(画像認証システムの一例)に係る発明が開示されている。この個人認証システムでは、コントロールサーバが、端末装置が撮像した利用者の顔画像データを部分顔画像データに分割した後さらに暗号化してそれぞれ複数の認証サーバのいずれかに送信する。そして、各認証サーバは、コントロールサーバから受信した暗号化部分顔画像データを復号化した後に顔画像DBにあらかじめ登録した登録顔画像データと照合処理して照合結果をコントロールサーバに送信する。そして、コントロールサーバは、各認証サーバから受信した照合結果に基づいて認証結果の判定処理を行って判定結果を端末装置に通知するようになっている。   Patent Document 2 discloses an invention related to a personal authentication system or the like (an example of an image authentication system) that can efficiently perform personal collation for more users. In this personal authentication system, the control server divides the user's face image data captured by the terminal device into partial face image data, and then encrypts the data and transmits it to one of a plurality of authentication servers. Each authentication server decrypts the encrypted partial face image data received from the control server and then performs a matching process with the registered face image data registered in advance in the face image DB, and transmits the matching result to the control server. Then, the control server performs an authentication result determination process based on the collation result received from each authentication server and notifies the terminal device of the determination result.

特許文献3には、多数の監視カメラが接続されている場合にも監視エリアを適正に監視でき、セキュリティの低下が防止できる監視システム(画像認証システムの一例)に係る発明が開示されている。この監視システムでは、監視カメラで撮像している監視エリアの撮像画像を動画記憶部に記憶している。また、撮像画像に人物が撮像されていれば、当該人物の顔画像を切り出し、静止画で切り出した顔画像をホスト装置に送信するようになっている。さらに、ホスト装置からの要求に応じて、動画記憶部に記憶している動画をホスト装置へ送信することができる。   Patent Document 3 discloses an invention relating to a monitoring system (an example of an image authentication system) that can properly monitor a monitoring area even when a large number of monitoring cameras are connected, and can prevent a reduction in security. In this monitoring system, a captured image of a monitoring area captured by a monitoring camera is stored in a moving image storage unit. If a person is captured in the captured image, the face image of the person is cut out, and the face image cut out as a still image is transmitted to the host device. Furthermore, in response to a request from the host device, the moving image stored in the moving image storage unit can be transmitted to the host device.

特開2003−331264号公報JP 2003-331264 A 特開2006−293712号公報JP 2006-293712 A 特開2005−323046号公報JP 2005-323046 A

上述した従来の画像認証システムでは、監視画像から生成された入力画像データに基づいて元の監視画像を特定し、当該監視画像をユーザ端末などで表示した場合、当該入力画像データに対応する特徴画像が、元の監視画像のどの画像部分であるか、当該表示によってはわからない(視覚的に特定できない)場合があった。例えば撮像端末が撮像した監視画像中に監視対象たる窃盗常習犯の顔画像を検出した場合、監視者が自己の端末で当該監視画像を閲覧しても、当該窃盗常習犯の顔画像を即座に認識することは困難である。その理由は、監視画像から生成された入力画像データに基づいて元の監視画像を特定して表示したとしても、当該入力画像データに対応する特徴画像が、当該入力画像データに対応する監視画像もしくはその一部の画像のうち、どの画像部分であるかを視覚的に容易に特定することができないためである。   In the conventional image authentication system described above, when the original monitoring image is specified based on the input image data generated from the monitoring image, and the monitoring image is displayed on the user terminal or the like, the feature image corresponding to the input image data However, there are cases where it is not known (visually unidentifiable) depending on the display which image portion of the original monitoring image is. For example, when a face image of a theft regular crime as a monitoring target is detected in a monitoring image captured by the imaging terminal, the face image of the theft regular crime is immediately recognized even if the monitor views the monitoring image on his / her terminal. It is difficult. The reason is that even if the original monitoring image is specified and displayed based on the input image data generated from the monitoring image, the feature image corresponding to the input image data is the monitoring image corresponding to the input image data or This is because which image portion of the partial images cannot be easily identified visually.

そのため、監視者が、即座にかつ容易に、監視対象を視覚的に認識することができる画像認証システム、画像認証方法および画像認証プログラムの提供が望まれる。   Therefore, it is desirable to provide an image authentication system, an image authentication method, and an image authentication program that enable a monitor to visually recognize a monitoring target immediately and easily.

本発明は、かかる実状に鑑みて為されたものであって、その目的は、監視者が、即座にかつ容易に、監視対象を視覚的に認識することができる画像認証システム、画像認証方法および画像認証プログラムを提供することにある。   The present invention has been made in view of such a situation, and an object of the present invention is to provide an image authentication system, an image authentication method, and an image authentication system that allows a monitor to visually recognize a monitoring target immediately and easily. It is to provide an image authentication program.

上記目的を達成するための本発明に係る画像認証システムの特徴構成は、
監視対象エリアを撮像して監視画像を取得する撮像部と、
前記監視画像を記憶する監視画像記憶部と、
前記監視画像に含まれる撮像対象の特徴画像を入力特徴画像として切出すと共に、当該入力特徴画像と、前記監視画像を特定する画像特定情報と、前記監視画像における前記入力特徴画像の切出し位置を特定する位置情報と、を含む入力画像データを生成する特徴画像切出部と、
前記入力画像データと予め記憶された監視対象の登録画像データベースとを照合し、前記登録画像データベースに該当する前記入力画像データを検出画像データとして検出する照合部と、
前記照合部による照合の結果、前記検出画像データが検出された場合に、前記検出画像データに基づいて特定される前記監視画像の前記入力特徴画像を含む少なくとも一部と前記入力特徴画像の位置とを表示する表示部と、を備える点にある。
In order to achieve the above object, the characteristic configuration of the image authentication system according to the present invention is as follows:
An imaging unit that captures a monitoring target area and obtains a monitoring image;
A monitoring image storage unit for storing the monitoring image;
A feature image of an imaging target included in the monitoring image is cut out as an input feature image, and the input feature image, image specifying information for specifying the monitoring image, and a cutting position of the input feature image in the monitoring image are specified. A feature image cutout unit that generates input image data including positional information
A collation unit that collates the input image data with a registered image database to be monitored stored in advance, and detects the input image data corresponding to the registered image database as detected image data;
When the detected image data is detected as a result of collation by the collation unit, at least a part including the input feature image of the monitoring image specified based on the detected image data, and a position of the input feature image And a display unit for displaying.

上記構成によれば、撮像部で監視対象エリアの監視画像を取得する。そして、当該監視画像に特徴画像が含まれる場合、特徴画像切出部は、当該監視画像から特徴画像を切り出す。また、特徴画像切出部は、監視画像から特徴画像を切り出した場合、特徴画像と、監視画像における特徴画像の位置を特定する位置情報とを含む入力画像データを生成する。   According to the above configuration, a monitoring image of the monitoring target area is acquired by the imaging unit. Then, when the feature image is included in the monitoring image, the feature image cutting unit cuts out the feature image from the monitoring image. Further, when the feature image is cut out from the monitoring image, the feature image cutout unit generates input image data including the feature image and position information for specifying the position of the feature image in the monitoring image.

入力画像データが生成された場合、照合部は、当該入力画像データと予め記憶された監視対象の登録画像データベースとを照合することが可能である。このとき、入力画像データは切り出された特徴画像であるので、登録画像データベースとの照合が迅速に実行される。しかも、特徴画像切出部と照合部とを別々の端末に備えている場合、入力画像データは切り出された特徴画像であるので、監視画像全体を送受信する場合に比べて通信速度が極めて早くなる。当該照合により、入力画像データが登録画像データベースに該当することを検出すれば、当該入力画像データを監視対象が撮像されている検出画像データとして特定(選択)することができる。   When the input image data is generated, the collation unit can collate the input image data with a registered image database to be monitored stored in advance. At this time, since the input image data is a cut out feature image, collation with the registered image database is quickly executed. In addition, when the feature image cutout unit and the collation unit are provided in different terminals, the input image data is the cut out feature image, so the communication speed is extremely faster than when the entire monitoring image is transmitted and received. . If it is detected by the comparison that the input image data corresponds to the registered image database, the input image data can be specified (selected) as detected image data in which the monitoring target is imaged.

検出画像データが特定されると、表示部は、当該検出画像データに基づいて特定される監視画像、もしくは、当該監視画像のうち、入力特徴画像を含む少なくとも一部の画像(以下では監視画像全体またはその一部の画像のいずれの場合も包含して監視画像等と称する場合がある)を表示する。換言すれば、表示部は、監視対象の画像が含まれる監視画像等を表示する。当該表示を行う際、表示部は、入力特徴画像の位置を表示する。これにより、表示部を閲覧した人(例えば、画像認証システムを使用して監視対象エリアを監視している監視者、例えば小売店舗の万引きGメン)は、表示されている画像(監視画像等を表示した画像、以下では、表示画と称する)中における、入力画像データに対応する特徴画像が、表示画のうち、どの画像部分であるかを視覚的に容易に特定することができる。したがって、表示画を見た監視者は、即座に監視対象を認識することができる。また、監視者の監視対象の監視負担を軽減することができる。これにより、監視対象の監視目的(例えば、犯罪抑止、事故防止、などのセキュリティの確保)に対して、早期の初動対応が可能になる。   When the detection image data is specified, the display unit specifies the monitoring image specified based on the detection image data, or at least a part of the monitoring image including the input feature image (hereinafter, the entire monitoring image). Or, it may be referred to as a monitoring image or the like including any of the partial images). In other words, the display unit displays a monitoring image including a monitoring target image. When performing the display, the display unit displays the position of the input feature image. Thereby, the person who browsed the display unit (for example, a monitor who monitors the monitoring target area using the image authentication system, for example, shoplifting G men at a retail store) can display the displayed image (monitoring image or the like). In the displayed image (hereinafter referred to as a display image), it is possible to easily identify visually which image portion of the display image the feature image corresponding to the input image data is. Therefore, the monitor who has viewed the display image can immediately recognize the monitoring target. In addition, the monitoring burden on the monitoring target of the supervisor can be reduced. This enables early initial response to the monitoring purpose of the monitoring target (for example, ensuring security such as crime prevention and accident prevention).

本発明に係る画像認証システムの更なる特徴構成は、
前記監視画像が動画である点にある。
A further characteristic configuration of the image authentication system according to the present invention is as follows.
The monitoring image is a moving image.

上記構成によれば、検出画像データに基づいて特定される監視動画において、入力特徴画像を含む少なくとも一部の動画部分や、当該動画中の入力特徴画像を含むフレーム(フレーム画像)の一部に入力特徴画像の位置が表示される。これによって、監視者は、監視対象の行動を時系列で把握することができる。   According to the above configuration, in the monitoring moving image specified based on the detected image data, at least a portion of the moving image portion including the input feature image or a part of the frame (frame image) including the input feature image in the moving image. The position of the input feature image is displayed. As a result, the supervisor can grasp the behavior to be monitored in time series.

本発明に係る画像認証システムの更なる特徴構成は、
前記画像特定情報が、撮像時刻または画像フレーム番号である点にある。
A further characteristic configuration of the image authentication system according to the present invention is as follows.
The image specifying information is an image capturing time or an image frame number.

上記構成によれば、撮像時刻または画像フレーム番号により、入力特徴画像を包含する監視画像を特定する。これによって、迅速且つ誤りなく監視画像を特定することができる。   According to the above configuration, the monitoring image including the input feature image is specified by the imaging time or the image frame number. As a result, the monitoring image can be identified quickly and without error.

本発明に係る画像認証システムの更なる特徴構成は、
前記位置情報が、前記監視画像中における座標情報である点にある。
A further characteristic configuration of the image authentication system according to the present invention is as follows.
The position information is at a point that is coordinate information in the monitoring image.

上記構成によれば、検出画像データに、監視画像中における入力特徴画像の座標情報が含まれる。これにより、表示部は、座標情報に基づいて監視画像中における入力特徴画像の位置を特定することができる。例えば、表示画中における監視対象の位置を枠で囲む表示をすることが可能となり、表示画を見た監視者は、即座に監視対象を認識することができる。   According to the above configuration, the detected image data includes the coordinate information of the input feature image in the monitoring image. Thereby, the display unit can specify the position of the input feature image in the monitoring image based on the coordinate information. For example, it is possible to display the position of the monitoring target in the display screen by surrounding it with a frame, and the monitor who sees the display screen can immediately recognize the monitoring target.

本発明に係る画像認証システムの更なる特徴構成は、
前記入力特徴画像は顔画像を含んでおり、
前記位置情報が、前記顔画像における目の部分の座標情報である点にある。
A further characteristic configuration of the image authentication system according to the present invention is as follows.
The input feature image includes a face image;
The position information is a point that is coordinate information of an eye part in the face image.

上記構成によれば、入力特徴画像に顔画像を包含し、監視画像中の顔画像に含まれる顔の目の部分の座標情報を、監視画像における顔画像の位置を代表する座標情報として扱う。これにより表示部は、目の部分の座標情報から顔画像の位置を特定し、当該特定した位置を表示することが可能となる。よって、表示画を見た監視者は、即座に監視対象を認識することができる。   According to the above configuration, the face image is included in the input feature image, and the coordinate information of the eye portion of the face included in the face image in the monitoring image is handled as coordinate information representing the position of the face image in the monitoring image. Thereby, the display unit can specify the position of the face image from the coordinate information of the eye part and display the specified position. Therefore, the monitor who has viewed the display image can immediately recognize the monitoring target.

本発明に係る画像認証システムの更なる特徴構成は、
前記照合部は、前記入力特徴画像に含まれる前記撮像対象と前記登録特徴画像に含まれる前記監視対象との間の一致度の情報である認証結果情報を生成し、
前記表示部は、前記認証結果情報を取得して表示する点にある。
A further characteristic configuration of the image authentication system according to the present invention is as follows.
The collation unit generates authentication result information that is information on a degree of coincidence between the imaging target included in the input feature image and the monitoring target included in the registered feature image,
The said display part exists in the point which acquires and displays the said authentication result information.

上記構成によれば、表示部は、照合部が生成した認証結果情報を表示画に含めて表示する。これにより、監視者は、表示画として表示された入力特徴画像が、どの程度監視対象として確からしいかを、一致度の情報として把握することができる。その結果、監視対象の監視目的に応じて、必要な初動対応が可能になる。   According to the above configuration, the display unit displays the authentication result information generated by the verification unit in the display image. Thereby, the monitor can grasp | ascertain how much the input characteristic image displayed as a display image is likely to be a monitoring object as information of a coincidence degree. As a result, the necessary initial response can be made according to the monitoring purpose of the monitoring target.

例えば、窃盗常習犯を監視対象としている場合において、表示部が表示した窃盗常習犯と認証された人物の顔(入力特徴画像)の一致度が十分に高ければ、監視者は積極的に窃盗常習犯と認証された人物に声掛けなどして犯罪抑止に務めることが可能となる。一方、一致度がさほど高くない場合には、監視者は、誤認(人違い)のおそれを勘案し、慎重に窃盗常習犯と認証された人物の行動を監視するなどして、窃盗常習犯を検出した場合の初動を適切に選択することができるため好適である。   For example, when a theft regular offender is to be monitored, if the degree of coincidence between the theft regular offender displayed on the display unit and the face of the authenticated person (input feature image) is sufficiently high, the supervisor will actively authenticate as the theft regular offender. It is possible to act as a criminal deterrence by calling out to the person who was made. On the other hand, if the degree of coincidence is not so high, the observer detected the theft criminals by carefully monitoring the behavior of persons who were certified as theft criminals, taking into account the possibility of misperception (misplacement). This is preferable because the initial movement can be appropriately selected.

上記目的を達成するための本発明に係る画像認証方法の特徴構成は、
監視対象エリアを撮像して監視画像を取得する撮像ステップと、
前記監視画像を記憶する監視画像記憶ステップと、
前記監視画像に含まれる撮像対象の特徴画像を入力特徴画像として切出すと共に、当該入力特徴画像と、前記監視画像を特定する画像特定情報と、前記監視画像における前記入力特徴画像の切出し位置を特定する位置情報と、を含む入力画像データを生成する特徴画像切出ステップと、
前記入力画像データと予め記憶された監視対象の登録画像データベースとを照合し、前記登録画像データベースに該当する前記入力画像データを検出画像データとして検出する照合ステップと、
前記照合ステップによる照合の結果、前記検出画像データが検出された場合に、前記検出画像データに基づいて特定される前記監視画像の前記入力特徴画像を含む少なくとも一部と前記入力特徴画像の位置とを表示する表示ステップと、を備える点にある。
The characteristic configuration of the image authentication method according to the present invention for achieving the above object is as follows:
An imaging step of imaging a monitoring target area to obtain a monitoring image;
A monitoring image storing step for storing the monitoring image;
A feature image of an imaging target included in the monitoring image is cut out as an input feature image, and the input feature image, image specifying information for specifying the monitoring image, and a cutting position of the input feature image in the monitoring image are specified. A feature image cut-out step for generating input image data including position information,
A collation step of collating the input image data with a registered image database to be monitored stored in advance, and detecting the input image data corresponding to the registered image database as detected image data;
When the detected image data is detected as a result of the collation in the collating step, at least a part including the input feature image of the monitoring image specified based on the detected image data, and a position of the input feature image And a display step for displaying.

上記構成によれば、上述した画像認証システムに係る作用効果を得ることができる。   According to the above configuration, it is possible to obtain the operational effects related to the above-described image authentication system.

上記目的を達成するための本発明に係る画像認証プログラムの特徴構成は、
監視対象エリアを撮像して取得された監視画像を記憶している撮像端末と当該監視画像を表示するための表示端末との間の情報処理をコンピュータに実行させるための画像認証プログラムであって、
前記撮像端末の前記監視画像に含まれる撮像対象の特徴画像を入力特徴画像として切出すと共に、当該入力特徴画像と、前記監視画像を特定する画像特定情報と、前記監視画像における前記入力特徴画像の切出し位置を特定する位置情報と、を含む入力画像データを生成する特徴画像切出処理と、
前記入力画像データと予め記憶された監視対象の登録画像データベースとを照合し、前記登録画像データベースに該当する前記入力画像データを検出画像データとして検出する照合処理と、
前記照合処理による照合の結果、前記検出画像データが検出された場合に、前記検出画像データに基づいて特定される前記監視画像の前記入力特徴画像を含む少なくとも一部と前記入力特徴画像の位置とを前記表示端末に表示させる表示処理と、を備える点にある。
In order to achieve the above object, the characteristic configuration of the image authentication program according to the present invention is as follows:
An image authentication program for causing a computer to execute information processing between an imaging terminal storing a monitoring image acquired by imaging a monitoring target area and a display terminal for displaying the monitoring image,
The feature image of the imaging target included in the monitoring image of the imaging terminal is cut out as an input feature image, the input feature image, image specifying information for specifying the monitoring image, and the input feature image in the monitoring image A feature image cutting process for generating input image data including position information for specifying a cutting position;
Collating the input image data with a pre-stored registered image database to be monitored, and collating processing for detecting the input image data corresponding to the registered image database as detected image data;
When the detected image data is detected as a result of collation by the collation processing, at least a part including the input feature image of the monitoring image specified based on the detected image data, and the position of the input feature image Display processing on the display terminal.

上記構成によれば、上述した画像認証システムに係る作用効果を得ることができる。   According to the above configuration, it is possible to obtain the operational effects related to the above-described image authentication system.

上述の画像認証システム、画像認証方法および画像認証プログラムによれば、監視者が、即座にかつ容易に、監視対象を視覚的に認識することができる。   According to the image authentication system, the image authentication method, and the image authentication program described above, the monitor can visually recognize the monitoring target immediately and easily.

画像認証システムの構成の説明図Illustration of the configuration of the image authentication system 画像認証システムの動作の説明図Illustration of operation of image authentication system 表示端末の表示態様の説明図Explanatory drawing of display mode of display terminal 表示端末の表示態様の説明図Explanatory drawing of display mode of display terminal 撮像端末の動作を説明するフローチャートFlow chart explaining operation of imaging terminal 認証サーバの動作を説明するフローチャートFlow chart explaining operation of authentication server 表示端末の動作を説明するフローチャートFlowchart explaining operation of display terminal 表示端末の動作を説明するフローチャートFlowchart explaining operation of display terminal 認証サーバの動作を説明するフローチャートFlow chart explaining operation of authentication server 表示端末の動作を説明するフローチャートFlowchart explaining operation of display terminal 表示端末における強調表示範囲の説明図Explanatory drawing of the highlight range on the display terminal 表示端末における強調表示範囲の説明図Explanatory drawing of the highlight range on the display terminal 入力画像データおよび検出画像データのデータ構造Data structure of input image data and detected image data 照合および認証方法の説明図Illustration of verification and authentication method 照合および認証方法の説明図Illustration of verification and authentication method 照合および認証方法の説明図Illustration of verification and authentication method 別実施形態に係る画像認証システムの動作の説明図Explanatory drawing of operation | movement of the image authentication system which concerns on another embodiment 認証部の動作を説明するフローチャートFlowchart explaining operation of authentication unit 撮像端末の動作を説明するフローチャートFlow chart explaining operation of imaging terminal

図1から図19に基づいて、本発明の実施形態に係る画像認証システムおよび当該システムを実現する画像認証方法、および画像認証プログラムについて説明する。   Based on FIGS. 1 to 19, an image authentication system according to an embodiment of the present invention, an image authentication method for realizing the system, and an image authentication program will be described.

〔第一実施形態〕
〔概略説明〕
本実施形態に係る画像認証システム100は、図2に示すように、監視対象エリアRを撮像して監視画像Pを取得するカメラ24(撮像部の一例)と、監視画像Pに含まれる撮像対象(例えば、店舗へ入場する人である入場者H)を認証する画像認証サーバであるサーバ1と、サーバ1が認証した認証結果などを表示する表示端末3と、で構成されている。サーバ1は、監視対象(例えば、窃盗常習犯T)の情報である登録情報F(登録認証情報の一例、図14から図16参照)が登録画像データベースとして記憶された登録情報記憶部51を有している。
[First embodiment]
[Overview]
As illustrated in FIG. 2, the image authentication system 100 according to the present embodiment includes a camera 24 (an example of an imaging unit) that captures a monitoring target area R and acquires a monitoring image P, and an imaging target included in the monitoring image P. The server 1 is an image authentication server that authenticates (for example, a visitor H who is a person entering the store), and a display terminal 3 that displays an authentication result and the like authenticated by the server 1. The server 1 includes a registration information storage unit 51 in which registration information F (an example of registration authentication information, see FIGS. 14 to 16), which is information on a monitoring target (for example, theft regular crime T), is stored as a registration image database. ing.

画像認証システム100は、撮像対象として、人や車などの物体を対象としうる。以下では、画像認証システム100が、店舗や建物などに入場する人である入場者Hから窃盗常習犯Tを検知して店舗の監視者A(図3、図4参照)に通知して警戒行動を促し、窃盗常習犯Tによる窃盗を未然防止するインテリジェントセキュリティシステムである場合を例示して説明する。また、以下では、撮像対象が入場者Hであり、監視対象が窃盗常習犯Tである場合を例示して説明する。   The image authentication system 100 can target an object such as a person or a car as an imaging target. In the following, the image authentication system 100 detects a theft regular crime T from a visitor H who is a person who enters a store, a building, etc., and notifies the store supervisor A (see FIGS. 3 and 4) to perform a warning action. The case of an intelligent security system that prompts and prevents theft by the theft regular offender T will be described as an example. Further, in the following, a case where the imaging target is the visitor H and the monitoring target is the theft regular crime T will be described as an example.

画像認証システム100は、サーバ1、撮像端末2、および表示端末3が連携し、監視対象エリアRを撮像して監視画像Pを取得する撮像ステップと、監視画像Pを記憶する監視画像記憶ステップと、監視画像Pに含まれる入場者Hの特徴画像を入力特徴画像43として切出すと共に、入力特徴画像43と、監視画像Pを特定する画像特定情報と、監視画像Pにおける入力特徴画像43の切出し位置を特定する位置情報と、を含む入力画像データ43dを生成する特徴画像切出ステップと、入力画像データ43dと予め記憶された窃盗常習犯Tの登録画像データベース(登録情報記憶部51、図1参照)とを照合し、登録画像データベースに該当する入力画像データ43dを検出画像データXとして検出する照合ステップと、照合ステップによる照合の結果、検出画像データXが検出された場合に、検出画像データXに基づいて特定される監視画像Pの入力特徴画像43を含む少なくとも一部と入力特徴画像43の位置とを表示する表示ステップと、を実行するようになっている。   In the image authentication system 100, the server 1, the imaging terminal 2, and the display terminal 3 cooperate to capture an image of the monitoring target area R and acquire the monitoring image P, and a monitoring image storage step of storing the monitoring image P The feature image of the visitor H included in the monitoring image P is cut out as the input feature image 43, the input feature image 43, the image specifying information for specifying the monitoring image P, and the input feature image 43 in the monitoring image P are cut out. A feature image cut-out step for generating input image data 43d including position information for specifying a position; a registered image database of the theft regular crime T stored in advance with the input image data 43d (see the registration information storage unit 51, see FIG. 1); ) To detect the input image data 43d corresponding to the registered image database as detected image data X; When the detected image data X is detected as a result of the collation, at least a part including the input feature image 43 of the monitoring image P specified based on the detected image data X and the position of the input feature image 43 are displayed. And a display step.

なお、画像認証システム100は、監視対象エリアRを撮像して取得された監視画像Pを記憶している撮像端末2とこれら監視画像Pを表示するための表示端末3との間の情報処理をコンピュータに実行させるための画像認証プログラムの実行により実現される。   The image authentication system 100 performs information processing between the imaging terminal 2 that stores the monitoring image P acquired by imaging the monitoring target area R and the display terminal 3 for displaying the monitoring image P. This is realized by executing an image authentication program to be executed by a computer.

この画像認証プログラムは、撮像端末2の監視画像Pに含まれる撮像対象の特徴画像を入力特徴画像43として切出すと共に、入力特徴画像43と、監視画像Pを特定する画像特定情報と、監視画像Pにおける入力特徴画像43の切出し位置を特定する位置情報と、を含む入力画像データ43dを生成する特徴画像切出処理と、入力画像データ43dと予め記憶された監視対象の登録画像データベースとを照合し、登録画像データベースに該当する入力画像データ43dを検出画像データXとして検出する照合処理と、当該照合処理による照合の結果、検出画像データXが検出された場合に、検出画像データXに基づいて特定される監視画像Pの入力特徴画像43を含む少なくとも一部と入力特徴画像43の位置とを表示端末3に表示させる表示処理と、を備えている。   This image authentication program cuts out the feature image of the imaging target included in the monitoring image P of the imaging terminal 2 as the input feature image 43, the input feature image 43, image specifying information for specifying the monitoring image P, and the monitoring image The feature image cut-out process for generating the input image data 43d including the position information for specifying the cut-out position of the input feature image 43 in P, and the input image data 43d and the registered image database to be monitored stored in advance are collated When the detected image data X is detected as a result of the collation processing for detecting the input image data 43d corresponding to the registered image database as the detected image data X and the collation by the collation processing, based on the detected image data X At least a part including the input feature image 43 of the specified monitoring image P and the position of the input feature image 43 are displayed on the display terminal 3. And it includes a processing shows, the.

〔詳細説明〕
〔用語および定義の説明〕
本実施形態における店舗とは、スーパーやコンビニエンスストアなどの小規模小売店や、デパートや百貨店などの総合小売店、ショッピングモールやショッピングセンタなどの商業地域などを含む。また、建物には、会社施設、市役所や小学校、幼稚園などの公共施設を包含する。
[Detailed explanation]
[Explanation of terms and definitions]
Stores in this embodiment include small retail stores such as supermarkets and convenience stores, general retail stores such as department stores and department stores, and commercial areas such as shopping malls and shopping centers. The building includes public facilities such as company facilities, city halls, elementary schools, and kindergartens.

図2に示すように、入場者Hとは、店舗に入場する人物であって、画像認証システム100にて認証を受ける人物である。入場者Hは、画像認証システム100ないし監視者A(図3、図4参照)の監視対象の候補である。入場者Hには窃盗常習犯Tが含まれる。   As shown in FIG. 2, the visitor H is a person who enters the store and is authenticated by the image authentication system 100. The visitors H are candidates for monitoring by the image authentication system 100 or the monitoring person A (see FIGS. 3 and 4). Visitor H includes a theft regular crime T.

窃盗常習犯Tとは、サーバ1の登録情報記憶部51(図1参照)に登録されている人物である。また、窃盗常習犯Tは、画像認証システム100ないし監視者Aの監視対象とされた人物である。   Theft regular crime T is a person registered in the registration information storage unit 51 (see FIG. 1) of the server 1. Further, the theft regular offender T is a person who is a monitoring target of the image authentication system 100 or the monitor A.

以下で言及する顔データとは、顔画像の画像情報(つまり情報化されたもの)またはその特徴量であり、入力特徴画像43の概念に含まれる。なお、顔画像とは、人物の顔をカメラ等で撮影した画像である。特徴量とは、顔画像における人物の顔の特徴を数値化した量である。特徴量の例示としては例えば、目や鼻や口などの形や、目間距離、目と鼻の距離、輪郭の情報や、メガネの有無、髪型、およびこれらから判断できる、性別の情報を数値化したものである。以下では、顔画像の画像情報またはその特徴量のいずれかもしくは両方を含めて、単に顔データと称する。   The face data mentioned below is image information (that is, informationized) of a face image or a feature amount thereof, and is included in the concept of the input feature image 43. The face image is an image obtained by photographing a person's face with a camera or the like. The feature amount is an amount obtained by quantifying a human face feature in a face image. Examples of feature quantities include, for example, the shape of eyes, nose and mouth, the distance between eyes, the distance between eyes and nose, contour information, the presence or absence of glasses, the hairstyle, and gender information that can be determined from these values. It has become. Hereinafter, the image information of the face image and / or the feature amount thereof is simply referred to as face data.

〔システム構成の説明〕
上述のごとく、画像認証システム100は、図1、図2に示すように、サーバ1、撮像端末2、および表示端末3を含んで構成されている。サーバ1、撮像端末2、および表示端末3は、電気通信回線のネットワークN(例えば、ローカルエリアネットワークや、インターネット)で双方向通信可能に接続されており、一体的に連携して動作できるようになっている。サーバ1は、ネットワークNを介して、複数の撮像端末2と接続されている。また、サーバ1は、ネットワークNを介して、複数の表示端末3と接続されている。表示端末3は、ネットワークNを介して、複数の撮像端末2と接続されている。画像認証システム100は、さらに報知機9を含んで構成されている。
[Description of system configuration]
As described above, the image authentication system 100 includes the server 1, the imaging terminal 2, and the display terminal 3, as shown in FIGS. The server 1, the imaging terminal 2, and the display terminal 3 are connected so as to be capable of bidirectional communication via a network N (for example, a local area network or the Internet) of an electric communication line so that they can operate in an integrated manner. It has become. The server 1 is connected to a plurality of imaging terminals 2 via the network N. The server 1 is connected to a plurality of display terminals 3 via the network N. The display terminal 3 is connected to a plurality of imaging terminals 2 via the network N. The image authentication system 100 further includes a notification device 9.

画像認証システム100は、複数の撮像端末2と、複数の表示端末3と、一つのサーバ1とが一個のドメインを形成し、当該ドメイン内のサーバ1と、撮像端末2と、表示端末3とがそれぞれ通信可能になっている。以下では、一つの撮像端末2と、一つの表示端末3と、一つのサーバ1とが通信する場合を例示して説明するが、撮像端末2や表示端末3は一つの場合に限られない。   In the image authentication system 100, a plurality of imaging terminals 2, a plurality of display terminals 3, and one server 1 form one domain, and the server 1, the imaging terminal 2, the display terminal 3, and the like in the domain Can communicate with each other. In the following, a case where one imaging terminal 2, one display terminal 3, and one server 1 communicate will be described as an example, but the imaging terminal 2 and the display terminal 3 are not limited to one.

画像認証システム100として、複数の撮像端末2と、複数の表示端末3と、報知機9とが、ネットワークNとしてのイントラネットに接続されている場合を例示して説明する。また、サーバ1は、ネットワークNとしてのインターネットに接続されている場合を例示して説明する。また、表示端末3等が接続されたイントラネットは、インターネットと双方向通信可能に接続されている場合を例示して説明している。また、イントラネット内の通信は、インターネットを介する通信よりも容易に大容量通信が可能で、また、通信コストが低廉である場合を例示して説明している。   As the image authentication system 100, a case where a plurality of imaging terminals 2, a plurality of display terminals 3, and a notification device 9 are connected to an intranet as a network N will be described as an example. Further, the server 1 will be described as an example in which the server 1 is connected to the Internet as the network N. Further, the case where the intranet to which the display terminal 3 or the like is connected is described as an example in which it is connected to the Internet so as to be capable of bidirectional communication. In addition, the intranet communication is described by taking as an example a case where large-capacity communication is possible more easily than communication via the Internet and the communication cost is low.

〔撮像端末の説明〕
撮像端末2は、カメラ24などを備えた静止画や動画を撮影して記録する装置である。撮像端末2は、図2に示すように、監視対象エリアRを撮像する位置に設置されている。撮像端末2は、監視対象エリアRとして設定した店舗の入口扉の入口周囲を撮像するように設置される。これにより、撮像端末2は、入口扉から店舗内に入場する入場者Hの顔等を撮像する。撮像端末2は、表示端末3が接続されたイントラネット(ネットワークNの一部)と同じイントラネットに接続されている。このイントラネットは、上述のごとく、インターネット(ネットワークNの一部)と双方向通信可能に接続されている。
[Description of imaging terminal]
The imaging terminal 2 is a device that captures and records still images and moving images that include a camera 24 and the like. As shown in FIG. 2, the imaging terminal 2 is installed at a position where the monitoring target area R is imaged. The imaging terminal 2 is installed so as to capture the vicinity of the entrance of the store entrance door set as the monitoring target area R. Thereby, the imaging terminal 2 images the face etc. of the visitor H who enters the store from the entrance door. The imaging terminal 2 is connected to the same intranet as the intranet (part of the network N) to which the display terminal 3 is connected. As described above, this intranet is connected to the Internet (a part of the network N) so as to be capable of bidirectional communication.

撮像端末2は、図1に示すように、撮像側中央制御部20と、監視対象エリアRを撮像して監視画像Pを取得するカメラ24と、監視画像Pを記憶する撮像側記憶部26(監視画像記憶部の一例)と、ネットワークNと通信する撮像側通信部29とを備えている。   As illustrated in FIG. 1, the imaging terminal 2 includes an imaging-side central control unit 20, a camera 24 that captures the monitoring target area R and acquires the monitoring image P, and an imaging-side storage unit 26 ( An example of a monitoring image storage unit) and an imaging-side communication unit 29 that communicates with the network N.

撮像端末2は、図1、図2に示すように、例えば、ネットワーク機能を有するハードディスクレコーダ(撮像側記憶部26)の画像入力インタフェースにカメラ24を接続し、さらに当該ハードディスクレコーダを、撮像側通信部29を介してネットワークNに接続した一連のシステムである。   As shown in FIGS. 1 and 2, the imaging terminal 2 connects a camera 24 to an image input interface of a hard disk recorder (imaging side storage unit 26) having a network function, and further connects the hard disk recorder to the imaging side communication. A series of systems connected to the network N via the unit 29.

撮像側通信部29は、撮像端末2をネットワークNと接続する通信インタフェースである。撮像側通信部29は、ネットワークNとの物理的ないし電気的な接続インタフェースとしての役割と共に、通信のプロトコル制御を行う場合もある。撮像側通信部29の機能としては、いわゆるLANカードなどのようなネットワークNとのインタフェース機能と共に、ルーターやゲートウェイなどの通信制御やプロトコル変換の機能を包含することができる。   The imaging side communication unit 29 is a communication interface that connects the imaging terminal 2 to the network N. The imaging-side communication unit 29 may perform communication protocol control along with a role as a physical or electrical connection interface with the network N. The functions of the imaging-side communication unit 29 can include communication control functions such as routers and gateways and protocol conversion functions as well as interface functions with the network N such as so-called LAN cards.

カメラ24は、CCDセンサやCMOSセンサなどを有する撮像ユニットである。カメラ24は、撮像端末2の監視対象エリアRを通過する入場者Hの顔を含めて撮影し監視画像Pを取得する。カメラ24は、監視対象エリアRを、一定の間隔で、連続して静止画として監視画像Pを撮像している。そしてカメラ24は、各々の監視画像Pが時系列で配列された動画のデータとして撮像側記憶部26に記憶している。つまり、監視画像Pは、カメラ24が撮像した動画のワンフレームである。   The camera 24 is an imaging unit having a CCD sensor or a CMOS sensor. The camera 24 captures the face of the visitor H passing through the monitoring target area R of the imaging terminal 2 and acquires the monitoring image P. The camera 24 continuously captures the monitoring image P as a still image of the monitoring target area R at regular intervals. The camera 24 stores the moving image data in which the monitoring images P are arranged in time series in the imaging side storage unit 26. That is, the monitoring image P is one frame of a moving image captured by the camera 24.

以下では、カメラ24が撮像した動画のワンフレーム(ある時点での静止画)を監視画像Pとして説明する。画像認証システム100においては、下記で説明する監視画像Pに対して行われる処理や操作などが、時系列で配列された監視画像Pに対して時系列で適応される。なお、画像認証システム100のカメラ24は動画を撮像する場合に限られない。   Hereinafter, one frame (still image at a certain point in time) of the moving image captured by the camera 24 will be described as the monitoring image P. In the image authentication system 100, processes and operations performed on the monitoring image P described below are applied in time series to the monitoring images P arranged in time series. The camera 24 of the image authentication system 100 is not limited to capturing moving images.

撮像側中央制御部20は、撮像端末2の動作を制御する機能部である。撮像側中央制御部20は、例えば、各種の処理を実現するためのソフトウェアプログラムと、該ソフトウェアプログラムを実行するCPUと、当該CPUによって制御される各種ハードウェア等によって構成されている。   The imaging-side central control unit 20 is a functional unit that controls the operation of the imaging terminal 2. The imaging-side central control unit 20 includes, for example, a software program for realizing various processes, a CPU that executes the software program, and various hardware that is controlled by the CPU.

撮像側中央制御部20は、カメラ24、撮像側記憶部26および撮像側通信部29などへ動作の指示を出力し、カメラ24と、撮像側記憶部26および撮像側通信部29などから情報を取得する。撮像側中央制御部20は、撮像側通信部29を介して監視画像Pもしくは監視画像Pを包含する動画の送信要求を取得して受け付けると、送信要求に対応する監視画像Pもしくは監視画像Pおよび監視画像Pの前後の画像を撮像側記憶部26から読み出して、監視画像Pを撮像側通信部29を介して送信する。以下では、監視画像Pおよび監視画像Pの前後の画像として、監視画像Pおよび監視画像Pの前後所定時間の動画(以下では監視動画45と称する)を、監視動画データ45dとして送信する場合を例示して説明する。   The imaging-side central control unit 20 outputs operation instructions to the camera 24, the imaging-side storage unit 26, the imaging-side communication unit 29, and the like, and receives information from the camera 24, the imaging-side storage unit 26, the imaging-side communication unit 29, and the like. get. When the imaging-side central control unit 20 acquires and accepts the monitoring image P or the moving image transmission request including the monitoring image P via the imaging-side communication unit 29, the monitoring image P or the monitoring image P corresponding to the transmission request and The images before and after the monitoring image P are read from the imaging side storage unit 26, and the monitoring image P is transmitted via the imaging side communication unit 29. In the following, as an example of the case where the monitoring image P and a moving image of the predetermined time before and after the monitoring image P (hereinafter referred to as the monitoring moving image 45) are transmitted as the monitoring moving image data 45d as the monitoring image P and the images before and after the monitoring image P. To explain.

撮像側中央制御部20は、例えば、表示端末3へ監視画像Pもしくは監視動画45を送信する要求をサーバ1から受け付ける。また、撮像側中央制御部20は、表示端末3へ監視画像Pを送信する要求をその表示端末3から受け付ける場合もある。以下、撮像側中央制御部20が、表示端末3へ監視動画45を送信する要求をその表示端末3から受け付ける場合を説明する。なお、以下では、監視画像Pもしくは監視動画45を送信する要求のいずれの場合も包含して、監視画像を送信する要求、と称する場合がある。監視画像Pや監視動画45を包括して、単に監視画像と称する場合がある。   The imaging-side central control unit 20 receives a request from the server 1 to transmit the monitoring image P or the monitoring moving image 45 to the display terminal 3, for example. The imaging-side central control unit 20 may receive a request for transmitting the monitoring image P to the display terminal 3 from the display terminal 3. Hereinafter, a case where the imaging-side central control unit 20 receives a request for transmitting the monitoring video 45 from the display terminal 3 will be described. Hereinafter, the request for transmitting the monitoring image P or the monitoring moving image 45 may be referred to as a request for transmitting the monitoring image. The monitoring image P and the monitoring moving image 45 may be collectively referred to simply as a monitoring image.

撮像側中央制御部20は、撮像側制御部21と、切出部22(特徴画像切出部の一例)とを有する。   The imaging side central control unit 20 includes an imaging side control unit 21 and a cutout unit 22 (an example of a feature image cutout unit).

撮像側制御部21は、監視画像Pから入場者Hの顔画像を検出する機能部である。撮像側制御部21は人の顔の構造的な特徴(例えば両目間の距離、目と鼻と口の距離)などに基づいて、監視画像Pにおける入場者Hの顔画像を検出する。撮像側制御部21は、撮像側中央制御部20において、顔を検出するためのプログラムの実行により実現される。   The imaging side control unit 21 is a functional unit that detects a face image of the visitor H from the monitoring image P. The imaging-side control unit 21 detects the face image of the visitor H in the monitoring image P based on the structural features of the human face (for example, the distance between both eyes, the distance between the eyes, the nose, and the mouth). The imaging side control unit 21 is realized by executing a program for detecting a face in the imaging side central control unit 20.

切出部22は、監視画像Pに含まれる入場者Hの顔画像の切り出しなどを行う。切出部22は、撮像側制御部21が入場者Hの顔を検出すると、監視画像Pから入場者Hの顔を含む画像範囲を切り出して、入力特徴画像43とし、入力特徴画像43の画像情報を含む入力画像データ43dを生成する。   The cutout unit 22 cuts out the face image of the visitor H included in the monitoring image P. When the imaging side control unit 21 detects the face of the visitor H, the cutout unit 22 cuts out an image range including the face of the visitor H from the monitoring image P, and sets the input feature image 43 as an image of the input feature image 43. Input image data 43d including information is generated.

切出部22は、撮像側中央制御部20において、顔を含む画像範囲を切り出すためのプログラムの実行により実現される。当該プログラムには、撮像端末2の監視画像Pに含まれる撮像対象の特徴画像を入力特徴画像43として切出すと共に、入力特徴画像43と、監視画像Pを特定する画像特定情報と、監視画像Pにおける入力特徴画像43の切出し位置を特定する位置情報と、を含む入力画像データ43dを生成する特徴画像切出処理が含まれている。   The cutout unit 22 is realized by executing a program for cutting out an image range including a face in the imaging-side central control unit 20. In the program, the feature image of the imaging target included in the monitoring image P of the imaging terminal 2 is cut out as the input feature image 43, the input feature image 43, image specifying information for specifying the monitoring image P, and the monitoring image P And a feature image cutout process for generating input image data 43d including position information for specifying a cutout position of the input feature image 43.

なお、切出部22が入場者Hの顔画像を切り出すことで、入力画像データ43dの情報量(いわゆる、バイトなどを単位とする量)を削減することができる。これにより、後述するサーバ1とのインターネットを介した通信を、高速かつ低廉なコストで実現することができる。   Note that the cutout unit 22 cuts out the face image of the visitor H, so that the information amount of the input image data 43d (a so-called amount in units of bytes or the like) can be reduced. Thereby, communication via the Internet with the server 1 to be described later can be realized at high speed and low cost.

切出部22は、入力画像データ43dに、監視画像Pを特定する情報(画像特定情報と称する)を含ませる。また、切出部22は、入力特徴画像43が、監視画像Pにおけるどの画像範囲であるかを特定する位置情報を入力画像データ43dに含ませる。   The cutout unit 22 includes information (referred to as image specifying information) for specifying the monitoring image P in the input image data 43d. In addition, the cutout unit 22 includes, in the input image data 43d, position information that specifies which image range the input feature image 43 is in the monitoring image P.

また、監視画像Pにおけるどの画像範囲であるかを特定する位置情報が入力画像データ43dに含まれるため、登録画像データベースに該当する入力画像データ43dである検出画像データXにも、入力特徴画像43が、監視画像Pにおけるどの画像範囲であるかを特定する位置情報が含まれることになる。したがって、検出画像データXに含まれる位置情報に基づいて、入力特徴画像43が、監視画像Pにおけるどの画像範囲であるかを特定することが可能となる。   Further, since the input image data 43d includes position information specifying which image range in the monitoring image P, the input feature image 43 is also included in the detected image data X that is the input image data 43d corresponding to the registered image database. However, position information specifying which image range in the monitoring image P is included is included. Therefore, based on the position information included in the detected image data X, it is possible to identify which image range in the monitoring image P the input feature image 43 is.

切出部22が入力画像データ43dに含ませる画像特定情報としては、例えば、監視画像Pを撮像した時刻(撮像時刻)の情報が挙げられる。時刻の情報とは、例えば、日時、時分の情報である。また、画像特定情報に含む情報は、監視画像Pを含む動画の撮影を開始してからの経過時間でもよい。また、動画は静止画を経時的に配列したものであるから、先頭画像からの連番(いわゆる、フレーム番号)でもよい。撮像端末2は複数存在する場合は、撮像端末2を特定する情報(例えば、撮像端末2に固有のID番号やカメラ24の設置場所に係る情報)も含みうる。以下では、画像特定情報として、撮像時刻とカメラ24の設置場所に係る情報を含む場合を例示して説明する。   Examples of the image specifying information included in the input image data 43d by the cutout unit 22 include information on the time (imaging time) when the monitoring image P was captured. The time information is, for example, date and time information. Further, the information included in the image specifying information may be an elapsed time since the start of moving image capturing including the monitoring image P. In addition, since the moving image is a sequence of still images with time, it may be a sequential number (so-called frame number) from the top image. When there are a plurality of imaging terminals 2, information for identifying the imaging terminal 2 (for example, information relating to an ID number unique to the imaging terminal 2 or an installation location of the camera 24) may be included. Hereinafter, a case will be described as an example in which the image specifying information includes information related to the imaging time and the installation location of the camera 24.

切出部22が入力画像データ43dに含ませる位置情報として、例えば、監視画像Pの画素における座標情報を含むことができる。切出部22が入力画像データ43dに含ませる位置情報としては、図11に示すように、入場者Hの顔画像における両目Eの座標や、図12に示すように、顔Kの輪郭を包含する範囲が含まれる矩形の四隅の座標情報(例えば、位置p1から位置p4の座標)などが挙げられる。座標情報として、顔画像における両目Eの座標を含む場合を説明している。   As the position information included in the input image data 43d by the cutting unit 22, for example, coordinate information on the pixels of the monitoring image P can be included. The position information included in the input image data 43d by the cutout unit 22 includes the coordinates of both eyes E in the face image of the visitor H as shown in FIG. 11 and the contour of the face K as shown in FIG. For example, coordinate information of four corners of a rectangle including the range to be performed (for example, coordinates from the position p1 to the position p4), and the like. A case where the coordinates of both eyes E in the face image are included as coordinate information is described.

人の顔のディメンジョンは、通常、所定の比率に定まる。そのため、図11に示すように、画像中における目の位置(座標)を特定すれば、当該画像中における顔画像の範囲を推定することができる。顔画像の位置(顔画像の範囲)を例えば矩形の内側として特定すべく矩形の四隅の四点の座標情報(例えば、図12に示すp1からp4)で表現する場合に比べて、目の座標情報を用いる場合は二点の座標を特定すれば足りるため、情報量を削減できる。   The dimension of a person's face is usually determined at a predetermined ratio. Therefore, as shown in FIG. 11, if the eye position (coordinates) in the image is specified, the range of the face image in the image can be estimated. Compared with the case where the position of the face image (the range of the face image) is expressed by the coordinate information (for example, p1 to p4 shown in FIG. 12) of the four corners of the rectangle in order to specify the position inside the rectangle, for example, When using information, it is sufficient to specify the coordinates of two points, so the amount of information can be reduced.

切出部22は、入力画像データ43dを生成すると、撮像側通信部29に送信指令を発して、入力画像データ43dをサーバ1に送信させる。入力画像データ43dは上述のごとく情報量を削減されているため、サーバ1への送信は高速かつ低廉なコストで実現することができる。   When the cutout unit 22 generates the input image data 43d, the cutout unit 22 issues a transmission command to the imaging side communication unit 29, and causes the server 1 to transmit the input image data 43d. Since the input image data 43d has a reduced amount of information as described above, transmission to the server 1 can be realized at high speed and low cost.

入力画像データ43dをサーバ1に送信する際、撮像側通信部29は、入力画像データ43dを、分離できない一つの情報群として送信する。例えば、入力画像データ43dを、JPEG(ジェイペグ、Joint Photographic Experts Group)フォーマットの画像データとし、当該画像データのメタデータの一つとして、監視画像Pを特定する画像特定情報や、監視画像Pにおけるどの画像範囲であるかを特定する位置情報を含ませる。これにより、入力画像データ43dに含まれる情報を、常に一体に管理して、情報の取り違いや、情報の欠落を防止することができる。また、この結果、画像認証システム100の情報セキュリティも高まるため有益である。   When transmitting the input image data 43d to the server 1, the imaging-side communication unit 29 transmits the input image data 43d as one information group that cannot be separated. For example, the input image data 43d is assumed to be image data in JPEG (Joint Photographic Experts Group) format. As one of the metadata of the image data, image specifying information for specifying the monitoring image P, which of the monitoring images P Include location information that identifies the image range. As a result, the information included in the input image data 43d can be managed as a single unit to prevent information gaps and information loss. As a result, the information security of the image authentication system 100 is also increased, which is beneficial.

入力画像データ43dは、例えば図13に示すように、情報区分i01のヘッダ情報から開始し、情報区分in(ただしnは3以上の整数)のフッタ情報で終了する一群の情報パッケージ(フォーマット)に含めて送信することができる。   For example, as shown in FIG. 13, the input image data 43d is a group of information packages (format) that starts with the header information of the information section i01 and ends with the footer information of the information section in (where n is an integer of 3 or more). Can be included and sent.

図13に図示する例では、情報区分in−1に入力特徴画像43の画像情報を包含している。情報区分in−2には、画像特定情報を包含している。情報区分in−2には、位置情報も包含している。なお、画像特定情報と位置情報とは、それぞれ別の情報区分に包含してもよい。   In the example illustrated in FIG. 13, the image information of the input feature image 43 is included in the information section in−1. The information classification in-2 includes image specifying information. The information section in-2 includes position information. Note that the image specifying information and the position information may be included in different information categories.

図5に図示したフローチャートを参照しつつ、撮像端末2の動作を説明する。以下では、各ステップを#123などと記載する。#記号の直後の数字が、各ステップの通し番号に相当する。たとえば、#123と記載する場合、第123番のステップ(ステップ#123)を指し示す。   The operation of the imaging terminal 2 will be described with reference to the flowchart illustrated in FIG. Hereinafter, each step is described as # 123 or the like. The number immediately after the # symbol corresponds to the serial number of each step. For example, when describing as # 123, it indicates the 123rd step (step # 123).

#101は、カメラ24で監視画像Pの撮像を開始するステップ(撮像ステップの一例)である。また、#102は、監視画像Pを撮像側記憶部26へ記録するステップ(監視画像記憶ステップの一例)である。カメラ24は、撮像を開始する(#101)と、#102に移行して、監視画像Pを動画として撮像側記憶部26への記録を開始し、#103に移行する。   # 101 is a step (an example of an imaging step) in which the camera 24 starts capturing the monitoring image P. Also, # 102 is a step (an example of a monitoring image storage step) in which the monitoring image P is recorded in the imaging side storage unit 26. When imaging starts (# 101), the camera 24 proceeds to # 102, starts recording the monitoring image P as a moving image in the imaging-side storage unit 26, and proceeds to # 103.

#103は、撮像側制御部21が、監視画像Pから入場者Hの顔画像を検出するまで待機(#103、No)し、監視画像Pから入場者Hの顔画像を検出すると(#103、Yes)、#104へ移行するステップである。#101で監視画像Pの記録を開始した後、当該記録を継続しながら、撮像側制御部21が、監視画像Pから入場者Hの顔画像を検出すると(#103、Yes)、#104へ移行する。   In step # 103, the imaging side control unit 21 waits until the face image of the visitor H is detected from the monitoring image P (No in # 103), and when the face image of the visitor H is detected from the monitoring image P (# 103). , Yes), a step of moving to # 104. After the recording of the monitoring image P is started in # 101, the imaging-side control unit 21 detects the face image of the visitor H from the monitoring image P while continuing the recording (# 103, Yes), and proceeds to # 104. Transition.

#104は、入力特徴画像43を切出すステップである(特徴画像切出ステップの一例)。#104では、切出部22が監視画像Pに含まれる入場者Hの顔画像の切り出しを行って、入力特徴画像43を生成する。#104で入力特徴画像43を生成すると、切出部22は、#105で入力画像データ43dを生成する。#105で入力画像データ43dを生成すると、切出部22は、サーバ1に、入力画像データ43dを送信する(#106)。当該送信は、切出部22の送信指示に基づいて、撮像側通信部29が行う。撮像側通信部29による入力画像データ43dの送信が行われた後、#107へ移行する。   # 104 is a step of cutting out the input feature image 43 (an example of a feature image cutting out step). In # 104, the cutout unit 22 cuts out the face image of the visitor H included in the monitoring image P, and generates the input feature image 43. When the input feature image 43 is generated in # 104, the cutout unit 22 generates input image data 43d in # 105. When the input image data 43d is generated in # 105, the clipping unit 22 transmits the input image data 43d to the server 1 (# 106). The transmission is performed by the imaging-side communication unit 29 based on a transmission instruction from the cutout unit 22. After the input image data 43d is transmitted by the imaging side communication unit 29, the process proceeds to # 107.

#107は、撮像端末2が、サーバ1や、表示端末3から、表示端末3へ監視画像を送信する要求を受け付けるまで待機(#107、No)し、当該要求を受け付けると(#107、Yes)、#108へ移行するステップである。   # 107 waits until the imaging terminal 2 receives a request for transmitting a monitoring image from the server 1 or the display terminal 3 to the display terminal 3 (# 107, No), and receives the request (# 107, Yes). ), A step of moving to # 108.

#108は、撮像端末2が表示端末3へ、監視画像を送信するステップである。監視画像は、監視画像Pの前後所定時間(例えば、前後30秒)の範囲を包含した監視動画45である場合を例示して説明している。   In step # 108, the imaging terminal 2 transmits a monitoring image to the display terminal 3. The case where the monitoring image is the monitoring moving image 45 including a range of a predetermined time before and after the monitoring image P (for example, 30 seconds before and after) is described as an example.

#108では、撮像側中央制御部20が撮像側記憶部26から監視動画45を読み出して、撮像側通信部29を介して表示端末3への監視動画45を送信する。その後、#109へ移行して一連の動作を終了する。#109へ移行して一連の動作を終了すると、#101へ戻る。なお、監視画像が監視動画45である場合を例示したが、監視画像が監視画像Pである場合も上記と同様である。また、監視画像として、監視画像Pと監視動画45とを送信する場合もある。   In # 108, the imaging-side central control unit 20 reads the monitoring movie 45 from the imaging-side storage unit 26, and transmits the monitoring movie 45 to the display terminal 3 via the imaging-side communication unit 29. Thereafter, the process proceeds to # 109 and the series of operations is terminated. When the process proceeds to # 109 and the series of operations is completed, the process returns to # 101. In addition, although the case where the monitoring image is the monitoring moving image 45 is illustrated, the same applies to the case where the monitoring image is the monitoring image P. Moreover, the monitoring image P and the monitoring moving image 45 may be transmitted as the monitoring image.

〔サーバの説明〕
〔サーバの構成と動作についての説明〕
サーバ1は、入場者Hを窃盗常習犯Tであると認証する機能を提供する。なお、以下で説明する、入場者Hが窃盗常習犯Tであると認証するとの概念には、後述するように、入場者Hが窃盗常習犯Tであると判定されることが含まれる。また、認証の概念には、入場者Hが窃盗常習犯Tである蓋然性が高いと判定されることが含まれる。さらに、認証の概念には、入場者Hが窃盗常習犯Tであるとの推定が否定されないと判定されることが含まれる。
[Description of server]
[Explanation of server configuration and operation]
The server 1 provides a function of authenticating the visitor H as a theft regular crime T. Note that the concept of authenticating that the visitor H is the theft regular crime T described below includes determining that the visitor H is the theft regular crime T as described later. In addition, the concept of authentication includes determining that the probability that the visitor H is a theft regular crime T is high. Furthermore, the concept of authentication includes determining that the presumption that the visitor H is the theft habitual offender T is not denied.

図1、図2に示すように、サーバ1は、サーバ側中央制御部10と、サーバ1で取り扱う情報を記憶するサーバ側記憶部50と、ネットワークNと通信するサーバ側通信部19とを備えている。サーバ1は、ネットワークNとしてのインターネットを介して撮像端末2や表示端末3と接続されている。   As shown in FIGS. 1 and 2, the server 1 includes a server-side central control unit 10, a server-side storage unit 50 that stores information handled by the server 1, and a server-side communication unit 19 that communicates with the network N. ing. The server 1 is connected to the imaging terminal 2 and the display terminal 3 via the Internet as the network N.

サーバ側通信部19は、サーバ側中央制御部10の動作指令によりサーバ1の外部のネットワークNと通信するための通信インタフェースである。サーバ側通信部19は、ネットワークNを介して、撮像端末2および表示端末3と通信する。   The server side communication unit 19 is a communication interface for communicating with the network N outside the server 1 according to an operation command from the server side central control unit 10. The server side communication unit 19 communicates with the imaging terminal 2 and the display terminal 3 via the network N.

サーバ側記憶部50には、登録情報記憶部51、照合情報記憶部52および一時記憶部53が含まれる。サーバ側記憶部50は、HDD(Hard Disk Drive)や不揮発性RAM(Random Access Memory)といった記憶デバイスで構成される。サーバ側記憶部50は、物理的に別個の記憶デバイスであってもよいし、一つの記憶デバイスに設けられた二つの記憶領域であってもよい。また、サーバ側記憶部50は、画像認証システム100が設けられた場所(例えばサーバールーム)に設けられてもよいし、いわゆるクラウド上の記憶領域であってもよい。   The server-side storage unit 50 includes a registration information storage unit 51, a collation information storage unit 52, and a temporary storage unit 53. The server-side storage unit 50 includes a storage device such as an HDD (Hard Disk Drive) or a nonvolatile RAM (Random Access Memory). The server-side storage unit 50 may be a physically separate storage device or may be two storage areas provided in one storage device. The server-side storage unit 50 may be provided in a place (for example, a server room) where the image authentication system 100 is provided, or may be a storage area on a so-called cloud.

登録情報記憶部51には、図14から図16に示すように、登録情報Fが記憶されている。登録情報Fには、窃盗常習犯Tの顔画像が登録画像44(図2参照)として含まれている。窃盗常習犯Tである人物H1等の顔データを含む登録情報Fを、末尾に同じ番号を付して登録情報F1等と呼ぶ場合がある。また、同じ人物(例えば人物H1)に関して複数の登録情報Fが記憶されている場合があり、それら登録情報Fを、末尾にさらに連番を付して登録情報F11、F12、F13等と呼ぶ場合がある。この場合、アルファベットの直後の数字が人物H1等の番号に対応し、その次の数字が人物H1等の複数の顔データの中での通し番号を表す。   The registration information storage unit 51 stores registration information F as shown in FIGS. The registration information F includes a face image of the theft regular offender T as a registration image 44 (see FIG. 2). The registration information F including the face data of the person H1 or the like who is the theft regular crime T may be referred to as registration information F1 or the like with the same number at the end. In addition, a plurality of pieces of registration information F may be stored for the same person (for example, person H1), and the registration information F is referred to as registration information F11, F12, F13, etc. with a serial number added to the end. There is. In this case, the number immediately after the alphabet corresponds to the number such as the person H1, and the next number represents the serial number in the plurality of face data such as the person H1.

図1、図2に戻り、照合情報記憶部52には、入力画像データ43dと登録情報Fとを照合して一致度を算出するプログラム(以下では照合プログラムと称する)が記憶されている。なお、一致度は0から100の範囲で算出される。一致度は、完全に一致する場合が100である。また、一致度は、完全な不一致である場合が0である。   Returning to FIGS. 1 and 2, the collation information storage unit 52 stores a program (hereinafter referred to as a collation program) that collates the input image data 43 d and the registration information F to calculate the degree of coincidence. The degree of coincidence is calculated in the range of 0 to 100. The degree of coincidence is 100 when there is a complete coincidence. The degree of coincidence is 0 when there is a complete disagreement.

一時記憶部53には、サーバ1がネットワークNから取得した情報が一時的に記憶される。サーバ側通信部19が、ネットワークNを介して撮像端末2から受信した入力画像データ43dや、照合部12が照合した結果が記憶される。   Information temporarily acquired from the network N by the server 1 is temporarily stored in the temporary storage unit 53. The server side communication unit 19 stores the input image data 43d received from the imaging terminal 2 via the network N and the result of collation by the collation unit 12.

サーバ側中央制御部10は、サーバ1の動作全体を制御する機能部である。サーバ側中央制御部10は、サーバ側記憶部50や、サーバ側通信部19などへ動作の指示を出力し、また、サーバ側記憶部50やサーバ側通信部19から情報を取得する。   The server-side central control unit 10 is a functional unit that controls the overall operation of the server 1. The server-side central control unit 10 outputs an operation instruction to the server-side storage unit 50, the server-side communication unit 19, and the like, and acquires information from the server-side storage unit 50 and the server-side communication unit 19.

サーバ側中央制御部10は、中央制御部11と、入力画像データ43dと登録情報Fとを照合して検出画像データXを検出する照合部12と、照合部12が照合した結果に基づいて、入場者Hが窃盗常習犯Tであると認証する認証部13と、検出画像データXに認証部13がした認証の結果に係る情報を付加する処理部14と、を備えている。ここで、検出画像データXとは、複数の入力画像データ43dのうち、照合部12が登録情報Fと一致することを検出した入力画像データ43dのことを言う。   The server-side central control unit 10 compares the central control unit 11, the collation unit 12 that collates the input image data 43d and the registration information F to detect the detected image data X, and the collation unit 12 collates the results. The authentication part 13 which authenticates that the visitor H is the theft regular crime T, and the process part 14 which adds the information which concerns on the result of the authentication which the authentication part 13 performed to the detected image data X are provided. Here, the detected image data X refers to the input image data 43d in which it is detected that the matching unit 12 matches the registered information F among the plurality of input image data 43d.

図2には、監視画像Pから検出された複数の入場者Hのそれぞれに対応する複数の入力画像データ43dがサーバ1に送信されている場合を図示している。そして、サーバ1に送信された複数の入力画像データ43dのうち、登録情報Fと一致する入力画像データ43dが検出画像データXとして、サーバ1から表示端末3に送信されている場合を図示している。   FIG. 2 illustrates a case where a plurality of input image data 43 d corresponding to each of a plurality of visitors H detected from the monitoring image P is transmitted to the server 1. Then, the case where the input image data 43d that matches the registration information F among the plurality of input image data 43d transmitted to the server 1 is transmitted as the detected image data X from the server 1 to the display terminal 3 is illustrated. Yes.

サーバ側中央制御部10は、例えば、各種の処理を実現するためのソフトウェアプログラムと、該ソフトウェアプログラムを実行するCPUと、該CPUによって制御される各種ハードウェア等によって構成されている。サーバ側中央制御部10の動作に必要なソフトウェアプログラムやデータはサーバ側記憶部50に保存されるが、保存先は特に限定されず、別途専用に設けられたディスクやフラッシュメモリ等の記憶装置に保存される態様であってもよいし、通信可能に接続されたサーバや記憶装置等に保存される態様であっても構わない。   The server-side central control unit 10 includes, for example, a software program for realizing various processes, a CPU that executes the software program, and various hardware that is controlled by the CPU. Software programs and data necessary for the operation of the server-side central control unit 10 are stored in the server-side storage unit 50, but the storage destination is not particularly limited, and is stored in a dedicated storage device such as a disk or flash memory. The mode may be stored, or may be stored in a server or a storage device connected so as to be communicable.

中央制御部11は、サーバ1が受信した情報や、サーバ1が送信する情報の送受信を制御する機能部である。中央制御部11は、サーバ側通信部19がネットワークNから入力画像データ43dを受信すると、入力画像データ43dを一時記憶部53に記憶する。   The central control unit 11 is a functional unit that controls transmission / reception of information received by the server 1 and information transmitted by the server 1. When the server-side communication unit 19 receives the input image data 43d from the network N, the central control unit 11 stores the input image data 43d in the temporary storage unit 53.

中央制御部11は、検出画像データXが一時記憶部53に記憶されると、サーバ側通信部19に、検出画像データXを表示端末3へ送信させる指示を送る。なお、この際、中央制御部11は、報知機9に、報知を指示することができる。当該指示により、報知機9は、表示端末3が検出画像データXを受信したことを監視者A(図3、図4参照)に報知する。これにより監視者Aは、表示端末3の確認を促されて、表示端末3による検出画像データXの受信を即座に気付くことができる。なお、検出画像データXは、入力画像データ43dと同様に情報量を削減されているため、サーバ1から表示端末3への検出画像データXの送信は、高速かつ低廉なコストで実現される。   When the detected image data X is stored in the temporary storage unit 53, the central control unit 11 sends an instruction to the server side communication unit 19 to transmit the detected image data X to the display terminal 3. At this time, the central control unit 11 can instruct the notification device 9 to notify. In response to the instruction, the notification device 9 notifies the monitor A (see FIGS. 3 and 4) that the display terminal 3 has received the detected image data X. Thus, the supervisor A is prompted to confirm the display terminal 3 and can immediately notice the reception of the detected image data X by the display terminal 3. Since the detected image data X has a reduced amount of information in the same manner as the input image data 43d, transmission of the detected image data X from the server 1 to the display terminal 3 is realized at high speed and at low cost.

照合部12は、入力画像データ43dと登録情報F(図14から図16参照)とを照合し、入場者Hが、登録情報Fに窃盗常習犯Tとして登録されている人物H1等との一致度を算出する。   The collation unit 12 collates the input image data 43d with the registration information F (see FIGS. 14 to 16), and the degree of coincidence between the attendee H and the person H1 registered as the theft regular crime T in the registration information F Is calculated.

照合部12は、照合情報記憶部52に記憶されている照合プログラムを呼びだして、当該照合プログラムを実行する。照合部12は、照合プログラムの実行により、入力画像データ43dと登録情報Fとを照合する。照合プログラムには、入力画像データ43dと予め記憶された監視対象の登録画像データベースとを照合し、登録画像データベースに該当する入力画像データ43dを検出画像データXとして検出する照合処理が含まれる。   The collation unit 12 calls the collation program stored in the collation information storage unit 52 and executes the collation program. The collation unit 12 collates the input image data 43d and the registration information F by executing the collation program. The collation program includes collation processing in which the input image data 43d is collated with a registered image database to be monitored stored in advance, and the input image data 43d corresponding to the registered image database is detected as detected image data X.

照合部12は、入力画像データ43dと登録情報Fとを照合するに際し、入力画像データ43dに含まれる顔データ、特に特徴量に基づいて照合することができる。また、入力画像データ43dに基づいて新たに顔画像の特徴量を算出し、照合することもできる。   When collating the input image data 43d and the registration information F, the collation unit 12 can collate based on the face data included in the input image data 43d, in particular, the feature amount. It is also possible to newly calculate the feature amount of the face image based on the input image data 43d and collate it.

照合部12は、照合して求めた一致度に基づいて、入力画像データ43dを検出画像データXとして検出する。照合部12は、照合部12が照合して求めた一致度が所定の閾値(例えば第一判定値V1、60)以上である場合に、監視対象が検出されたと判定し、入力画像データ43dを検出画像データXとして検出する。照合部12は一致度が所定の閾値(例えば第一判定値V1)未満である場合に、入力画像データ43dを検出画像データXとして検出しない。なお、画像特定情報が入力画像データ43dに含まれているため、登録画像データベースに該当する入力画像データ43dである検出画像データXにも画像特定情報が含まれることになる。   The collation unit 12 detects the input image data 43d as detected image data X based on the degree of coincidence obtained by collation. The collation unit 12 determines that the monitoring target is detected when the degree of coincidence obtained by collation by the collation unit 12 is equal to or greater than a predetermined threshold (for example, the first determination value V1, 60), and determines the input image data 43d. Detected as detected image data X. The matching unit 12 does not detect the input image data 43d as the detected image data X when the degree of coincidence is less than a predetermined threshold (for example, the first determination value V1). Since the image specifying information is included in the input image data 43d, the detected image data X, which is the input image data 43d corresponding to the registered image database, also includes the image specifying information.

認証部13は、照合部12が検出画像データXを検出すると、後述するように所定の条件のもと、検出画像データXに対応する入場者Hを窃盗常習犯Tである、と認証する。認証部13は認証に際し、照合部12が求めた一致度の情報を参酌し、認証結果に係る情報として、認証した旨の情報と、後述する認証スコアとを出力し、これらを認証結果として一時記憶部53に記憶する。以下では、認証スコアと認証した旨の情報とを包含して、単に認証結果と称する。   When the verification unit 12 detects the detected image data X, the authentication unit 13 authenticates the visitor H corresponding to the detected image data X as the theft regular crime T under a predetermined condition as will be described later. At the time of authentication, the authentication unit 13 refers to the information on the degree of coincidence obtained by the verification unit 12 and outputs information indicating that authentication has been performed and information to be described later as information related to the authentication result, and temporarily outputs these as authentication results. Store in the storage unit 53. Hereinafter, the authentication score and the information indicating the authentication are included and simply referred to as an authentication result.

処理部14は、認証部13により検出画像データXに対応する入場者Hが窃盗常習犯Tであると認証されると、すなわち、認証結果が一時記憶部53に記憶されると、検出画像データXとして検出された入力画像データ43dに、照合部12が求めた一致度の情報と、認証部13がした認証結果と、登録画像44の画像データとを付加する。以下では、照合部12が求めた一致度の情報と認証部13がした認証結果に係る情報と登録画像44の画像データとを包括して、単に付帯情報と称する場合がある。   When the authentication unit 13 authenticates the visitor H corresponding to the detected image data X as the theft regular crime T, that is, when the authentication result is stored in the temporary storage unit 53, the processing unit 14 detects the detected image data X Are added to the detected input image data 43d, the degree of coincidence information obtained by the collation unit 12, the authentication result obtained by the authentication unit 13, and the image data of the registered image 44. Hereinafter, the degree of coincidence information obtained by the collation unit 12, the information related to the authentication result performed by the authentication unit 13, and the image data of the registered image 44 may be referred to simply as supplementary information.

検出画像データXとして検出された入力画像データ43dは、図13に示されるように、情報区分i01のヘッダ情報から開始し、情報区分in(ただしnは3以上の整数)のフッタ情報で終了する一群の情報パッケージとしてハンドリングされている。処理部14は、付帯情報を、検出画像データXの情報区分in−2に記録して検出画像データXを更新し、一時記憶部53に記憶する。つまり、一時記憶部53には、付帯情報が付加されて更新された検出画像データX(以下では単に検出画像データXと称する)が記憶される。   As shown in FIG. 13, the input image data 43d detected as the detected image data X starts from the header information of the information section i01 and ends with the footer information of the information section in (where n is an integer of 3 or more). It is handled as a group of information packages. The processing unit 14 records the incidental information in the information section in-2 of the detected image data X, updates the detected image data X, and stores it in the temporary storage unit 53. That is, the temporary storage unit 53 stores detected image data X (hereinafter, simply referred to as detected image data X) that is updated with the accompanying information.

〔サーバが行う認証についての説明〕
照合部12が行う照合について説明する。照合部12は1つの入力画像データ43dと複数の登録情報Fとを照合して一致度を求め、複数の登録情報Fの中で最も一致度が大きい登録情報Fを選択する。この際、最も大きな一致度が第一判定値V1(例えば、60)以上であれば入力画像データ43dを検出画像データXとして検出する。
[Description of authentication performed by the server]
The collation performed by the collation unit 12 will be described. The collation unit 12 collates one input image data 43d and a plurality of registration information F to obtain a degree of coincidence, and selects the registration information F having the highest degree of coincidence among the plurality of registration information F. At this time, if the largest matching degree is equal to or greater than the first determination value V1 (for example, 60), the input image data 43d is detected as the detected image data X.

認証部13が、照合部12で検出された登録情報F(最も一致度が大きい登録情報F)の一致度が所定の閾値よりも大きい場合に、入場者Hを窃盗常習犯Tであると認証する。以下では、特定の窃盗常習犯Tであると認証するための一致度の閾値を、第二判定値V2と称する場合がある。また、以下では、登録情報Fの中で最も一致度が大きい登録情報Fを選択した際の一致度を、単に一致度と称する場合がある。   The authentication unit 13 authenticates the visitor H as a theft regular crime T when the degree of coincidence of the registration information F (the registration information F having the largest degree of coincidence) detected by the verification unit 12 is greater than a predetermined threshold. . Hereinafter, the threshold value of the degree of coincidence for authenticating as a specific theft regular crime T may be referred to as a second determination value V2. Hereinafter, the degree of coincidence when the registration information F having the largest degree of coincidence among the registration information F is selected may be simply referred to as the degree of coincidence.

第二判定値V2は第一判定値V1と等しく設定されている。なお、第二判定値V2は第一判定値V1よりも大きな値を設定してもよい。   The second determination value V2 is set equal to the first determination value V1. The second determination value V2 may be set larger than the first determination value V1.

以下では、サーバ1における認証の実行について具体例を挙げて説明する。まず、窃盗常習犯Tの登録情報Fについて説明する。   Hereinafter, the execution of authentication in the server 1 will be described with a specific example. First, the registration information F of the theft regular offender T will be described.

登録情報記憶部51には、図14から図16に示すように、窃盗常習犯Tの登録情報Fがあらかじめ記憶されている。この例では、窃盗常習犯Tである3人の人物H1、H2およびH3について、各々複数の登録情報Fが、人物毎に関連づけられた状態で、登録情報記憶部51に記憶されている。   As shown in FIGS. 14 to 16, the registration information storage unit 51 stores registration information F of the theft regular offender T in advance. In this example, a plurality of pieces of registration information F are stored in the registration information storage unit 51 for each of the three persons H1, H2, and H3 who are theft criminals T.

詳しくは、人物H1について、4つの登録情報F11、F12、F13およびF14が記憶されている。人物H2について、2つの登録情報F21およびF22が記憶されている。人物H3について、3つの登録情報F31、F32およびF33が記憶されている。このように一人の窃盗常習犯Tに対して複数の登録情報Fが関連づけられている。   Specifically, four pieces of registration information F11, F12, F13, and F14 are stored for the person H1. Two pieces of registration information F21 and F22 are stored for the person H2. Three pieces of registration information F31, F32, and F33 are stored for the person H3. In this way, a plurality of registration information F is associated with one theft regular offender T.

図14の例では、照合部12により算出された一致度が登録情報Fの下に示されている。例えば、人物H1に係る入力画像データ43dと、人物H2に係る登録情報F21〜F24との一致度は、18、21、22、19と算出されている。   In the example of FIG. 14, the degree of coincidence calculated by the collation unit 12 is shown below the registration information F. For example, the degree of coincidence between the input image data 43d related to the person H1 and the registration information F21 to F24 related to the person H2 is calculated as 18, 21, 22, and 19.

この図14の例では、人物H3に係る登録情報F32が、一致度が97であり最も大きいので、登録情報F32に対応する入力画像データ43dを検出画像データXとして検出する。図15の例では、人物H3に係る登録情報F32が、一致度が67であり最も大きいので、登録情報F32に対応する入力画像データ43dを検出画像データXとして検出する。また、図16の例では、人物H3に係る登録情報F32が、一致度が27であり最も大きいので、登録情報F32に対応する入力画像データ43dを検出画像データXとして検出する。   In the example of FIG. 14, the registration information F32 related to the person H3 has the highest matching score of 97, and therefore the input image data 43d corresponding to the registration information F32 is detected as the detected image data X. In the example of FIG. 15, the registration information F32 related to the person H3 has the highest matching score of 67, and therefore the input image data 43d corresponding to the registration information F32 is detected as the detected image data X. In the example of FIG. 16, the registration information F32 related to the person H3 has the highest matching score of 27, and thus the input image data 43d corresponding to the registration information F32 is detected as the detected image data X.

図6に図示したフローチャートを参照しつつ、サーバ1の動作を説明する。   The operation of the server 1 will be described with reference to the flowchart shown in FIG.

サーバ1が認証可能な状態になる(#111)と、中央制御部11は、サーバ側通信部19が撮像端末2から入力画像データ43dを受信するまで待機する(#112、No)。サーバ側通信部19が撮像端末2から入力画像データ43dを受信する(#112、Yes)と、中央制御部11は、入力画像データ43dを一時記憶部53に記憶して、#113へ移行する。   When the server 1 is in an authenticable state (# 111), the central control unit 11 waits until the server side communication unit 19 receives the input image data 43d from the imaging terminal 2 (# 112, No). When the server-side communication unit 19 receives the input image data 43d from the imaging terminal 2 (# 112, Yes), the central control unit 11 stores the input image data 43d in the temporary storage unit 53 and proceeds to # 113. .

#113は照合するステップである(照合ステップの一例)。#113では、照合部12が、入力画像データ43dと登録情報Fとを照合する。照合部12は、入力画像データ43dを一時記憶部53から読み出す。また、照合部12は、登録情報記憶部51から登録情報Fを読み出す。そして照合部12は、入力画像データ43dを登録情報Fと照合し、一致度が第一判定値V1(60)未満であれば(#114、No)、#119へ移行して終了する。照合部12は、一致度が第一判定値V1(60)以上であれば(#114、Yes)、監視対象が検出されたと判定して#115に移行する。この際、照合部12は、入力画像データ43dを検出画像データXとして検出する。   # 113 is a step of collation (an example of a collation step). In # 113, the collation unit 12 collates the input image data 43d with the registration information F. The collation unit 12 reads the input image data 43 d from the temporary storage unit 53. The collation unit 12 reads the registration information F from the registration information storage unit 51. The collation unit 12 collates the input image data 43d with the registration information F. If the degree of coincidence is less than the first determination value V1 (60) (# 114, No), the process proceeds to # 119 and ends. If the degree of coincidence is equal to or higher than the first determination value V1 (60) (# 114, Yes), the collation unit 12 determines that the monitoring target has been detected, and proceeds to # 115. At this time, the collation unit 12 detects the input image data 43d as detected image data X.

#115は認証を行うステップである。#115では、認証部13は、検出画像データXとして検出された入力画像データ43dに対応する入場者Hを窃盗常習犯Tであると認証し、#116へ移行する。   In step # 115, authentication is performed. In # 115, the authentication unit 13 authenticates the visitor H corresponding to the input image data 43d detected as the detected image data X as the theft regular crime T, and proceeds to # 116.

本実施形態では、第二判定値V2は第一判定値V1と等しいため、検出画像データXとして検出された入力画像データ43dに対応する入場者Hは全て窃盗常習犯Tとして認証される。   In the present embodiment, since the second determination value V2 is equal to the first determination value V1, all visitors H corresponding to the input image data 43d detected as the detected image data X are authenticated as the theft regular crime T.

なお、#115では、認証部13は認証に際し、認証スコアを生成する。認証スコアとは、認証の確からしさを所定の水準に区分け(例えば、「高」と「低」、など)したり、認証の確からしさを数値表示(例えば、0から100の範囲で表示し、100が最も認証の確からしさが高い)したりするものである。認証部13は、認証すると、認証結果を一時記憶部53に記憶する。認証部13が認証スコアを生成する動作については後述する。   In step # 115, the authentication unit 13 generates an authentication score upon authentication. The authentication score classifies the authentication probability into a predetermined level (for example, “high” and “low”, etc.), displays the authentication probability in a numerical value (for example, in the range of 0 to 100, 100 is the highest probability of authentication). When the authentication unit 13 authenticates, the authentication result is stored in the temporary storage unit 53. The operation in which the authentication unit 13 generates the authentication score will be described later.

#116は、検出画像データXに付帯情報を付加するステップである。#116では、処理部14は、検出画像データXとして検出された入力画像データ43dに、照合部12が求めた一致度の情報と、認証部13がした認証結果と、を付加し、あらたな検出画像データXとして一時記憶部53に記憶する。そして#117へ移行する。   # 116 is a step of adding incidental information to the detected image data X. In # 116, the processing unit 14 adds the degree-of-match information obtained by the matching unit 12 and the authentication result performed by the authentication unit 13 to the input image data 43d detected as the detected image data X, and newly The detected image data X is stored in the temporary storage unit 53. Then, the process proceeds to # 117.

#117は、検出画像データXを表示端末3へ送信するステップである。#117では、中央制御部11が一時記憶部53から検出画像データXを読み出す。そして、中央制御部11は、サーバ側通信部19を介して検出画像データXを表示端末3へ送信する。そして#118へ移行する。   # 117 is a step of transmitting the detected image data X to the display terminal 3. In # 117, the central control unit 11 reads the detected image data X from the temporary storage unit 53. Then, the central control unit 11 transmits the detected image data X to the display terminal 3 via the server side communication unit 19. Then, the process proceeds to # 118.

#118は、報知機9に報知指示を送信するステップである。#118では、中央制御部11は、サーバ側通信部19を介して報知すべき旨の指示を報知機9へ送信する。そして#119へ移行して一連の動作を終了する。#119へ移行して一連の動作を終了すると、#111へ戻る。   # 118 is a step of transmitting a notification instruction to the notification device 9. In # 118, the central control unit 11 transmits to the notification device 9 an instruction to notify through the server side communication unit 19. Then, the process proceeds to # 119 and the series of operations is terminated. When the process proceeds to # 119 and the series of operations is completed, the process returns to # 111.

〔認証部が認証スコアを生成する動作についての説明〕
図6および図18に示すフローチャートを参照しつつ、認証部13が認証スコアを生成する動作について説明する。
[Description of the operation of the authentication unit to generate the authentication score]
An operation in which the authentication unit 13 generates an authentication score will be described with reference to flowcharts shown in FIGS.

図6に示す#115における認証においては、図18に示すフローチャートの動作が行われる。   In the authentication in # 115 shown in FIG. 6, the operation of the flowchart shown in FIG. 18 is performed.

#121で認証が開始されると、認証部13は、一致度が第三判定値V3(例えば80)以上であるか否かを判定する(#122)。第三判定値V3は第二判定値V2よりも大きな値として設定される。一致度が第三判定値V3以上であれば(#122、Yes)、#123へ移行する。一致度が第三判定値V3未満であれば(#122、No)、#124へ移行する。   When the authentication is started in # 121, the authentication unit 13 determines whether or not the degree of coincidence is a third determination value V3 (for example, 80) or more (# 122). The third determination value V3 is set as a value larger than the second determination value V2. If the degree of coincidence is greater than or equal to the third determination value V3 (# 122, Yes), the process proceeds to # 123. If the degree of coincidence is less than the third determination value V3 (# 122, No), the process proceeds to # 124.

#123と#124とは、認証スコアを生成して出力するステップである。   # 123 and # 124 are steps for generating and outputting an authentication score.

#123では認証スコアとして「高」を出力する。なお、この認証スコアは、後述するように、表示端末3のモニタ35(表示部の一例)に表示される。一致度が第三判定値V3以上であるから、認証スコアとして「高」を出力して表示することで、監視者A(図3、図4参照)をして、入場者Hが窃盗常習犯Tであると判定されていることを直感的に把握せしめるためである。これにより、監視者Aは、確かな自信をもって、窃盗常習犯Tと認証された入場者Hに声掛けなどして犯罪抑止に務めることが可能となる。   In # 123, “high” is output as the authentication score. In addition, this authentication score is displayed on the monitor 35 (an example of a display part) of the display terminal 3 so that it may mention later. Since the degree of coincidence is equal to or higher than the third determination value V3, by outputting “high” as the authentication score and displaying it, the supervisor A (see FIG. 3 and FIG. 4) makes the attendee H This is to intuitively understand that it is determined to be. Thus, the supervisor A can act as a crime deterrent by speaking to the visitor H who is authenticated as the theft regular crime T with a certain confidence.

#124では認証スコアとして「低」を出力する。なお、この認証スコアは、後述するように、表示端末3のモニタ35に表示される。一致度が第二判定値V2以上、かつ、第三判定値V3未満であるから、認証スコアとして「低」を出力することで、監視者Aをして、入場者Hが窃盗常習犯Tである蓋然性が高いと判定されていることを直感的に把握せしめるためである。これにより、監視者Aは、誤認(人違い)のおそれを勘案しつつ、慎重に窃盗常習犯Tと認証された入場者Hの行動を監視するなどして、犯罪抑止に備えることが可能となる。   In # 124, “low” is output as the authentication score. The authentication score is displayed on the monitor 35 of the display terminal 3 as will be described later. Since the degree of coincidence is greater than or equal to the second determination value V2 and less than the third determination value V3, by outputting “low” as the authentication score, the supervisor A is performed and the visitor H is the theft regular crime T This is to intuitively understand that it is determined that the probability is high. This makes it possible for the observer A to prepare for crime prevention by carefully monitoring the behavior of the visitor H who has been authenticated as a theft regular crime T while taking into account the possibility of misperception (incorrectness). .

#123もしくは#124において認証スコアを出力すると#125へ移行して認証を終了する。その後、図6に示す#116へ移行する。   When the authentication score is output in # 123 or # 124, the process proceeds to # 125 to end the authentication. Thereafter, the process proceeds to # 116 shown in FIG.

〔表示端末の説明〕
〔表示端末の構成と動作についての説明〕
表示端末3は、監視者Aが監視画像Pなどを閲覧する端末である。
[Description of display terminal]
[Description of configuration and operation of display terminal]
The display terminal 3 is a terminal where the monitor A browses the monitoring image P and the like.

図1、図2に示すように、表示端末3は、表示側中央制御部30と、モニタ35と、モニタ35に画像を表示させる描画部34と、端末側記憶部36と、ネットワークNと通信する端末側通信部39とを備えている。表示端末3は、いわゆるタブレット端末である。表示端末3は、撮像端末2が接続されたイントラネットと同じイントラネットに接続されている。   As shown in FIGS. 1 and 2, the display terminal 3 communicates with a display-side central control unit 30, a monitor 35, a drawing unit 34 that displays an image on the monitor 35, a terminal-side storage unit 36, and a network N. And a terminal-side communication unit 39. The display terminal 3 is a so-called tablet terminal. The display terminal 3 is connected to the same intranet as the intranet to which the imaging terminal 2 is connected.

端末側通信部39は、表示側中央制御部30の動作指令により表示端末3の外部のネットワークNと通信するための通信インタフェースである。端末側通信部39は、ネットワークNを介して、サーバ1および撮像端末2と通信する。端末側通信部39は、例えば検出画像データXなどをサーバ1や撮像端末2から受信したり、監視画像を送信する要求を撮像端末2へ送信したりする。   The terminal side communication unit 39 is a communication interface for communicating with the network N outside the display terminal 3 according to an operation command of the display side central control unit 30. The terminal side communication unit 39 communicates with the server 1 and the imaging terminal 2 via the network N. The terminal-side communication unit 39 receives, for example, the detected image data X and the like from the server 1 and the imaging terminal 2, and transmits a request for transmitting a monitoring image to the imaging terminal 2.

描画部34は、モニタ35に表示させる画像を出力する描画装置である。いわゆるGPU(Graphics Processing Unit、グラフィックスプロセッシングユニット)である。   The drawing unit 34 is a drawing device that outputs an image to be displayed on the monitor 35. This is a so-called GPU (Graphics Processing Unit).

モニタ35は、タッチ入力機能を兼ね備えた表示装置である。モニタ35は、タッチパネル式の液晶モニタである。モニタ35は描画部34が出力する画像を表示する。モニタ35が表示する情報については後述する。また、モニタ35は、監視者Aがタッチ操作により入力した動作指令を受け付けて、後述する端末側制御部31へ送信する。   The monitor 35 is a display device having a touch input function. The monitor 35 is a touch panel type liquid crystal monitor. The monitor 35 displays an image output from the drawing unit 34. Information displayed on the monitor 35 will be described later. The monitor 35 accepts an operation command input by the monitor A through a touch operation, and transmits the operation command to the terminal-side control unit 31 described later.

端末側記憶部36は、HDD(Hard Disk Drive)や不揮発性RAM(Random Access Memory)といった記憶デバイスで構成される。端末側記憶部36は、物理的に別個の記憶デバイスであってもよいし、一つの記憶デバイスに設けられた二つの記憶領域であってもよい。   The terminal-side storage unit 36 includes a storage device such as an HDD (Hard Disk Drive) or a nonvolatile RAM (Random Access Memory). The terminal-side storage unit 36 may be a physically separate storage device or two storage areas provided in one storage device.

端末側記憶部36には、表示端末3の端末側通信部39がネットワークNから受信した検出画像データXや監視画像Pや監視動画45が記憶される。表示端末3は、検出画像データXを、イントラネット内においてインターネットを介して受信する。一方、監視画像Pや監視動画45は、表示端末3が接続されているイントラネットと同じイントラネットに接続された撮像端末2から受信する。これにより、表示端末3は監視画像Pや監視動画45を、イントラネット内の高速な通信網を活用して高速に受信することができる。また、外部通信であるインターネット通信のデータ通信量を削減してコスト削減を容易にする。また、表示端末3は、監視画像Pや監視動画45を、サーバ1を介さずに受信することができるため、インターネット通信のデータ通信量を削減してコスト削減を容易にする。   The terminal-side storage unit 36 stores the detected image data X, the monitoring image P, and the monitoring video 45 received by the terminal-side communication unit 39 of the display terminal 3 from the network N. The display terminal 3 receives the detected image data X in the intranet via the Internet. On the other hand, the monitoring image P and the monitoring video 45 are received from the imaging terminal 2 connected to the same intranet as the intranet to which the display terminal 3 is connected. Thereby, the display terminal 3 can receive the monitoring image P and the monitoring moving image 45 at high speed using a high-speed communication network in the intranet. In addition, the amount of data communication of Internet communication that is external communication is reduced to facilitate cost reduction. Further, since the display terminal 3 can receive the monitoring image P and the monitoring moving image 45 without going through the server 1, the data communication amount of the Internet communication is reduced and the cost reduction is facilitated.

表示側中央制御部30は、表示端末3の動作全体を制御する機能部である。表示側中央制御部30は、モニタ35、描画部34、端末側記憶部36および端末側通信部39などへ動作の指示を出力し、また、モニタ35、描画部34、端末側記憶部36および端末側通信部39から情報を取得する。   The display-side central control unit 30 is a functional unit that controls the overall operation of the display terminal 3. The display-side central control unit 30 outputs operation instructions to the monitor 35, the drawing unit 34, the terminal-side storage unit 36, the terminal-side communication unit 39, and the like, and the monitor 35, the drawing unit 34, the terminal-side storage unit 36, and the like. Information is acquired from the terminal side communication unit 39.

表示側中央制御部30は、端末側制御部31と、位置選択部32と、を備えている。表示側中央制御部30は、例えば、各種の処理を実現するためのソフトウェアプログラムと、該ソフトウェアプログラムを実行するCPUと、該CPUによって制御される各種ハードウェア等によって構成されている。サーバ側中央制御部10の動作に必要なソフトウェアプログラムやデータはサーバ側記憶部50に保存されるが、保存先は特に限定されず、別途専用に設けられたディスクやフラッシュメモリ等の記憶装置に保存される態様であってもよいし、通信可能に接続されたサーバや記憶装置等に保存される態様であっても構わない。   The display side central control unit 30 includes a terminal side control unit 31 and a position selection unit 32. The display-side central control unit 30 includes, for example, a software program for realizing various processes, a CPU that executes the software program, and various hardware that is controlled by the CPU. Software programs and data necessary for the operation of the server-side central control unit 10 are stored in the server-side storage unit 50, but the storage destination is not particularly limited, and is stored in a dedicated storage device such as a disk or flash memory. The mode may be stored, or may be stored in a server or a storage device connected so as to be communicable.

端末側制御部31は、モニタ35が受け付けた監視者A(図3、図4参照)の動作指令にしたがって表示端末3の動作を制御し、また、表示端末3が受信した情報や、表示端末3が送信する情報の送受信を制御する機能部である。   The terminal-side control unit 31 controls the operation of the display terminal 3 in accordance with the operation command of the monitor A (see FIGS. 3 and 4) received by the monitor 35, and the information received by the display terminal 3 and the display terminal 3 is a functional unit that controls transmission / reception of information to be transmitted.

端末側制御部31は、端末側通信部39がネットワークNから検出画像データXを受信すると、検出画像データXを端末側記憶部36に記憶する。端末側制御部31は、検出画像データXが端末側記憶部36に記憶されると、撮像端末2に対して検出画像データXに対応する監視画像を送信させる要求を端末側通信部39に指示する。このとき、端末側通信部39は、検出画像データXに含まれる画像特定情報に基づいて特定された監視画像を受信することとなる。   When the terminal-side communication unit 39 receives the detected image data X from the network N, the terminal-side control unit 31 stores the detected image data X in the terminal-side storage unit 36. When the detected image data X is stored in the terminal-side storage unit 36, the terminal-side control unit 31 instructs the terminal-side communication unit 39 to request the imaging terminal 2 to transmit a monitoring image corresponding to the detected image data X. To do. At this time, the terminal side communication unit 39 receives the monitoring image specified based on the image specifying information included in the detected image data X.

端末側制御部31は、端末側通信部39がネットワークNから監視画像Pや監視動画45を受信すると、これらを端末側記憶部36に記憶する。   When the terminal-side communication unit 39 receives the monitoring image P and the monitoring moving image 45 from the network N, the terminal-side control unit 31 stores them in the terminal-side storage unit 36.

位置選択部32は、モニタ35が検出画像データXに基づいて特定される監視画像Pの入力特徴画像43を含む少なくとも一部と入力特徴画像43の位置とを表示する際に、入力特徴画像43を含む位置の表示範囲を特定する機能部である。   When the monitor 35 displays at least a part including the input feature image 43 of the monitoring image P specified based on the detected image data X and the position of the input feature image 43, the position selection unit 32. It is a function part which specifies the display range of the position containing.

位置選択部32が特定した表示範囲に基づいて、描画部34がモニタ35に位置表示5を表示させる。位置選択部32は、端末側記憶部36に記憶された表示プログラムを呼びだして実行することで、位置表示5の表示を実現する。表示プログラムには、照合部12の照合処理による照合の結果、検出画像データXが検出された場合に、検出画像データXに基づいて特定される監視画像Pの入力特徴画像43を含む少なくとも一部と入力特徴画像43の位置とを表示端末3に表示させる表示処理が含まれる。なお、位置表示5については後述する。   The drawing unit 34 causes the monitor 35 to display the position display 5 based on the display range specified by the position selection unit 32. The position selection unit 32 realizes the display of the position display 5 by calling and executing the display program stored in the terminal-side storage unit 36. The display program includes at least a part of the input feature image 43 of the monitoring image P specified based on the detected image data X when the detected image data X is detected as a result of the collation by the collation processing of the collation unit 12. And a display process for displaying the position of the input feature image 43 on the display terminal 3. The position display 5 will be described later.

モニタ35が表示する情報について説明する。モニタ35は、描画部34が出力する画像を表示する。図3、図4に示すように、モニタ35は、監視画像Pもしくは入力特徴画像43を含む監視画像Pの一部や、後述する位置表示5など表示する。また、後述するその他の情報表示46を行う。   Information displayed on the monitor 35 will be described. The monitor 35 displays an image output from the drawing unit 34. As shown in FIGS. 3 and 4, the monitor 35 displays a part of the monitoring image P including the monitoring image P or the input feature image 43, a position display 5 described later, and the like. Further, other information display 46 described later is performed.

モニタ35が表示する情報表示46としては、後述する第一情報表示46aや第二情報表示46bを含む、種々の情報を表示することができる。情報表示46として第一情報表示46aと第二情報表示46bとが表示される場合を例示して以下説明する。情報表示46は検出画像データXに含まれる画像特定情報や位置情報を基にして表示される。具体的には、第一情報表示46aとして、入力特徴画像43が撮像端末2で撮像された時刻(撮像時刻)と撮像端末2のカメラ24(図1、図2参照)を特定する情報が表示されており、第二情報表示46bとして、本人確率と、認証スコアとが表示されている。   As the information display 46 displayed on the monitor 35, various information including a first information display 46a and a second information display 46b described later can be displayed. An example in which the first information display 46a and the second information display 46b are displayed as the information display 46 will be described below. The information display 46 is displayed based on image specifying information and position information included in the detected image data X. Specifically, as the first information display 46a, information specifying the time (imaging time) when the input feature image 43 was captured by the imaging terminal 2 and the camera 24 (see FIGS. 1 and 2) of the imaging terminal 2 is displayed. The identity probability and the authentication score are displayed as the second information display 46b.

図3には、モニタ35に第一表示画41が表示されている場合を図示している。第一表示画41には、入力特徴画像43と、登録画像44と、情報表示46と、入力操作を受け付ける部分を監視者Aに認識させる表示として入力部49を示す画像が表示されている。なお、入力部49は、監視者Aによる、監視画像Pや監視動画45を表示する指令を受け付ける入力インタフェースである。   FIG. 3 illustrates a case where the first display image 41 is displayed on the monitor 35. The first display image 41 displays an input feature image 43, a registered image 44, an information display 46, and an image showing the input unit 49 as a display that allows the monitor A to recognize a portion that accepts an input operation. The input unit 49 is an input interface that receives an instruction to display the monitoring image P and the monitoring moving image 45 by the monitoring person A.

入力部49は、監視者Aが監視動画45を再生する指令を受け付けている。監視者Aが入力部49を介して監視動画45を再生する指令を入力すると、中央制御部11は、監視動画45の再生を試みる。この動作については後述する。なお、入力部49が、監視者Aが監視画像Pを表示する指令を受け付けている場合もある。   The input unit 49 receives an instruction for the monitor A to play the monitoring video 45. When the monitoring person A inputs a command to reproduce the monitoring video 45 via the input unit 49, the central control unit 11 tries to reproduce the monitoring video 45. This operation will be described later. Note that the input unit 49 may receive a command for the monitor A to display the monitor image P.

情報表示46としては、第一情報表示46aと第二情報表示46bとが表示されている。第一情報表示46aとしては、入力特徴画像43が撮像端末2で撮像された時刻(撮像時刻)と撮像端末2のカメラ24を特定する情報が表示されている。また、第二情報表示46bとしては、本人確率と、認証スコアとが表示されている。なお、本人確率は、本実施形態では一致度の値に等しい。   As the information display 46, a first information display 46a and a second information display 46b are displayed. As the first information display 46a, the time when the input feature image 43 is captured by the imaging terminal 2 (imaging time) and information for specifying the camera 24 of the imaging terminal 2 are displayed. Further, as the second information display 46b, an identity probability and an authentication score are displayed. The identity probability is equal to the coincidence value in this embodiment.

図4には、モニタ35に第二表示画42が表示されている場合を図示している。第二表示画42には、入力特徴画像43と、登録画像44と、監視画像Pを包含する監視動画45と、第一情報表示46aと、入力部49を示す画像が表示されている。なお、第二表示画42においても第二情報表示46bを併せて表示してもよい。監視画像Pを包含する監視動画45は、監視動画45に含まれるフレームの全領域を表示する場合に限られず、入力特徴画像43と少なくともその周囲の画像領域を包含する画像部分とをトリミングして(切出して)表示してもよい。   FIG. 4 illustrates a case where the second display image 42 is displayed on the monitor 35. In the second display image 42, an input feature image 43, a registered image 44, a monitoring video 45 including the monitoring image P, a first information display 46a, and an image showing the input unit 49 are displayed. Note that the second information display 46 b may also be displayed on the second display image 42. The monitoring moving image 45 including the monitoring image P is not limited to the case where the entire region of the frame included in the monitoring moving image 45 is displayed, and the input feature image 43 and an image portion including at least the surrounding image region are trimmed. It may be displayed (cut out).

位置選択部32と位置表示5について説明する。位置表示5は、検出画像データXに基づいて特定される監視画像Pの入力特徴画像43を含む少なくとも一部と入力特徴画像43の位置とを表示する。   The position selection unit 32 and the position display 5 will be described. The position display 5 displays at least a part including the input feature image 43 of the monitoring image P specified based on the detected image data X and the position of the input feature image 43.

検出画像データXは、入力特徴画像43における顔画像の両目E(図11参照)の座標を位置情報として含んでおり、位置選択部32は両目Eの座標を基にして入力特徴画像43を含む位置の表示範囲を特定する。位置選択部32は、特定した表示範囲に基づいて描画部34に位置表示5の描画指令を発する。描画部34は、監視画像Pもしくは入力特徴画像43を含む監視画像Pの一部をモニタ35に表示させる際に、例えば入力特徴画像43を矩形に囲う表示などを、位置表示5としてモニタ35に描画させる。描画部34は、位置表示5を、監視画像Pや監視動画45にオーバーレイ表示することができる。   The detected image data X includes the coordinates of both eyes E (see FIG. 11) of the face image in the input feature image 43 as position information, and the position selection unit 32 includes the input feature image 43 based on the coordinates of both eyes E. Specify the display range of the position. The position selection unit 32 issues a drawing command for the position display 5 to the drawing unit 34 based on the specified display range. When the drawing unit 34 displays a part of the monitoring image P including the monitoring image P or the input feature image 43 on the monitor 35, for example, a display surrounding the input feature image 43 in a rectangle is displayed on the monitor 35 as a position display 5. Let it draw. The drawing unit 34 can overlay display the position display 5 on the monitoring image P or the monitoring moving image 45.

位置表示5は、図4および図11に示すように、入場者Hの顔Kの輪郭の範囲を包含する領域を表示する記号として例示される。図4および図11に示す例では、位置表示5は、顔画像を包含する矩形に描かれる場合を示している。その他、位置表示5は、入場者Hの顔(入力特徴画像43)を指し示す矢印などの記号を用いる場合もある。位置表示5は、入場者Hの顔Kの輪郭の範囲を特定する座標を示す数値で表示される場合もある。このように、位置表示5は、入場者Hの顔画像(入力特徴画像43)を強調するための表示である。   As shown in FIGS. 4 and 11, the position display 5 is exemplified as a symbol that displays an area including the contour range of the face K of the visitor H. In the example shown in FIGS. 4 and 11, the position display 5 shows a case where the position display 5 is drawn in a rectangle including a face image. In addition, the position display 5 may use a symbol such as an arrow indicating the face of the visitor H (input feature image 43). The position display 5 may be displayed as a numerical value indicating coordinates that specify the contour range of the face K of the visitor H. Thus, the position display 5 is a display for emphasizing the face image (input feature image 43) of the visitor H.

位置表示5の表示態様は、上記で説明する態様に限定されない。位置表示5は、入場者Hの顔画像(入力特徴画像43、顔画像)を起点とする吹き出しの形態で表示することもできる。そして、吹き出し部分には、入場者Hの顔を拡大表示するとよい。この場合は、吹き出しの形態と、入場者Hの顔の拡大表示とが位置表示5である。位置表示5がこのような入場者Hの顔の拡大表示を含む場合、監視画像Pをそのまま表示すると入場者Hの顔を視認できないときでも、入場者Hの顔が拡大表示されることで、目視可能に表示することができる。   The display mode of the position display 5 is not limited to the mode described above. The position display 5 can also be displayed in the form of a balloon starting from the face image (input feature image 43, face image) of the visitor H. And it is good to enlarge and display the face of the visitor H in the balloon part. In this case, the position display 5 is a form of a balloon and an enlarged display of the face of the visitor H. When the position display 5 includes such an enlarged display of the face of the visitor H, even if the face of the visitor H cannot be visually recognized if the monitoring image P is displayed as it is, the face of the visitor H is enlarged and displayed. It can be displayed visually.

図4および図11に例示した位置表示5について説明する。位置表示5は、上下方向に長手方向が沿う長方形の記号として表示されている。換言すると、位置表示5は、入場者Hの顔画像(入力特徴画像43)を、視覚的に容易に認識する目印となる表示である。位置表示5により、監視者Aは、入場者Hの顔画像(入力特徴画像43)を目視で容易に認識し、入場者Hが窃盗常習犯Tである場合に、即座に必要な行動を起こすことができるため有益である。   The position display 5 illustrated in FIGS. 4 and 11 will be described. The position display 5 is displayed as a rectangular symbol whose longitudinal direction extends in the vertical direction. In other words, the position display 5 is a display serving as a mark for easily recognizing the face image (input feature image 43) of the visitor H visually. The position display 5 allows the supervisor A to easily recognize the face image (input feature image 43) of the visitor H by visual observation, and to take necessary actions immediately when the visitor H is the theft regular crime T. It is beneficial because it can.

位置選択部32は、例えば、位置表示5の長辺および短辺の表示を以下のように定めることができる。位置選択部32は、図11に示すように、左目E1と右目E2との距離を目間距離Edとした場合に、顔の左右の範囲をこの目間距離Edを基準に定めることができる。図11の場合は、左目E1から距離d1だけ左に偏位した位置と、右目E2から距離d1だけ右に偏位した位置と、を顔の左右の範囲として規定して、位置表示5の長辺として表示している。なお、図11の例示では、距離d1を、目間距離Edの1.3倍としている。なお、この実施例で説明する距離d1と目間距離Edとの関係はあくまで例示に過ぎない。   For example, the position selection unit 32 can determine the display of the long side and the short side of the position display 5 as follows. As shown in FIG. 11, when the distance between the left eye E1 and the right eye E2 is the inter-eye distance Ed, the position selection unit 32 can determine the left and right range of the face with reference to the inter-eye distance Ed. In the case of FIG. 11, the position shifted to the left by the distance d1 from the left eye E1 and the position shifted to the right by the distance d1 from the right eye E2 are defined as the left and right range of the face, and the length of the position display 5 It is displayed as a side. In the illustration of FIG. 11, the distance d1 is set to 1.3 times the inter-eye distance Ed. Note that the relationship between the distance d1 and the inter-eye distance Ed described in this embodiment is merely an example.

また、位置選択部32は、図11に示すように、左目E1と右目E2との距離を目間距離Edとした場合に、顔の上下の範囲をこの目間距離Edを基準に定めることができる。図11の場合は、両目Eの高さから上方に向けて距離d2だけ偏位した位置と、両目Eの高さから下方に向けて距離d3だけ偏位した位置と、を顔の上下の範囲として規定している場合を例示して図示している。なお、図11の例示では、距離d2を、目間距離Edの1.5倍としている。また、距離d3を、目間距離Edの2.0倍としている。なお、この実施例で説明する距離d2および距離d3と、目間距離Edとの関係はあくまで例示に過ぎない。   Further, as shown in FIG. 11, when the distance between the left eye E1 and the right eye E2 is the inter-eye distance Ed, the position selection unit 32 can determine the upper and lower range of the face on the basis of the inter-eye distance Ed. it can. In the case of FIG. 11, a position displaced by a distance d2 from the height of both eyes E upward and a position displaced by a distance d3 from the height of both eyes E downward are the upper and lower ranges of the face. Is illustrated as an example. In the illustration of FIG. 11, the distance d2 is 1.5 times the eye distance Ed. Further, the distance d3 is set to 2.0 times the inter-eye distance Ed. The relationship between the distance d2 and the distance d3 described in this embodiment and the inter-eye distance Ed is merely an example.

図7に図示したフローチャートを参照しつつ、表示端末3の動作を説明する。   The operation of the display terminal 3 will be described with reference to the flowchart shown in FIG.

表示端末3が検出画像データXを受信可能な状態になる(#131)と、端末側制御部31は、端末側通信部39がサーバ1から検出画像データXを受信するまで待機する(#132、No)。端末側通信部39がサーバ1から検出画像データXを受信する(#132、Yes)と、端末側制御部31は、検出画像データXを端末側記憶部36に記憶して、#133へ移行する。   When the display terminal 3 becomes ready to receive the detected image data X (# 131), the terminal side control unit 31 waits until the terminal side communication unit 39 receives the detected image data X from the server 1 (# 132). , No). When the terminal side communication unit 39 receives the detected image data X from the server 1 (# 132, Yes), the terminal side control unit 31 stores the detected image data X in the terminal side storage unit 36, and proceeds to # 133. To do.

#133は第一表示画41をモニタ35で表示するステップである。#133では、端末側制御部31が、検出画像データXを端末側記憶部36から読み出す。そして、端末側制御部31は、この検出画像データXに基づいて、描画部34に第一表示画41の描画を指令する。描画部34は当該指令に基づいて、モニタ35に第一表示画41を表示させる(図3参照)。その後、#134へ移行する。   # 133 is a step of displaying the first display image 41 on the monitor 35. In # 133, the terminal side control unit 31 reads the detected image data X from the terminal side storage unit 36. Then, the terminal-side control unit 31 instructs the drawing unit 34 to draw the first display image 41 based on the detected image data X. The drawing unit 34 displays the first display image 41 on the monitor 35 based on the command (see FIG. 3). Thereafter, the process proceeds to # 134.

#134は、入力部49で、監視者Aによる監視動画45を再生する指令の入力を待機するステップである。#134では、入力部49に監視者Aによる指令の入力があるまで待機する(#134、No)。入力部49に監視者Aによる指令の入力があると(#134、Yes)、#135へ移行する。   # 134 is a step of waiting for the input unit 49 to input a command to reproduce the monitoring video 45 by the monitoring person A. In # 134, it waits until there is a command input by the supervisor A in the input unit 49 (No in # 134). If there is a command input from the supervisor A in the input unit 49 (# 134, Yes), the process proceeds to # 135.

#135は、監視画像を送信する要求を行うステップである。#135では、端末側制御部31が、端末側通信部39を介して、撮像端末2に、監視画像を送信する要求を行う。監視画像を送信する要求として、監視動画45を送信する要求を行うが、監視画像Pを送信する要求である場合もある。その後、#136へ移行する。   In step # 135, a request for transmitting a monitoring image is made. In # 135, the terminal-side control unit 31 requests the imaging terminal 2 to transmit a monitoring image via the terminal-side communication unit 39. As a request for transmitting the monitoring image, a request for transmitting the monitoring moving image 45 is made, but there may be a request for transmitting the monitoring image P. Thereafter, the process proceeds to # 136.

#136は、端末側通信部39が監視画像の受信を待機するステップである。#136では、端末側通信部39が監視画像の受信を完了するまで待機する(#136、No)。端末側通信部39が監視画像の受信を完了すると(#136、Yes)、端末側制御部31は監視画像を端末側記憶部36へ記憶して、#137へ移行する。監視画像として監視動画45が端末側記憶部36へ記憶されるが、監視画像として監視画像Pが記憶される場合もある。   In step # 136, the terminal-side communication unit 39 waits for reception of a monitoring image. In # 136, the process waits until the terminal-side communication unit 39 completes reception of the monitoring image (# 136, No). When the terminal side communication unit 39 completes reception of the monitoring image (# 136, Yes), the terminal side control unit 31 stores the monitoring image in the terminal side storage unit 36, and proceeds to # 137. Although the monitoring video 45 is stored in the terminal-side storage unit 36 as the monitoring image, the monitoring image P may be stored as the monitoring image.

#137は、第二表示画42をモニタ35で表示するステップである(表示ステップの一例)。#137では、端末側制御部31が、検出画像データXと監視動画45とを端末側記憶部36から読み出す。そして、端末側制御部31は、この検出画像データXと監視動画45とに基づいて、描画部34に第二表示画42の描画を指令する。描画部34は当該指令に基づいて、モニタ35に第二表示画42を表示させる(図4参照)。この際、位置選択部32は、位置表示5のオーバーレイ表示を描画部34に指令する。これにより、第二表示画42における監視動画45上に、入場者H(窃盗常習犯T)の顔画像(入力特徴画像43)の位置が強調して表示される。そして、一連の動作を終了する(#138)。なお、#138で一連の動作を終了すると、再び#131へ戻る。   # 137 is a step of displaying the second display image 42 on the monitor 35 (an example of a display step). In # 137, the terminal-side control unit 31 reads the detected image data X and the monitoring moving image 45 from the terminal-side storage unit 36. Then, the terminal-side control unit 31 instructs the drawing unit 34 to draw the second display image 42 based on the detected image data X and the monitoring moving image 45. The drawing unit 34 displays the second display image 42 on the monitor 35 based on the command (see FIG. 4). At this time, the position selection unit 32 instructs the drawing unit 34 to perform overlay display of the position display 5. As a result, the position of the face image (input feature image 43) of the visitor H (theft regular offense T) is displayed on the monitoring video 45 in the second display image 42 with emphasis. Then, the series of operations is finished (# 138). When the series of operations is finished in # 138, the process returns to # 131 again.

〔第一実施形態の変形例の説明〕
なお、表示端末3は、図8に示すフローチャートのように動作させてもよい。図8において、#231から#233、および、#235から#238は、図7における#131から#133、および、#135から#138と同じである。図8の場合は、図7の#134に対応するステップを有さない点で異なる。
[Description of Modification of First Embodiment]
The display terminal 3 may be operated as in the flowchart shown in FIG. 8, # 231 to # 233 and # 235 to # 238 are the same as # 131 to # 133 and # 135 to # 138 in FIG. The case of FIG. 8 is different in that it does not have a step corresponding to # 134 of FIG.

図8の場合は、#233において第一表示画41をモニタ35に表示させると供に、#235において監視画像を送信する要求を行う。つまり、監視者Aによる監視動画45を再生する指令の入力が無くても、監視画像を取得するようになっている。この場合、端末側通信部39がサーバ1から検出画像データXを受信してから最短のリードタイムで監視動画45などの監視画像をモニタ35に表示させることができる。監視画像が監視画像Pではなく、情報容量の大きな監視動画45である場合に特に有益である。   In the case of FIG. 8, when the first display image 41 is displayed on the monitor 35 in # 233, a request for transmitting a monitoring image is made in # 235. That is, even if there is no input of a command for reproducing the monitoring moving image 45 by the monitoring person A, the monitoring image is acquired. In this case, a monitoring image such as the monitoring video 45 can be displayed on the monitor 35 with the shortest lead time after the terminal-side communication unit 39 receives the detected image data X from the server 1. This is particularly useful when the monitoring image is not the monitoring image P but the monitoring moving image 45 having a large information capacity.

〔第二実施形態〕
以下では第二実施形態について説明する。第二実施形態は、第一実施形態に対してサーバ1および表示端末3の動作の一部が異なる。
[Second Embodiment]
Below, 2nd embodiment is described. The second embodiment differs from the first embodiment in part of the operations of the server 1 and the display terminal 3.

図6および図9に図示したフローチャートを参照しつつサーバ1の動作を説明する。図9の場合は、#318の動作が図6の#118の動作と異なり、それ以外は同じである。   The operation of the server 1 will be described with reference to the flowcharts shown in FIGS. In the case of FIG. 9, the operation of # 318 is different from the operation of # 118 of FIG.

図9の場合は、サーバ1は、#317で、検出画像データXを表示端末3へ送信すると共に、#318において、表示端末3に対して検出画像データXに対応する監視画像を送信する要求を撮像端末2へ送信する。これにより、表示端末3は、最短のリードタイムで監視画像を受信することができる。なお、サーバ1は、#318を実行すると供に、報知機9へ報知の指示をしてもよい。   In the case of FIG. 9, the server 1 transmits the detected image data X to the display terminal 3 at # 317 and requests to transmit the monitoring image corresponding to the detected image data X to the display terminal 3 at # 318. Is transmitted to the imaging terminal 2. Thereby, the display terminal 3 can receive the monitoring image with the shortest lead time. In addition, the server 1 may instruct | indicate the alerting | reporting to the alerting device 9, while performing # 318.

図7および図10に図示したフローチャートを参照しつつ表示端末3の動作を説明する。図10の場合は、図10において、#331から#333、および、#336から#338は、図7における#131から#133、および、#136から#138と同じである。図10の場合は、図7の#135に対応するステップを有さない点で異なる。   The operation of the display terminal 3 will be described with reference to the flowcharts shown in FIGS. In the case of FIG. 10, in FIG. 10, # 331 to # 333 and # 336 to # 338 are the same as # 131 to # 133 and # 136 to # 138 in FIG. The case of FIG. 10 is different in that it does not have a step corresponding to # 135 of FIG.

表示端末3に対して検出画像データXに対応する監視画像を送信する要求をサーバ1が撮像端末2へ送信するため、表示端末3は、#135のような監視画像を送信する要求を行うステップを有さなくとも、監視画像を受信することができる(いわゆるプッシュ受信)。   Since the server 1 transmits a request for transmitting a monitoring image corresponding to the detected image data X to the display terminal 3 to the imaging terminal 2, the display terminal 3 performs a request for transmitting a monitoring image like # 135. Can be received (so-called push reception).

このように、画像認証システム100においては、撮像端末2で撮像した入力特徴画像43を用いて入場者Hが窃盗常習犯Tであることがサーバ1により認証(検知)されると、表示端末3で入力特徴画像43を含む画像を表示して、監視者Aに通知して注意を促すことができる。これにより、監視者Aは、窃盗常習犯Tであると認証された入場者Hに声掛けしたり、その行動を注意して監視したりすることができる。したがって、画像認証システム100は、窃盗などの犯罪の未然防止を実現することができる。   As described above, in the image authentication system 100, when the server 1 authenticates (detects) that the visitor H is the theft regular crime T using the input feature image 43 captured by the imaging terminal 2, the display terminal 3 An image including the input feature image 43 can be displayed and notified to the supervisor A to call attention. As a result, the monitor A can speak to the visitor H who has been authenticated as the theft regular crime T and can carefully monitor its behavior. Therefore, the image authentication system 100 can realize prevention of crimes such as theft.

以上のようにして、本実施形態は、監視画像から生成された入力画像データに基づいて元の監視画像を特定して表示した場合に、当該入力画像データに対応する特徴画像が、当該入力画像データに対応する監視画像もしくはその一部の画像のうち、どの画像部分であるかを視覚的に容易に特定することができる画像認証システム、画像認証方法および画像認証プログラムを提供するものである。   As described above, in the present embodiment, when the original monitoring image is specified and displayed based on the input image data generated from the monitoring image, the feature image corresponding to the input image data is displayed as the input image. It is an object to provide an image authentication system, an image authentication method, and an image authentication program that can easily visually identify which image portion of a monitoring image corresponding to data or a partial image thereof.

〔別実施形態〕
(1)上記実施形態では、画像認証システム100が、店舗に入場する入場者Hから窃盗常習犯Tを検知して店舗の監視者Aに通知して警戒行動を促し、窃盗常習犯Tによる窃盗を未然防止するインテリジェントセキュリティシステムである場合を例示した。
[Another embodiment]
(1) In the embodiment described above, the image authentication system 100 detects the theft regular crime T from the visitor H who enters the store, notifies the monitor A of the store, prompts a warning action, and prevents theft by the theft regular crime T. The case of an intelligent security system to prevent was illustrated.

しかしながら、画像認証システム100は、入場者Hから窃盗常習犯Tを検知する場合に限られない。例えば、図17に示すように、店舗などの駐車場などに入場したり、駐車スペースに駐車したりする車両Cの内、窃盗常習犯Tの車両Cを検知するシステムとすることもできる。この場合、画像認証システム100は、入場者Hの顔画像の代わりに、車両CのナンバープレートGを撮像し、これを入力特徴画像43とすることができる。   However, the image authentication system 100 is not limited to the case of detecting the theft regular crime T from the visitors H. For example, as shown in FIG. 17, a system for detecting a vehicle C of a theft regular offender T among vehicles C entering a parking lot in a store or the like or parking in a parking space may be used. In this case, the image authentication system 100 can pick up the license plate G of the vehicle C instead of the face image of the visitor H and use it as the input feature image 43.

(2)上記実施形態では、撮像端末2は、#102で監視画像Pを動画として撮像側記憶部26への記録を開始する場合を説明した。そして、図5のフローチャートには、#101で、カメラ24で監視画像Pの撮像を開始し、#102で監視画像Pを動画として撮像側記憶部26への記録を開始し、さらに#103で監視画像Pから入場者Hの顔画像を検出すると(#103、Yes)、#104、#105へ移行して入力特徴画像43を生成する場合を説明した。 (2) In the above-described embodiment, the case where the imaging terminal 2 starts recording in the imaging-side storage unit 26 using the monitoring image P as a moving image in # 102 has been described. In the flowchart of FIG. 5, in # 101, the camera 24 starts capturing the monitoring image P, in # 102, starts recording the monitoring image P as a moving image in the imaging side storage unit 26, and further in # 103. When the face image of the visitor H is detected from the monitoring image P (# 103, Yes), the case has been described where the input feature image 43 is generated by moving to # 104, # 105.

しかしながら、撮像端末2は、監視画像Pを動画として記録する場合に限られない。例えば、図19に示すフローチャートのように、#401で、カメラ24で監視画像Pの撮像を開始するが、監視画像Pを動画として記録することは行わず、#402で監視画像Pから入場者Hの顔画像の検出を待機し(#402、No)、監視画像Pから入場者Hの顔画像を検出すると(#402、Yes)、#403へ移行して、その監視画像Pを静止画として撮像側記憶部26に記録する場合もある。この場合、撮像側記憶部26の記憶容量を節約することができる。なお、図19の#404から#409は、図5の#104から#109と同じとすることができる。   However, the imaging terminal 2 is not limited to recording the monitoring image P as a moving image. For example, as shown in the flowchart of FIG. 19, in step # 401, the camera 24 starts capturing the monitoring image P. However, the monitoring image P is not recorded as a moving image. Waiting for the detection of the H face image (# 402, No), and detecting the face image of the visitor H from the monitoring image P (# 402, Yes), the process proceeds to # 403, and the monitoring image P is displayed as a still image. May be recorded in the imaging-side storage unit 26. In this case, the storage capacity of the imaging side storage unit 26 can be saved. Note that # 404 to # 409 in FIG. 19 can be the same as # 104 to # 109 in FIG.

(3)上記実施形態では、サーバ1の認証部13により、認証スコアとして「高」ないし「低」が出力され、表示端末3は、モニタ35に、第二情報表示46bとして、本人確率と、認証スコアとを表示する場合を説明した。 (3) In the above embodiment, the authentication unit 13 of the server 1 outputs “high” or “low” as the authentication score, and the display terminal 3 displays the identity probability as the second information display 46 b on the monitor 35. The case where the authentication score is displayed has been described.

しかしながら、認証部13は、認証スコアを出力しなくてもよい。また、認証部13は、認証スコアを「高」ないし「低」の二水準に区分して出力する場合に限られず、3段階以上の多水準に区分して出力してもよい。例えば、一致度が40以上60未満の場合に認証スコアを「低」とし、一致度が60以上80未満の場合に認証スコアを「中」とし、一致度が80以上の場合に認証スコアを「高」とすることもできる。このように一致度が40以上60未満となる際に認証スコアとして「低」が出力される場合には、監視者Aは入場者Hが窃盗常習犯Tであるとの推定が否定されない、という程度の注意認識を持つことが可能となる。   However, the authentication unit 13 may not output the authentication score. The authentication unit 13 is not limited to the case where the authentication score is divided into two levels of “high” or “low”, and may be divided into three or more levels and output. For example, when the degree of coincidence is 40 or more and less than 60, the authentication score is “low”, when the degree of coincidence is 60 or more and less than 80, the authentication score is “medium”, and when the degree of coincidence is 80 or more, the authentication score is “ It can also be “high”. As described above, when “low” is output as the authentication score when the degree of coincidence is 40 or more and less than 60, the degree that the observer A cannot deny that the visitor H is the theft regular crime T It becomes possible to have attention recognition.

(4)上記実施形態では、表示端末3は、モニタ35に、情報表示46として第一情報表示46aと第二情報表示46bとが表示される場合を説明した。そして、第一情報表示46aとしては、入力特徴画像43が撮像端末2で撮像された時刻(撮像時刻)と撮像端末2のカメラ24を特定する情報が表示されており、第二情報表示46bとしては、本人確率と、認証スコアとが表示されている場合を例示した。 (4) In the embodiment described above, the display terminal 3 has described the case where the first information display 46 a and the second information display 46 b are displayed on the monitor 35 as the information display 46. And as the 1st information display 46a, the time (imaging time) when the input characteristic image 43 was imaged with the imaging terminal 2, and the information which specifies the camera 24 of the imaging terminal 2 are displayed, and the 2nd information display 46b Exemplifies the case where the identity probability and the authentication score are displayed.

しかしながら、表示端末3は、モニタ35に上記以外の情報を表示してもよい。例えば、照合部12が入力画像データ43dと登録情報Fとを照合した際に用いた個別の特徴量を表示してもよい。例えば、メガネの有無、髪型、性別の情報を表示してもよい。これにより、監視者Aは、視覚的に容易に窃盗常習犯Tの特徴を把握することができるため犯罪抑止に有益である。   However, the display terminal 3 may display information other than the above on the monitor 35. For example, you may display the individual feature-value used when the collation part 12 collated the input image data 43d and the registration information F. FIG. For example, the presence / absence of glasses, hairstyle, and sex information may be displayed. Thereby, since the supervisor A can visually easily grasp the characteristics of the theft regular offender T, it is useful for crime prevention.

また、モニタ35は、必ずしも情報表示46に含まれる情報の全てを表示しなくてもよい。本実施形態で説明した情報表示46に含まれる情報の一部だけを表示する場合もある。例えば情報表示46に含まれる本人確率や認証スコアを表示することを要しない。本人確率や認証スコアの両方とも表示しなくてもよいし、本人確率もしくは認証スコアを表示してもよい。   Further, the monitor 35 does not necessarily have to display all of the information included in the information display 46. In some cases, only a part of the information included in the information display 46 described in the present embodiment is displayed. For example, it is not necessary to display the identity probability or the authentication score included in the information display 46. Both the identity probability and the authentication score may not be displayed, or the identity probability or the authentication score may be displayed.

(5)上記実施形態では、複数の撮像端末2と、複数の表示端末3とは、ネットワークNとしてのイントラネットに接続されている場合を例示して説明した。また、サーバ1は、ネットワークNとしてのインターネットに接続されている場合を例示して説明した。 (5) In the above embodiment, the case where the plurality of imaging terminals 2 and the plurality of display terminals 3 are connected to the intranet as the network N has been described as an example. Further, the server 1 has been described by way of example when connected to the Internet as the network N.

しかしながら、撮像端末2、表示端末3、およびサーバ1は、同一のイントラネット内で接続されてもよい。また、撮像端末2、表示端末3、およびサーバ1はそれぞれ、インターネットに直接接続されてもよい。   However, the imaging terminal 2, the display terminal 3, and the server 1 may be connected within the same intranet. Moreover, the imaging terminal 2, the display terminal 3, and the server 1 may each be directly connected to the Internet.

また、撮像端末2、表示端末3、およびサーバ1は、ネットワークNを介して接続される場合に限られず、撮像端末2、表示端末3、およびサーバ1の機能が、一つのシステム(例えば、コンピュータシステム)にインテグレートされている態様も採り得る。この場合、撮像端末2、表示端末3、およびサーバ1はコンピュータシステム内部のバス(データバス)を介して接続することができる。ネットワークNの代わりにバス接続される場合にも、バスの通信量が削減されるため、高速処理を実現することができる。   In addition, the imaging terminal 2, the display terminal 3, and the server 1 are not limited to being connected via the network N, and the functions of the imaging terminal 2, the display terminal 3, and the server 1 have one system (for example, a computer) A mode integrated with the system) may also be adopted. In this case, the imaging terminal 2, the display terminal 3, and the server 1 can be connected via a bus (data bus) inside the computer system. Even when a bus is connected instead of the network N, the amount of bus communication is reduced, so that high-speed processing can be realized.

(6)上記実施形態では、画像認証システム100の適用対象が、人である入場者Hである場合を説明した。しかしながら、画像認証システム100の適用対象は、入場者Hに限定されるものでは無い。 (6) In the above embodiment, the case where the application target of the image authentication system 100 is the visitor H who is a person has been described. However, the application target of the image authentication system 100 is not limited to the visitors H.

たとえば、退場する人である場合もある。また、人ではなく、犬や猫などの動物である場合もある。また、人ではなく鞄や、靴、メガネや帽子などの物(たとえば、人の所持品)である場合もある。画像認証システム100の適用対象は、姿、形のある物体であればよい。   For example, it may be a person who leaves. In some cases, it is not a person but an animal such as a dog or a cat. In some cases, it is not a person but a bag, shoes, glasses, a hat, or the like (for example, personal belongings). The application target of the image authentication system 100 may be an object having a shape and shape.

(7)上記実施形態では、画像認証システム100を使用する場所として店舗を例示して説明した。しかしながら、画像認証システム100の適用範囲はこれに限られない。 (7) In the above embodiment, a store is exemplified as a place where the image authentication system 100 is used. However, the application range of the image authentication system 100 is not limited to this.

店舗以外にも、商業施設、空港、銀行、オフィスビル、マンション等の、多数の人が出入りする施設等において適用することができる。   In addition to stores, the present invention can be applied to facilities such as commercial facilities, airports, banks, office buildings, and condominiums where many people come and go.

なお、上記実施形態(別実施形態を含む、以下同じ)で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能であり、また、本明細書において開示された実施形態は例示であって、本発明の実施形態はこれに限定されず、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。   Note that the configurations disclosed in the above-described embodiments (including other embodiments, the same applies hereinafter) can be applied in combination with the configurations disclosed in the other embodiments as long as no contradiction arises. The embodiment disclosed in this specification is an exemplification, and the embodiment of the present invention is not limited to this. The embodiment can be appropriately modified without departing from the object of the present invention.

本発明は、監視者が、即座にかつ容易に、監視対象を視覚的に認識することができる画像認証システム、画像認証方法および画像認証プログラムの提供に適用できる。   The present invention can be applied to the provision of an image authentication system, an image authentication method, and an image authentication program that allow a monitor to visually recognize a monitoring target immediately and easily.

1 :サーバ
2 :撮像端末(撮像部)
3 :表示端末(表示部)
5 :位置表示(表示)
12 :照合部
22 :切出部
24 :カメラ(撮像部)
35 :モニタ(表示部)
43 :入力特徴画像
43d :入力画像データ
44 :登録画像
45 :監視動画(監視画像)
100 :画像認証システム
P :監視画像
R :監視対象エリア
X :検出画像データ
1: Server 2: Imaging terminal (imaging unit)
3: Display terminal (display unit)
5: Position display (display)
12: Verification unit 22: Cutout unit 24: Camera (imaging unit)
35: Monitor (display unit)
43: Input feature image 43d: Input image data 44: Registered image 45: Monitoring video (monitoring image)
100: Image authentication system P: Monitoring image R: Monitoring target area X: Detection image data

Claims (8)

監視対象エリアを撮像して監視画像を取得する撮像部と、
前記監視画像を記憶する監視画像記憶部と、
前記監視画像に含まれる撮像対象の特徴画像を入力特徴画像として切出すと共に、当該入力特徴画像と、前記監視画像を特定する画像特定情報と、前記監視画像における前記入力特徴画像の切出し位置を特定する位置情報と、を含む入力画像データを生成する特徴画像切出部と、
前記入力画像データと予め記憶された監視対象の登録画像データベースとを照合し、前記登録画像データベースに該当する前記入力画像データを検出画像データとして検出する照合部と、
前記照合部による照合の結果、前記検出画像データが検出された場合に、前記検出画像データに基づいて特定される前記監視画像の前記入力特徴画像を含む少なくとも一部と前記入力特徴画像の位置とを表示する表示部と、を備えた画像認証システム。
An imaging unit that captures a monitoring target area and obtains a monitoring image;
A monitoring image storage unit for storing the monitoring image;
A feature image of an imaging target included in the monitoring image is cut out as an input feature image, and the input feature image, image specifying information for specifying the monitoring image, and a cutting position of the input feature image in the monitoring image are specified. A feature image cutout unit that generates input image data including positional information
A collation unit that collates the input image data with a registered image database to be monitored stored in advance, and detects the input image data corresponding to the registered image database as detected image data;
When the detected image data is detected as a result of collation by the collation unit, at least a part including the input feature image of the monitoring image specified based on the detected image data, and a position of the input feature image And an image authentication system.
前記監視画像が動画である請求項1に記載の画像認証システム。   The image authentication system according to claim 1, wherein the monitoring image is a moving image. 前記画像特定情報が、撮像時刻または画像フレーム番号である請求項1または2に記載の画像認証システム。   The image authentication system according to claim 1, wherein the image specifying information is an imaging time or an image frame number. 前記位置情報が、前記監視画像中における座標情報である請求項1から3のいずれか一項に記載の画像認証システム。   The image authentication system according to any one of claims 1 to 3, wherein the position information is coordinate information in the monitoring image. 前記入力特徴画像は顔画像を含んでおり、
前記位置情報が、前記顔画像における目の部分の座標情報である請求項4に記載の画像認証システム。
The input feature image includes a face image;
The image authentication system according to claim 4, wherein the position information is coordinate information of an eye part in the face image.
前記照合部は、前記入力特徴画像に含まれる前記撮像対象と前記登録特徴画像に含まれる前記監視対象との間の一致度の情報である認証結果情報を生成し、
前記表示部は、前記認証結果情報を取得して表示する請求項1から5のいずれか一項に記載の画像認証システム。
The collation unit generates authentication result information that is information on a degree of coincidence between the imaging target included in the input feature image and the monitoring target included in the registered feature image,
The image authentication system according to claim 1, wherein the display unit acquires and displays the authentication result information.
監視対象エリアを撮像して監視画像を取得する撮像ステップと、
前記監視画像を記憶する監視画像記憶ステップと、
前記監視画像に含まれる撮像対象の特徴画像を入力特徴画像として切出すと共に、当該入力特徴画像と、前記監視画像を特定する画像特定情報と、前記監視画像における前記入力特徴画像の切出し位置を特定する位置情報と、を含む入力画像データを生成する特徴画像切出ステップと、
前記入力画像データと予め記憶された監視対象の登録画像データベースとを照合し、前記登録画像データベースに該当する前記入力画像データを検出画像データとして検出する照合ステップと、
前記照合ステップによる照合の結果、前記検出画像データが検出された場合に、前記検出画像データに基づいて特定される前記監視画像の前記入力特徴画像を含む少なくとも一部と前記入力特徴画像の位置とを表示する表示ステップと、を備えた画像認証方法。
An imaging step of imaging a monitoring target area to obtain a monitoring image;
A monitoring image storing step for storing the monitoring image;
A feature image of an imaging target included in the monitoring image is cut out as an input feature image, and the input feature image, image specifying information for specifying the monitoring image, and a cutting position of the input feature image in the monitoring image are specified. A feature image cut-out step for generating input image data including position information,
A collation step of collating the input image data with a registered image database to be monitored stored in advance, and detecting the input image data corresponding to the registered image database as detected image data;
When the detected image data is detected as a result of the collation in the collating step, at least a part including the input feature image of the monitoring image specified based on the detected image data, and a position of the input feature image And a display step for displaying the image.
監視対象エリアを撮像して取得された監視画像を記憶している撮像端末と当該監視画像を表示するための表示端末との間の情報処理をコンピュータに実行させるための画像認証プログラムであって、
前記撮像端末の前記監視画像に含まれる撮像対象の特徴画像を入力特徴画像として切出すと共に、当該入力特徴画像と、前記監視画像を特定する画像特定情報と、前記監視画像における前記入力特徴画像の切出し位置を特定する位置情報と、を含む入力画像データを生成する特徴画像切出処理と、
前記入力画像データと予め記憶された監視対象の登録画像データベースとを照合し、前記登録画像データベースに該当する前記入力画像データを検出画像データとして検出する照合処理と、
前記照合処理による照合の結果、前記検出画像データが検出された場合に、前記検出画像データに基づいて特定される前記監視画像の前記入力特徴画像を含む少なくとも一部と前記入力特徴画像の位置とを前記表示端末に表示させる表示処理と、を備えた画像認証プログラム。
An image authentication program for causing a computer to execute information processing between an imaging terminal storing a monitoring image acquired by imaging a monitoring target area and a display terminal for displaying the monitoring image,
The feature image of the imaging target included in the monitoring image of the imaging terminal is cut out as an input feature image, the input feature image, image specifying information for specifying the monitoring image, and the input feature image in the monitoring image A feature image cutting process for generating input image data including position information for specifying a cutting position;
Collating the input image data with a pre-stored registered image database to be monitored, and collating processing for detecting the input image data corresponding to the registered image database as detected image data;
When the detected image data is detected as a result of collation by the collation processing, at least a part including the input feature image of the monitoring image specified based on the detected image data, and the position of the input feature image Display processing for displaying the image on the display terminal.
JP2018037561A 2018-03-02 2018-03-02 Image authentication system, image authentication method and image authentication program Active JP7142443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018037561A JP7142443B2 (en) 2018-03-02 2018-03-02 Image authentication system, image authentication method and image authentication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018037561A JP7142443B2 (en) 2018-03-02 2018-03-02 Image authentication system, image authentication method and image authentication program

Publications (2)

Publication Number Publication Date
JP2019153908A true JP2019153908A (en) 2019-09-12
JP7142443B2 JP7142443B2 (en) 2022-09-27

Family

ID=67947083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018037561A Active JP7142443B2 (en) 2018-03-02 2018-03-02 Image authentication system, image authentication method and image authentication program

Country Status (1)

Country Link
JP (1) JP7142443B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097311A (en) * 2019-12-17 2021-06-24 シャープ株式会社 Display device and control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088095A (en) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント Information processor and information processing method
WO2015151449A1 (en) * 2014-03-31 2015-10-08 日本電気株式会社 Image-processing system, image-processing device, image-processing method, and recording medium
JP2017045315A (en) * 2015-08-27 2017-03-02 パナソニックIpマネジメント株式会社 Security system and person image display method
JP2017224186A (en) * 2016-06-16 2017-12-21 株式会社 日立産業制御ソリューションズ Security system
JP2017224956A (en) * 2016-06-14 2017-12-21 グローリー株式会社 Information processing unit and information processing method
JP2018018150A (en) * 2016-07-25 2018-02-01 ユニティガードシステム株式会社 Crime prevention system, crime prevention method, and robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088095A (en) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント Information processor and information processing method
WO2015151449A1 (en) * 2014-03-31 2015-10-08 日本電気株式会社 Image-processing system, image-processing device, image-processing method, and recording medium
JP2017045315A (en) * 2015-08-27 2017-03-02 パナソニックIpマネジメント株式会社 Security system and person image display method
JP2017224956A (en) * 2016-06-14 2017-12-21 グローリー株式会社 Information processing unit and information processing method
JP2017224186A (en) * 2016-06-16 2017-12-21 株式会社 日立産業制御ソリューションズ Security system
JP2018018150A (en) * 2016-07-25 2018-02-01 ユニティガードシステム株式会社 Crime prevention system, crime prevention method, and robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021097311A (en) * 2019-12-17 2021-06-24 シャープ株式会社 Display device and control method
JP7431569B2 (en) 2019-12-17 2024-02-15 シャープ株式会社 Display device and control method

Also Published As

Publication number Publication date
JP7142443B2 (en) 2022-09-27

Similar Documents

Publication Publication Date Title
US11410001B2 (en) Method and apparatus for object authentication using images, electronic device, and storage medium
CN108230594B (en) Method for generating alarm in video monitoring system
JP7040463B2 (en) Analysis server, monitoring system, monitoring method and program
US6959099B2 (en) Method and apparatus for automatic face blurring
JP6814673B2 (en) Movement route prediction device and movement route prediction method
JP5500303B1 (en) MONITORING SYSTEM, MONITORING METHOD, MONITORING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP5747116B1 (en) Security system
KR101981900B1 (en) Security management system using face recognition and method thereof
JP2009252215A (en) Security device and information display method
CN107392178B (en) Monitoring method and system
JP2006309491A (en) Biometrics system
CN110544312A (en) Video display method and device in virtual scene, electronic equipment and storage device
WO2018037355A1 (en) A system and method for automated vehicle and face detection and their classification
JP2007072647A (en) Security system
Bhojane et al. Face recognition based car ignition and security system
EP3968294B1 (en) Apparatus, system, method and program
JP2020198475A (en) Person monitoring system and person monitoring method
JP7142443B2 (en) Image authentication system, image authentication method and image authentication program
US11586682B2 (en) Method and system for enhancing a VMS by intelligently employing access control information therein
JP2009205594A (en) Security device and suspicious person determining method
JPWO2020115910A1 (en) Information processing systems, information processing devices, information processing methods, and programs
JP7095876B2 (en) Information processing equipment, information processing methods and programs
JP2018195992A (en) Person group tracking device and person group tracking method
US20220130174A1 (en) Image processing apparatus, control method, and non-transitory storage medium
JP2017158080A (en) Information processing unit, information processing method, program and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220913

R150 Certificate of patent or registration of utility model

Ref document number: 7142443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150