JP2012124658A - System and method for detecting specific person - Google Patents

System and method for detecting specific person Download PDF

Info

Publication number
JP2012124658A
JP2012124658A JP2010272612A JP2010272612A JP2012124658A JP 2012124658 A JP2012124658 A JP 2012124658A JP 2010272612 A JP2010272612 A JP 2010272612A JP 2010272612 A JP2010272612 A JP 2010272612A JP 2012124658 A JP2012124658 A JP 2012124658A
Authority
JP
Japan
Prior art keywords
person
detection
image
specific person
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010272612A
Other languages
Japanese (ja)
Other versions
JP5865584B2 (en
Inventor
Seiichi Hirai
誠一 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2010272612A priority Critical patent/JP5865584B2/en
Publication of JP2012124658A publication Critical patent/JP2012124658A/en
Application granted granted Critical
Publication of JP5865584B2 publication Critical patent/JP5865584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make precision of detection to be high, namely, to reduce missing and erroneous detection in a specific person detection system and a specific person detection method.SOLUTION: The specific person detection system which has means detecting an arbitrary character from a photographed image and means obtaining similarity from feature collation of a list of the specific persons and the character and detecting the specific person and which is constituted of an imaging device, a detection device and terminal device includes: means obtaining a photographing condition of the character; means obtaining the photographing condition of the most similar person; means determining directionality of the next photographing condition from comparison of both the conditions; means controlling the imaging device in accordance with determination; and means detecting the specific person by using the photographed image under the plurality of conditions, which are obtained from the control.

Description

本発明は、映像監視システムに関わり、特に、撮像装置等から入力された画像から特定人物を特定する検知精度を向上させるシステムおよび方法に関する。   The present invention relates to a video monitoring system, and more particularly, to a system and method for improving detection accuracy for specifying a specific person from an image input from an imaging device or the like.

従来から、ホテル、ビル、コンビニエンスストア、金融機関、ダムや道路といった不特定多数の人が訪れる施設には犯罪抑止や事故防止等の目的で、映像監視システムが設置されている。このような映像監視システムでは、監視対象の人物等を監視用撮像装置で撮影し、撮影された映像を、管理事務所や警備室等の監視センタに伝送し、常駐する監視者がそれを監視し、目的や必要に応じて、注意をしたり、あるいは映像を格納するものである。   Conventionally, video surveillance systems have been installed in facilities visited by an unspecified number of people such as hotels, buildings, convenience stores, financial institutions, dams and roads for the purpose of crime prevention and accident prevention. In such a video surveillance system, a person to be monitored is photographed by a surveillance imaging device, and the photographed video is transmitted to a monitoring center such as a management office or a security room, and a resident supervisor monitors it. However, depending on the purpose and necessity, attention is given or video is stored.

近年、治安の悪化や社会不安の高まり、監視用の撮像装置の低価格化と共に、このような映像監視システムの設置数が増加し、上述のような施設のみならず、商店街や繁華街の街頭、住宅地内の生活道路にまで設置されるケースが出てきている。
しかし、映像監視システムの設置場所の広がりは、システム運用者の監視映像を目視でチェックする負担の増加を顕在化させつつある。
このような背景から、映像中の特定の事象(イベント)の発生を画像認識技術を用いてリアルタイムに自動検知するシステムや技術が開発されている(例えば、特許文献1参照。)。その中の代表的な1つに特定人物検知システムがある。
In recent years, the number of such video surveillance systems has increased along with worsening security and increasing social unrest, and the price of surveillance imaging devices being reduced. There are cases where it is installed on streets and on residential roads in residential areas.
However, the spread of installation locations of video surveillance systems is becoming increasingly apparent as the burden of visually checking the system operator's surveillance video.
From such a background, a system and technology for automatically detecting the occurrence of a specific event in an image in real time using an image recognition technology has been developed (for example, see Patent Document 1). One of them is a specific person detection system.

特定人物検知システムとは、検知対象として事前に画像登録しておいた人物(以降、特定人物と称する)が、監視映像中に登場した場合に、登場した特定人物を自動検知し、システム運用者に知らせる機能を有したシステムである。
特定人物の検知は、特定人物の画像と、監視映像中に登場した人物(登場人物)の画像との人物特徴量の照合により、両人物画像間の類似度を算出し、類似度が所定値以上であった場合に、同一人物と判定することで実施される。
こうした特定人物検知システムは、システム運用者の負担を軽減することに寄与している。
A specific person detection system is a system operator that automatically detects a specific person who has been registered in advance as a detection target (hereinafter referred to as a specific person) when it appears in the surveillance video. It is a system with a function to inform
The detection of the specific person is performed by calculating the similarity between the two person images by collating the person feature amount between the image of the specific person and the image of the person (character) appearing in the monitoring video, and the similarity is a predetermined value. When it is above, it carries out by determining with the same person.
Such a specific person detection system contributes to reducing the burden on the system operator.

特開2010−171705号公報JP 2010-171705 A

一方で、特定人物検知システムは、撮影画角、画像解像度、照明環境等の広範な条件のもとで設置される監視用の撮像装置によって撮影される映像を対象とする。このため、検知の高精度化、即ち、見逃しや誤検知の低減が困難であり、大きな課題となっている。
その対策として、自社出願(特願2010−190862号、2010年8月27日出願)において、従来、システム運用開始前だけに実施されていた特定人物の画像登録を、運用中においても行い、特定人物一人あたりの登録画像数や撮影条件の多様性を増し、照合パターンを増やしていくことにより、検知精度を向上させていく方式が提案されている。
上述の文献記載の開示技術は、精度向上に寄与する方式として有効である。
しかしながら、特定人物検知システムには、さらなる検知精度向上が求められているのも実情である。
本発明の特定人物検知システムおよび特定人物検知方法は、このような状況に鑑みてなされたものであり、検知の高精度化、即ち、見逃しの低減や誤検知の低減を目的とする。
On the other hand, the specific person detection system targets video shot by a monitoring imaging device installed under a wide range of conditions such as a shooting angle of view, image resolution, and lighting environment. For this reason, it is difficult to increase the accuracy of detection, that is, to reduce missed detection and false detection, which is a big problem.
As a countermeasure against this, in the company application (Japanese Patent Application No. 2010-190862, filed on August 27, 2010), the image registration of a specific person, which was conventionally performed only before the start of system operation, is performed even during operation. There has been proposed a method for improving detection accuracy by increasing the number of registered images per person and the variety of shooting conditions and increasing the number of collation patterns.
The disclosed technique described in the above-mentioned literature is effective as a method that contributes to accuracy improvement.
However, the specific person detection system is actually required to further improve the detection accuracy.
The specific person detection system and the specific person detection method of the present invention have been made in view of such a situation, and an object thereof is to increase detection accuracy, that is, to reduce oversight and false detection.

上記目的を達成するため、本発明は、撮影画像中から任意の登場人物を検知する手段と、特定人物の一覧と登場人物との特徴照合から類似性を求め、特定人物検知を行う手段を有する、撮像装置と検知装置と端末装置から構成される特定人物検知システムにおいて、登場人物の撮影条件を求める手段と、最類似人物の撮影条件を求める手段と、両条件の比較から次の撮影条件の方向性を判断する手段と、該判断に従い撮像装置を制御する手段と、該制御から得られる複数条件下の撮影画像を用いて特定人物検知を行う手段を設けたものである。   In order to achieve the above object, the present invention has means for detecting an arbitrary character from a photographed image, and means for detecting a specific person by obtaining a similarity based on a feature comparison between a list of specific persons and the characters. In the specific person detection system composed of the imaging device, the detection device, and the terminal device, the means for obtaining the shooting condition of the character, the means for obtaining the shooting condition of the most similar person, Means for determining directionality, means for controlling the imaging apparatus according to the determination, and means for detecting a specific person using captured images obtained under a plurality of conditions obtained from the control are provided.

即ち、上記目的を達成するため、本発明の特定人物検知システムは、撮像装置、検知装置、および端末装置から構成される特定人物検知システムにおいて、前記検知装置は、前記撮像装置から入力された画像から人物を検知する検知手段と、前記検知手段が検知した人物と、あらかじめ保管された特定人物の一覧との特徴照合から類似性を求め、特定人物検知を行う特定人物検知手段と、前記検知手段が検知した前記人物の第1の撮影条件を求める第1の撮影条件算出手段と、最類似人物に対する第2の撮影条件を求める第2の撮影条件算出手段と、前記第1の撮影条件と前記第2の撮影条件の比較から、次の撮影条件の方向性を判断する方向性判断手段と、前記撮影条件の方向性の判断に基づいて前記撮像装置を制御する制御手段と、前記制御手段から得られる複数条件下の撮影画像を用いて特定人物検知を行う手段とを備えたものである。   That is, in order to achieve the above object, a specific person detection system according to the present invention is a specific person detection system including an imaging device, a detection device, and a terminal device, and the detection device is an image input from the imaging device. Detecting means for detecting a person, a specific person detecting means for detecting a specific person from a feature comparison between a person detected by the detecting means and a list of specific persons stored in advance, and detecting the specific person, and the detecting means The first shooting condition calculation means for obtaining the first shooting condition of the person detected by the camera, the second shooting condition calculation means for obtaining the second shooting condition for the most similar person, the first shooting condition, and the From the comparison of the second imaging conditions, directionality determining means for determining the directionality of the next imaging conditions, control means for controlling the imaging device based on the determination of the directionality of the imaging conditions, It is obtained by a means for performing a specific person detected using photographic images of a plurality of conditions obtained from the control means.

また、上記目的を達成するため、本発明の特定人物検知方法は、撮像装置、検知装置、および端末装置から構成される特定人物検知システムにおける特定人物検知方法おいて、前記撮像装置から入力された画像から人物を検知しと、前記検知された人物と、あらかじめ保管された特定人物の一覧との特徴照合から類似性を求め、特定人物を検知し、前記検知された前記人物の第1の撮影条件を求め、最類似人物に対する第2の撮影条件を求め、前記第1の撮影条件と前記第2の撮影条件の比較から、次の撮影条件の方向性を判断し、前記撮影条件の方向性の判断に基づいて撮像装置制御手段によって前記撮像装置を制御し、前記撮像装置制御手段から得られる複数条件下の撮影画像を用いて特定人物検知を行うものである。   In order to achieve the above object, a specific person detection method of the present invention is a specific person detection method in a specific person detection system including an imaging device, a detection device, and a terminal device, and is input from the imaging device. A person is detected from the image, a similarity is obtained from a feature comparison between the detected person and a list of specific persons stored in advance, the specific person is detected, and the detected first person is photographed. Obtaining a condition, obtaining a second photographing condition for the most similar person, determining a directionality of the next photographing condition from a comparison between the first photographing condition and the second photographing condition, and determining the directionality of the photographing condition. Based on this determination, the image pickup apparatus control means controls the image pickup apparatus, and a specific person is detected by using captured images obtained under a plurality of conditions obtained from the image pickup apparatus control means.

本発明によれば、特定人物検知システムにおいて、より高い検知精度を得ることが可能となる。   According to the present invention, it is possible to obtain higher detection accuracy in the specific person detection system.

本発明の特定人物検知システムの一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of the specific person detection system of this invention. 本発明の特定人物検知システムの検知装置の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of the detection apparatus of the specific person detection system of this invention. 本発明の特定人物検知システムの検知装置における特定人物記録部の記録データの一実施例を示す図である。It is a figure which shows one Example of the recording data of the specific person recording part in the detection apparatus of the specific person detection system of this invention. 本発明の特定人物検知システムの検知装置が実行する検知処理手順の一実施例を説明するためのフローチャートである。It is a flowchart for demonstrating one Example of the detection process procedure which the detection apparatus of the specific person detection system of this invention performs. 本発明の特定人物検知システムの検知装置が実行する検知処理手順の一実施例を説明するためのフローチャートである。It is a flowchart for demonstrating one Example of the detection process procedure which the detection apparatus of the specific person detection system of this invention performs. 本発明の特定人物検知システムの検知装置が実行する検知処理手順の一実施例を説明するためのフローチャートである。It is a flowchart for demonstrating one Example of the detection process procedure which the detection apparatus of the specific person detection system of this invention performs. 本発明の特定人物検知システムの検知装置における判定結果保管部のデータの一実施例を示す図である。It is a figure which shows one Example of the data of the determination result storage part in the detection apparatus of the specific person detection system of this invention. 本発明の特定人物検知システムの検知装置において、この人物が登場して1枚目の画像に対する一連の処理の内容の一実施例を説明するための図である。In the detection apparatus of the specific person detection system of this invention, it is a figure for demonstrating one Example of the content of a series of processes with respect to the 1st image when this person appears. 本発明の特定人物検知システムの検知装置において、この人物が登場して2枚目の画像に対する一連の処理の内容の一実施例を説明するための図である。In the detection apparatus of the specific person detection system of this invention, it is a figure for demonstrating one Example of the content of a series of processes with respect to the 2nd image when this person appears. 人物が登場して3枚目の画像に対する一連の処理の内容を説明する図。The figure explaining the content of a series of processes with respect to the 3rd image when a person appears.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、各図の説明において、共通な機能を有する構成要素には同一の参照番号を付し、できるだけ説明の重複を避けるため、説明を省略するようにした。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of each figure, the same reference numerals are assigned to components having a common function, and the description is omitted to avoid duplication as much as possible.

図1によって、本発明の特定人物検知システムの一実施例の構成を説明する。図1は、本発明の特定人物検知システムの一実施例の構成を示すブロック図である。100はネットワーク、101は撮像装置、102は検知装置、103は端末装置である。
図1に示すように、本発明の特定人物検知システムの一実施例は、ネットワーク100に、撮像装置101、検知装置102、および端末装置103が接続され、互いに通信可能な状態で構成される。なお、説明の簡略化のため、図1の実施例では、撮像装置101、検知装置102、および端末装置103を、各1台で構成したが、これらはネットワークに対し、複数台の接続が可能である。
The configuration of an embodiment of the specific person detection system of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of an embodiment of the specific person detection system of the present invention. Reference numeral 100 denotes a network, 101 denotes an imaging device, 102 denotes a detection device, and 103 denotes a terminal device.
As shown in FIG. 1, an embodiment of the specific person detection system of the present invention is configured such that an imaging device 101, a detection device 102, and a terminal device 103 are connected to a network 100 and can communicate with each other. For simplification of description, in the embodiment of FIG. 1, the imaging device 101, the detection device 102, and the terminal device 103 are each configured as a single unit, but these can be connected to a network by a plurality of units. It is.

図1において、ネットワーク100は、各装置(撮像装置101、検知装置102、および端末装置103)を相互に接続し、データ通信を行う専用線やイントラネット、インターネット、無線LAN等の通信線である。
撮像装置101は、遠近制御やピント制御が可能なズームレンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子、アナログ信号をデジタル変換するA/D(Analog to Digital)回路、RAM(Random Access Memory)等の一時記憶メモリ、データ伝送バス、タイミング回路、外部入出力インタフェース、電源回路、パンやチルト等を行う雲台、および、可視光ライトや近赤外LED(Light Emitting Diode)等の照明を備える監視カメラ等の装置である。
撮像装置101は、レンズを通った入射光を、撮像素子で電気信号に変換し、電気信号をA/D回路でデジタル変換し、一時記憶メモリに画像データとして格納する。格納された画像データは、外部入出力インタフェースに入力された外部からの映像要求やタイミング回路からの指示等に応じて、外部入出力インタフェースからネットワークに出力される。また、同様に外部入出力インタフェースに入力された外部からの制御命令に応じて、撮影の向きやレンズの遠近やピント、照明の量等を変える。
In FIG. 1, a network 100 is a communication line such as a dedicated line or an intranet, the Internet, or a wireless LAN that connects devices (the imaging device 101, the detection device 102, and the terminal device 103) to each other and performs data communication.
The image pickup apparatus 101 includes a zoom lens capable of perspective control and focus control, an image pickup device such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor), and an A / D (Analog to Digital) circuit for digitally converting an analog signal. , Temporary storage memory such as RAM (Random Access Memory), data transmission bus, timing circuit, external input / output interface, power supply circuit, pan / tilt head, visible light and near infrared LED (Light Emitting) It is a device such as a surveillance camera provided with illumination such as a diode.
The imaging device 101 converts incident light that has passed through a lens into an electrical signal by an imaging device, digitally converts the electrical signal by an A / D circuit, and stores it as image data in a temporary storage memory. The stored image data is output from the external input / output interface to the network in response to an external video request input to the external input / output interface or an instruction from the timing circuit. Similarly, in accordance with an external control command input to the external input / output interface, the direction of shooting, the perspective of the lens, the focus, the amount of illumination, and the like are changed.

検知装置102は、CPU等の演算回路や、RAM等の一時記憶メモリ、HDD(Hard Disk Drive)等の記録媒体、データ伝送バス、外部入出力インタフェース、電源回路等を備える、コンピュータ等の装置である。
検知装置102は、ネットワークを介して外部入出力インタフェースに入力された撮像装置からの画像データを一時記憶メモリに格納する。また、検知装置102は、格納された画像データに対し、演算回路を使い本発明の方式を含む特定人物検知に関わる各種演算を行う。また、検知装置102は、その記録媒体に、本発明の方式を含むソフトウェア一式や、OS(オペレーションシステム)、特定人物の画像(人物特徴量)一式等を格納している。また、検知装置102は、特定人物検知の結果を、外部入出力インタフェースからネットワークに出力する。
The detection device 102 is a device such as a computer including an arithmetic circuit such as a CPU, a temporary storage memory such as a RAM, a recording medium such as an HDD (Hard Disk Drive), a data transmission bus, an external input / output interface, a power supply circuit, and the like. is there.
The detection device 102 stores the image data from the imaging device input to the external input / output interface via the network in the temporary storage memory. The detection apparatus 102 performs various calculations related to specific person detection including the method of the present invention on the stored image data using an arithmetic circuit. Further, the detection apparatus 102 stores in its recording medium a set of software including the method of the present invention, an OS (operation system), a set of images of a specific person (person feature amount), and the like. Further, the detection device 102 outputs the result of specific person detection to the network from the external input / output interface.

端末装置103は、CPU等の演算回路や、RAM等の一時記憶メモリ、HDD等の記録媒体、データ伝送バス、外部入出力インタフェース、電源回路、液晶ディスプレイ等の画面、キーボードやマウス等のユーザ入力機器を備える、コンピュータ等の装置である。また、端末装置103には、例えば、ブザーや音声アナウンス機器、LED発光機器等を加えて構成されても良い。
端末装置103は、ネットワーク100を介して外部入出力インタフェースに入力された、撮像装置101からの画像データおよび検知装置102から入力された特定人物検知結果を、一時記憶メモリに格納する。また端末装置103は、格納された画像データおよび特定人物検知結果に対して、演算回路を使い、表示に適した形態に変換を加え、画面表示する。また端末装置103は、その記録媒体に、ソフトウェア一式や、OS等を格納している。また、端末装置103に対するユーザ操作は、ユーザ入出力機器によって行われる。
The terminal device 103 is an arithmetic circuit such as a CPU, a temporary storage memory such as a RAM, a recording medium such as an HDD, a data transmission bus, an external input / output interface, a power circuit, a screen such as a liquid crystal display, and a user input such as a keyboard and a mouse. It is a device such as a computer provided with a device. Further, the terminal device 103 may be configured by adding, for example, a buzzer, a voice announcement device, an LED light emitting device, or the like.
The terminal device 103 stores the image data from the imaging device 101 and the specific person detection result input from the detection device 102 input to the external input / output interface via the network 100 in a temporary storage memory. Further, the terminal device 103 uses an arithmetic circuit to convert the stored image data and the specific person detection result into a form suitable for display, and displays the screen. The terminal device 103 stores a set of software, an OS, and the like on the recording medium. Further, a user operation on the terminal device 103 is performed by a user input / output device.

図2によって、図1の検知システムの詳細について説明する。図2は、本発明の特定人物検知システムの検知装置の一実施例の構成を示すブロック図である。図2において、図1と同一の符号の装置は、同一の装置を示す。200は特定人物記録部、201は画像受信部、202は人物検出部、203は撮影条件算出部、204は人物特徴量算出部、205は特定人物1次判定部、206は判定結果保管部、207は特定人物2次判定部、208は検知通知部、209は撮影条件判断部、210は制御指示部である。
図2に示すように、検知装置102は、特定人物記録部200、画像受信部201、人物検出部202、撮影条件算出部203、人物特徴量算出部204、特定人物1次判定部205、判定結果保管部206、特定人物2次判定部207、検知通知部208、撮影条件判断部209、および制御指示部210の各処理部にて構成される。
Details of the detection system of FIG. 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of an embodiment of the detection device of the specific person detection system of the present invention. 2, devices having the same reference numerals as those in FIG. 1 indicate the same devices. 200 is a specific person recording unit, 201 is an image receiving unit, 202 is a person detection unit, 203 is a shooting condition calculation unit, 204 is a person feature amount calculation unit, 205 is a specific person primary determination unit, 206 is a determination result storage unit, 207 is a specific person secondary determination unit, 208 is a detection notification unit, 209 is an imaging condition determination unit, and 210 is a control instruction unit.
As illustrated in FIG. 2, the detection apparatus 102 includes a specific person recording unit 200, an image reception unit 201, a person detection unit 202, a photographing condition calculation unit 203, a person feature amount calculation unit 204, a specific person primary determination unit 205, a determination The processing unit includes a result storage unit 206, a specific person secondary determination unit 207, a detection notification unit 208, a shooting condition determination unit 209, and a control instruction unit 210.

図2において、特定人物記録部200は、特定人物の画像登録の際に、その人物の画像や人物特徴量、その人物ID(姓名や人物固有に与えた識別情報)等を記録しておく処理部であり、例えば、データベースである。記録されるデータは、事前に与えられておくものとし、その与え方はどのようであっても良い。特定人物記録部における記録データの態様については、後述する。
画像受信部201は、検知装置102外部からの画像入出力を行う処理部であり、本実施例では、ネットワーク100を介して、撮像装置101からの入力画像データの受信を行う。
In FIG. 2, a specific person recording unit 200 records an image of a person, a person feature amount, a person ID (first and last name, identification information given to the person), and the like when registering an image of the specific person. Part, for example, a database. The data to be recorded is given in advance, and the way of giving it may be whatever. The mode of recorded data in the specific person recording unit will be described later.
The image receiving unit 201 is a processing unit that performs image input / output from the outside of the detection apparatus 102. In this embodiment, the image receiving unit 201 receives input image data from the imaging apparatus 101 via the network 100.

人物検出部202は、画像受信部201が入力した入力画像データに対して、画像認識技術を用いた人物検出を行い、登場人物の存在判定をし、人物が存在する場合にはその画像領域座標出力を行う処理部である。
撮影条件算出部203は、画像受信部201が入力した入力画像データに対して、画像処理技術を用いて、撮影条件の算出を行う処理部である。撮影条件は、例えば、人物の明るさや映りの明瞭さ、人物の見かけの大きさ等である。
The person detection unit 202 performs person detection using image recognition technology on the input image data input by the image reception unit 201, determines the presence of a character, and if there is a person, its image area coordinates A processing unit that performs output.
The imaging condition calculation unit 203 is a processing unit that calculates imaging conditions for the input image data input by the image reception unit 201 using an image processing technique. The shooting conditions are, for example, the brightness of the person, the clarity of the reflection, the apparent size of the person, and the like.

人物特徴量算出部204は、画像受信部201が入力した入力画像データに対して、画像認識技術を用いて特徴量算出を行う処理部である。
特定人物1次判定部205は、人物検出部202で検出した登場人物に対して、特定人物であるか否かを1次判定する処理部である。
判定結果保管部206は、特定人物1次判定部205で判定した結果等を格納し、保管する処理部である。判定結果保管部206における保管データの態様については、後述する。
The person feature amount calculation unit 204 is a processing unit that performs feature amount calculation on the input image data input by the image reception unit 201 using an image recognition technique.
The specific person primary determination unit 205 is a processing unit that primarily determines whether or not the character detected by the person detection unit 202 is a specific person.
The determination result storage unit 206 is a processing unit that stores and stores the results determined by the specific person primary determination unit 205. A mode of stored data in the determination result storage unit 206 will be described later.

特定人物2次判定部207は、人物検出部202で検出した登場人物に対する特定人物あるか否かの判定を、特定人物1次判定部205で判定した複数個の1次判定結果から、2次判定する処理部である。
検知通知部208は、特定人物を検知した際に、その結果通知の入出力を行う処理部であり、本実施例では、ネットワーク100を介して、端末装置103へ特定人物検知結果データの送信を行う。
The specific person secondary determination unit 207 determines whether or not there is a specific person for the character detected by the person detection unit 202 based on a plurality of primary determination results determined by the specific person primary determination unit 205. It is a processing part to determine.
The detection notification unit 208 is a processing unit that inputs / outputs a result notification when a specific person is detected. In this embodiment, the detection notification unit 208 transmits specific person detection result data to the terminal device 103 via the network 100. Do.

撮影条件判断部209は、次の撮影条件の方向性を判断する処理部である。
ここで撮影条件の方向性とは、次画像の撮影条件の変更(パラメータを増加するか減少するか)をどのようにするかである。例えば、上述の人物の明るさについては、明るくするか暗くするかであり、また例えば、上述の人物の映りの明瞭さについては、くっきりさせるかぼやけさせるかであり、また例えば、上述の人物の見かけの大きさについては、大きくするか小さくするかである。また、いずれの場合においても、現状を維持するという選択肢も含まれる。
The shooting condition determination unit 209 is a processing unit that determines the directionality of the next shooting condition.
Here, the directionality of the shooting condition refers to how to change the shooting condition (increase or decrease the parameter) of the next image. For example, the brightness of the above-mentioned person is brightened or darkened, and for example, the clarity of the above-mentioned person's reflection is made clear or blurred. The apparent size is either increased or decreased. In either case, the option of maintaining the current state is also included.

制御指示部210は、撮影条件判断部の判断結果に従い、制御指示の入出力を行う処理部であり、本例では、撮像装置への制御指示の送信を行う。   The control instruction unit 210 is a processing unit that inputs and outputs control instructions in accordance with the determination result of the imaging condition determination unit. In this example, the control instruction unit 210 transmits a control instruction to the imaging apparatus.

図3によって、本発明の特定人物検知システムの検知装置の特定人物記録部における記録データの一実施例を説明する。図3は、本発明の特定人物検知システムの検知装置102における特定人物記録部200の記録データの一実施例を示す図である(図2参照。)。300〜309は、それぞれレコードを示す。310はレコード番号セル、311は人物IDセル、312は特徴量セル、313は人物画像セルである。   With reference to FIG. 3, an embodiment of recorded data in the specific person recording unit of the detection apparatus of the specific person detection system of the present invention will be described. FIG. 3 is a diagram showing an example of recorded data of the specific person recording unit 200 in the detection apparatus 102 of the specific person detection system of the present invention (see FIG. 2). Reference numerals 300 to 309 denote records. 310 is a record number cell, 311 is a person ID cell, 312 is a feature amount cell, and 313 is a person image cell.

図3において、データは、撮影1回の情報を1個のレコードとして記録する。本例は、特定人物4名に対するのべ10回分の撮影、すなわち10個のレコードが記録されている状態を示し、レコード300〜309で構成される。
それぞれのレコード300〜309は、レコード番号セル310、人物IDセル311、特徴量セル312、および人物画像セル313で構成される。
レコード番号セル310は、レコード番号を格納するデータ領域である。レコード番号は、レコードの管理をするために用いる番号であり、例えば、レコード毎にユニークに割り当てられる連番(連続整数)の数値である。
人物IDセル311は、特定人物の人物IDを格納するデータ領域である。本実施例では、人物名称としての文字列が格納された例を示すが、人物固有に与えた識別情報であれば、整数値等を用いるようにしても良い。
In FIG. 3, the data records information of one photographing as one record. This example shows a state in which a total of 10 shootings for four specific persons, that is, 10 records are recorded, and is composed of records 300 to 309.
Each record 300 to 309 includes a record number cell 310, a person ID cell 311, a feature amount cell 312, and a person image cell 313.
The record number cell 310 is a data area for storing a record number. The record number is a number used for managing records, and is, for example, a numerical value of a serial number (continuous integer) uniquely assigned to each record.
The person ID cell 311 is a data area for storing a person ID of a specific person. In this embodiment, an example in which a character string as a person name is stored is shown, but an integer value or the like may be used as long as it is identification information given to a person.

特徴量セル312は、特定人物の人物特徴量を格納するデータ領域である。本実施例では、説明を容易にするため、1次元値としての小数値が格納された例を示すが、多次元値を用いるようにしても良いことは勿論である。
人物画像セル313は、特定人物の画像を格納するデータ領域である。本実施例では、画像そのものを格納した例を示すが、代わりに画像を別途格納したデータ領域のアドレス値を16進数等で格納するようにしても良い。
The feature quantity cell 312 is a data area for storing a person feature quantity of a specific person. In the present embodiment, for ease of explanation, an example in which a decimal value as a one-dimensional value is stored is shown, but it is needless to say that a multidimensional value may be used.
The person image cell 313 is a data area for storing an image of a specific person. In this embodiment, an example in which the image itself is stored is shown, but instead, the address value of the data area in which the image is separately stored may be stored in hexadecimal or the like.

図4によって、本発明の特定人物検知システムの検知装置が実行する検知処理の流れの一実施例を説明する。図4は、本発明の特定人物検知システムの検知装置が実行する検知処理手順の一実施例を説明するためのフローチャートである。図4は紙面が大きくなるため、図4(a)、図4(b)および図4(c)に分割して示した。図4(a)は、ステップ400〜ステップ408について説明し、図4(b)は、ステップ409〜417について説明し、図4(c)は、ステップ418〜422について説明している。
図4における処理は、特に説明のない限り、検知装置102が実行する。
また図4には図示しないが、検出カウンタの初期値は“0”とする。
With reference to FIG. 4, an embodiment of the flow of detection processing executed by the detection device of the specific person detection system of the present invention will be described. FIG. 4 is a flowchart for explaining an embodiment of the detection processing procedure executed by the detection device of the specific person detection system of the present invention. FIG. 4 is divided into FIG. 4 (a), FIG. 4 (b), and FIG. 4A describes Step 400 to Step 408, FIG. 4B illustrates Step 409 to 417, and FIG. 4C illustrates Step 418 to 422.
The processing in FIG. 4 is executed by the detection device 102 unless otherwise specified.
Although not shown in FIG. 4, the initial value of the detection counter is “0”.

画像受信待機ステップ400では、画像受信部201は、撮像装置101から画像データが入力されるまで、待機を行う。画像受信部201は、着信(画像受信)を検知すると、画像受信ステップ401の処理に進む。
画像受信ステップ401では、画像受信部201は、撮像装置101から送信された画像を受信する。
人物検出ステップ402では、人物検出部202は、受信した画像データに対して人物検出を行う。人物検出は、例えば、背景画像との差分により動体検出を行い、さらにその動体画像領域の面積や形状、移動速度等にて人物として検出する方法や、予め学習させ用意しておいた人物の画像特徴パターンを有する画像領域の有無を画像内探索を使って探す方法等の周知の技術によって行う。本発明では、どの方法であっても良く、また人物検出が人物全体を対象とした検出であっても、人物特定の代表的な部位である顔のような部分画像領域を対象とした検出であっても良い。検出の結果、人物が検出された場合(検出)、検出カウンタ値加算ステップ403の処理に進み、検出されなかった場合(非検出)には、2次判定要否判定ステップ418に(T3経由で図4(c)の)処理に進む。
In the image reception standby step 400, the image reception unit 201 stands by until image data is input from the imaging device 101. When the image receiving unit 201 detects an incoming call (image reception), the image receiving unit 201 proceeds to a process of an image receiving step 401.
In an image receiving step 401, the image receiving unit 201 receives an image transmitted from the imaging device 101.
In the person detection step 402, the person detection unit 202 performs person detection on the received image data. For example, the person detection is performed by detecting a moving object based on a difference from the background image, and further detecting the person by the area, shape, moving speed, or the like of the moving object image area, or a person image that has been learned and prepared in advance. This is performed by a known technique such as a method of searching for the presence or absence of an image region having a feature pattern using an in-image search. In the present invention, any method may be used, and even if the person detection is detection for the entire person, detection is performed for a partial image region such as a face that is a representative part of a person. There may be. If a person is detected as a result of detection (detection), the process proceeds to detection counter value addition step 403. If not detected (non-detection), the process proceeds to secondary determination necessity determination step 418 (via T3). Proceed to the process of FIG.

検出カウンタ値加算ステップ403では、人物検出部202は、検出カウンタ値を1加算し、人物画像領域算出ステップ404の処理に進む。
人物画像領域算出ステップ404では、人物検出部202は、人物の画像領域を算出し、見かけの大きさ算出ステップ405の処理に進む。
見かけの大きさ算出ステップ405では、撮影条件算出部203は、人物画像領域算出ステップで算出した登場人物の画像領域に対して、人物の見かけの大きさを算出し、明るさ算出ステップ406の処理に進む。人物の見かけの大きさには、例えば、画像上の面積、即ち、画像領域の縦方向の画素数と横方向の画素数の積値等を用いる。
明るさ算出ステップ406では、撮影条件算出部203は、人物画像領域算出ステップ404で算出した登場人物の画像領域に対して、人物の明るさを算出し、映りの明瞭さ算出ステップ407の処理に進む。人物の明るさには、例えば、画像領域の輝度の平均値等を用いる。
映りの明瞭さ算出ステップ407では、撮影条件算出部203は、人物画像領域算出ステップ404で算出した登場人物の画像領域に対して、人物の映りの明瞭さを算出し、特徴量算出ステップ408の処理に進む。人物の映りの明瞭さには、例えば、画像領域における高周波成分量等を用いる。高周波成分は、画像領域に対するフーリエ変換等の変換により求めることができる。
特徴量検出ステップ408では、人物特徴量算出部204は、登場人物の画像領域からその人物特徴量を算出し、検出カウンタ値判定ステップ409の処理に進む(T2経由で図4(b)の処理に進む)。ここで算出する人物特徴量には、例えば、人物の輪郭の形状や方向、頭髪や皮膚の色、歩容、あるいは、顔の輪郭の形状や方向、目や鼻、口といった主要構成要素の大きさ、形状、配置関係等々が数値化された画像特徴量が挙げられる。本実施例においては、これら複数の特徴量を1つのベクトルとして扱う。
In the detection counter value addition step 403, the person detection unit 202 adds 1 to the detection counter value and proceeds to the process of the person image region calculation step 404.
In the person image area calculation step 404, the person detection unit 202 calculates the image area of the person, and proceeds to the process of the apparent size calculation step 405.
In the apparent size calculation step 405, the shooting condition calculation unit 203 calculates the apparent size of the person for the character image area calculated in the human image area calculation step, and performs the process in the brightness calculation step 406. Proceed to As the apparent size of the person, for example, an area on the image, that is, a product value of the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the image region, or the like is used.
In the brightness calculation step 406, the shooting condition calculation unit 203 calculates the brightness of the person for the character image area calculated in the person image area calculation step 404, and performs the processing of the clarity of image calculation step 407. move on. For example, the average brightness of the image area is used as the brightness of the person.
In the reflection clarity calculation step 407, the shooting condition calculation unit 203 calculates the clarity of the person's reflection for the character image area calculated in the person image area calculation step 404, and in the feature amount calculation step 408. Proceed to processing. For example, the amount of high-frequency components in the image area is used for clarity of the reflection of a person. The high frequency component can be obtained by transformation such as Fourier transformation on the image region.
In the feature amount detection step 408, the person feature amount calculation unit 204 calculates the person feature amount from the image area of the character, and proceeds to the process of the detection counter value determination step 409 (the process of FIG. 4B via T2). Go to). The human feature amount calculated here includes, for example, the shape and direction of the outline of the person, the color of the hair and skin, the gait, the shape and direction of the outline of the face, the size of the main components such as eyes, nose, and mouth. An image feature amount in which the shape, the arrangement relationship, and the like are digitized can be mentioned. In the present embodiment, these plural feature quantities are handled as one vector.

検出カウンタ値判定ステップ409では、特定人物1次判定部205は、検出カウンタ値の評価を行う。検出カウンタ値が“1”であった場合には、全照合ステップ410の処理に進み、検出カウンタ値が“1”以外であった場合には、絞込照合ステップ411の処理に進む。   In the detection counter value determination step 409, the specific person primary determination unit 205 evaluates the detection counter value. When the detection counter value is “1”, the process proceeds to the process of all collation step 410, and when the detection counter value is other than “1”, the process proceeds to the process of narrowing collation step 411.

全照合ステップ410では、特定人物1次判定部205は、全照合を行う。具体的には、特徴量検出ステップ408で算出した登場人物の人物特徴量を、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量全てを対象として、順番に照合(類似度算出)していき、最も類似度の高い特徴量を探し出す。この特徴量を持つ人物を最類似人物とする。その処理後、見かけの大きさ算出ステップ412の処理に進む。ここで、類似度とは、画像(画像特徴量)同士の近さ、いわゆる類似性を示す数値であり、その算出方法については、例えば、「大規模な画像集合のための表現モデル」(廣池敦他、日本写真学会誌2003年66巻1号P93−P101)のような論文を参照することができる。本実施例においては、類似度は類似しているほど大きくなる正数とし、例えば、特徴量間の距離(ノルム)に所定定数を足して逆数をとった様な値である。   In all verification step 410, the specific person primary determination unit 205 performs all verification. Specifically, the character feature amounts of the characters calculated in the feature amount detection step 408 are collated in order (similar to all the person feature amounts of each specific person previously recorded in the specific person recording unit 200). The feature amount having the highest similarity is searched for. The person having this feature amount is set as the most similar person. After the processing, the process proceeds to the apparent size calculation step 412. Here, the similarity is a numerical value indicating the closeness between images (image feature amounts), so-called similarity, and a calculation method thereof is, for example, “Expression model for large-scale image collection” (Tsugaike) Reference can be made to a paper such as Tsuji et al., Journal of the Japan Photography Society, 2003, Vol. 66, No. 1, P93-P101). In the present embodiment, the similarity is a positive number that increases as the degree of similarity increases. For example, the similarity is a value obtained by adding a predetermined constant to the distance (norm) between feature amounts and taking the reciprocal.

絞込照合ステップ411では、特定人物1次判定部205は、絞込照合を行う。具体的には、特徴量検出ステップ408で算出した登場人物の人物特徴量を、特定人物記録部200に予め記録しておいた各特定人物の人物特徴量のうち、全照合ステップ410での全照合で得た最類似人物の人物IDを有する人物特徴量のみを対象に順番に照合(類似度算出)していき、最も類似度の高い特徴量(最類似人物)を探し出す。その処理後、見かけの大きさ算出ステップ412の処理に進む。該人物IDは、判定結果保管部206の保管データから検出カウンタ値が“1”であるレコードから取得する。判定結果保管部206における保管データの態様については、後述する。   In the narrowing collation step 411, the specific person primary determination unit 205 performs narrowing collation. Specifically, the character feature amounts of the characters calculated in the feature amount detection step 408 are all of the person feature amounts of each specific person previously recorded in the specific person recording unit 200 in the all matching step 410. Only the person feature amount having the person ID of the most similar person obtained by the collation is sequentially collated (similarity calculation), and the feature amount with the highest similarity (the most similar person) is found. After the processing, the process proceeds to the apparent size calculation step 412. The person ID is acquired from the record whose detection counter value is “1” from the storage data of the determination result storage unit 206. A mode of stored data in the determination result storage unit 206 will be described later.

見かけの大きさ算出ステップ412では、撮影条件算出部209は、全照合ステップ410又は絞込照合411で探し出した最類似人物の画像領域に対して、人物の見かけの大きさを算出し、明るさ算出ステップ413の処理に進む。人物の見かけの大きさは、登場人物の見かけの大きさ算出ステップ405と同様で、例えば、画像上の面積、即ち、画像領域の縦方向の画素数と横方向の画素数の積値等を用いる。
明るさ算出ステップ413では、撮影条件算出部209は、全照合ステップ410又は絞込照合ステップ411で探し出した最類似人物の画像領域に対して、人物の明るさを算出し、映りの明瞭さ算出ステップ414の処理に進む。人物の明るさは、登場人物の明るさ算出ステップ406と同様で、人物の明るさには、例えば、画像領域の輝度の平均値等を用いる。
映りの明瞭さ算出ステップ414では、撮影条件算出部203は、全照合ステップ410又は絞込照合ステップ411で探し出した最類似人物の画像領域に対して、人物の映りの明瞭さを算出し、一次判定結果格納ステップ415の処理に進む。人物の映りの明瞭さは、ステップ407と同様であり、例えば、画像領域における高周波成分量等を用いる。高周波成分は、画像領域に対するフーリエ変換等の変換により求めることができる。
In the apparent size calculation step 412, the imaging condition calculation unit 209 calculates the apparent size of the person for the image region of the most similar person found in the all verification step 410 or the narrowing verification 411, and the brightness. The process proceeds to the calculation step 413. The apparent size of the person is the same as that in the appearance size calculation step 405 of the character. For example, the area on the image, that is, the product value of the number of pixels in the vertical direction and the number of horizontal pixels in the image area, etc. Use.
In the brightness calculation step 413, the shooting condition calculation unit 209 calculates the brightness of the person for the image region of the most similar person found in the all matching step 410 or the narrowing matching step 411, and calculates the clarity of the reflection. Proceed to step 414. The brightness of the person is the same as in the brightness calculation step 406 of the character. For example, the average brightness of the image area is used as the brightness of the person.
In the projection clarity calculation step 414, the imaging condition calculation unit 203 calculates the clarity of the projection of the person for the image area of the most similar person found in the all matching step 410 or the narrowing matching step 411. The process proceeds to determination result storage step 415. The clarity of the person's reflection is the same as in step 407, and for example, the amount of high frequency components in the image area is used. The high frequency component can be obtained by transformation such as Fourier transformation on the image region.

一次判定結果格納ステップ415では、判定結果保管部206は、これまでに求めた結果を格納し、保管する。ここで、格納の対象となるデータには、現在の検出カウンタ値、全照合ステップ410で探し出した最類似人物の人物ID、全照合ステップ410又は絞込照合ステップ411で探し出した最類似人物との類似度、見かけの大きさ算出ステップ405乃至映りの明瞭さ算出ステップ407で算出した登場人物に対する見かけの大きさ、明るさ、および映りの明瞭さ、並びに、見かけの大きさ算出ステップ412〜映りの明瞭さ算出ステップ414で算出した最類似人物に対する見かけの大きさ、明るさ、および映りの明瞭さを含む。なお、判定結果保管部206における保管データの態様については後述する。   In the primary determination result storage step 415, the determination result storage unit 206 stores and stores the results obtained so far. Here, the data to be stored include the current detection counter value, the person ID of the most similar person found in the all matching step 410, and the most similar person found in the all matching step 410 or the narrowing matching step 411. Similarity, apparent size calculation step 405 to visual clarity calculation step 407, apparent size, brightness, and visual clarity for the characters, and apparent size calculation step 412 It includes the apparent size, brightness, and clarity of the image of the most similar person calculated in the clarity calculation step 414. A mode of stored data in the determination result storage unit 206 will be described later.

方向性判断ステップ416では、撮影条件判断部209は、登場人物に対する撮影条件と、最類似人物に対する撮影条件を基に、次の撮影条件の方向性を決定し、制御指示送信ステップ417の処理に進む。ここで、2つの撮影条件は、共に、前の処理ステップによって、すでに判定結果保管部206に保管されている。
方向性の決定は、例えば、以下のように実施する。撮影条件が、人物の明るさYと人物の映りの明瞭さF、人物の見かけの大きさSで構成されているとし、登場人物の撮影条件C(t1)を{Y(t1),F(t1),S(t1)}、最類似人物に対する撮影条件C(t0)を{Y(t0),F(t0),S(t0)}とする。なお、t0とt1は、時刻である。
そして、Y(t1)<Y(t0)である場合には、人物の明るさを明るくする方向に判断する。逆に、Y(t1)≧Y(t0)ある場合には、人物の明るさを暗くする方向に判断する。
また、F(t1)<F(t0)である場合には、人物の映りの明瞭さを上げる方向に判断する。逆に、F(t1)≧F(t0)である場合には、人物の映りの明瞭さを下げる方向に判断する。
また、S(t1)<S(t0)である場合には、人物の見かけの大きさを大きくする方向に判断する。逆に、S(t1)≧S(t0)である場合には、人物の見かけの大きさを小さくする方向に判断する。
In the directionality determination step 416, the shooting condition determination unit 209 determines the directionality of the next shooting condition based on the shooting condition for the character and the shooting condition for the most similar person, and performs the processing of the control instruction transmission step 417. move on. Here, both of the two photographing conditions are already stored in the determination result storage unit 206 by the previous processing step.
The directionality is determined as follows, for example. Assume that the shooting conditions are composed of the brightness Y of the person, the clarity F of the person's reflection, and the apparent size S of the person, and the shooting conditions C (t1) of the characters are represented by {Y (t1), F ( t1), S (t1)}, and the shooting condition C (t0) for the most similar person is {Y (t0), F (t0), S (t0)}. Note that t0 and t1 are times.
If Y (t1) <Y (t0), it is determined in the direction of increasing the brightness of the person. On the other hand, if Y (t1) ≧ Y (t0), it is determined that the brightness of the person is darkened.
If F (t1) <F (t0), the determination is made in the direction of increasing the clarity of the person's reflection. On the other hand, when F (t1) ≧ F (t0), it is determined to reduce the clarity of the person's reflection.
If S (t1) <S (t0), it is determined to increase the apparent size of the person. On the other hand, if S (t1) ≧ S (t0), it is determined to reduce the apparent size of the person.

次に、制御指示送信ステップ417では、制御指示部210は、前の処理ステップで算出した次の撮影条件を基に制御指示を作成し、作成した制御指示データをネットワーク100を介して、撮像装置101に送信する。例えば、前の処理ステップで、人物の明るさを明るくする方向であると判断をした場合には、制御指示部210は、照明量増加の制御指示データを送信する。また例えば、制御指示部210は、撮像素子の感度増加の制御指示データを送信する。同様に、前の処理ステップで、人物の明るさを暗くする方向であると判断をした場合には、制御指示部210は、照明量減少の制御指示データを送信する。また例えば、制御指示部210は、撮像素子の感度減少の制御指示データを送信する。
制御指示データに含まれる照明の増減量や撮像素子感度の増減量は、撮像装置101の仕様との兼合いによって決定され、検知装置102の事前設定値として与えるものであり、かつ、Y(t1)とY(t0)の差分量によって、複数段階で与えられるようにする。
Next, in the control instruction transmission step 417, the control instruction unit 210 creates a control instruction based on the next imaging condition calculated in the previous processing step, and the created control instruction data is transmitted to the imaging apparatus via the network 100. 101. For example, if it is determined in the previous processing step that the brightness of the person is increased, the control instruction unit 210 transmits control instruction data for increasing the amount of illumination. Further, for example, the control instruction unit 210 transmits control instruction data for increasing sensitivity of the image sensor. Similarly, if it is determined in the previous processing step that the brightness of the person is darkened, the control instruction unit 210 transmits control instruction data for reducing the amount of illumination. For example, the control instruction unit 210 transmits control instruction data for reducing the sensitivity of the image sensor.
The increase / decrease amount of the illumination and the increase / decrease amount of the imaging element sensitivity included in the control instruction data are determined in accordance with the specifications of the imaging device 101, are given as preset values of the detection device 102, and Y (t1 ) And Y (t0) are given in multiple stages.

また、同様に、前の処理ステップで、人物の映りの明瞭さを上げる方向であると判断をした場合には、制御指示部210は、ピント合わせの制御指示データを送信する。同様に、前の処理ステップで、人物の映りの明瞭さを下げる方向であると判断をした場合には、制御指示部210は、ピントぼかしの制御指示データを送信する。
制御指示データに含まれるピント増減量は、撮像装置101の仕様との兼合いによって決定され、検知装置101の事前設定値として与えるものであり、かつ、F(t1)とF(t0)の差分量によって、複数段階で与えられるようにする。
Similarly, if it is determined in the previous processing step that the direction of the person's reflection is to be improved, the control instruction unit 210 transmits control instruction data for focusing. Similarly, if it is determined in the previous processing step that the direction of the person's reflection is lowered, the control instruction unit 210 transmits control instruction data for defocusing.
The focus increase / decrease amount included in the control instruction data is determined in accordance with the specification of the imaging apparatus 101, is given as a preset value of the detection apparatus 101, and is the difference between F (t1) and F (t0). It is given in multiple stages depending on the amount.

また、同様に、前の処理ステップで、人物の見かけの大きさを大きくする方向であると判断をした場合には、制御指示部210は、ズームアップの制御指示データを送信する。同様に、前の処理ステップで、人物の見かけの大きさを小さくする方向であると判断をした場合には、制御指示部210は、ズームダウンの制御指示データを送信する。
制御指示データに含まれるズーム増減量は、撮像装置101の仕様との兼合いによって決定され、検知装置102に事前設定値として与えるものであり、かつ、S(t1)とS(t0)の差分量によって、複数段階で与えられるようにする。また、ズームアップによって人物が撮影範囲から外れてしまうような場合には、制御指示部210は、人物が撮影範囲となるように撮影向き変更の制御指示データを送信する。
制御指示部210は、制御指示データの送信完了後、画像受信待機ステップ400に処理を戻す。
Similarly, if it is determined in the previous processing step that the direction of the person's apparent size is to be increased, the control instruction unit 210 transmits zoom-up control instruction data. Similarly, if it is determined in the previous processing step that the direction is to reduce the apparent size of the person, the control instruction unit 210 transmits zoom-down control instruction data.
The zoom increase / decrease amount included in the control instruction data is determined in accordance with the specification of the imaging apparatus 101, is given as a preset value to the detection apparatus 102, and is the difference between S (t1) and S (t0). It is given in multiple stages depending on the amount. In addition, when the person moves out of the shooting range due to zooming up, the control instruction unit 210 transmits control instruction data for changing the shooting direction so that the person falls within the shooting range.
After completing the transmission of the control instruction data, the control instruction unit 210 returns the process to the image reception standby step 400.

2次判定要否判定ステップ418では、判定結果保管部206は、2次判定要否の判定を行う。判定は、当該時点での検出カウンタ値に基づいて行う。検出カウンタ値が“0”であった場合には、2次判定不要と判定し、画像受信待機ステップ400に(T1経由で図4(a)の)処理を戻す。また、検出カウンタ値が“0”以外の場合には、2次判定要と判定し、特定人物の2次判定ステップ419に処理を進める。
特定人物の2次判定ステップ419では、特定人物2次判定部207は、特定人物2次判定を行う。特定人物2次判定は、判定結果保管部に保管された1つ以上の特定人物1次判定結果の中で、最も類似度が高い結果を取得し、その類似度とある一定値(閾値)との関係において、類似度が閾値以上であった場合にその登場人物を特定人物と判定する処理である。判定の結果、特定人物と判定した場合には、特定人物検知情報送信ステップ420に処理を進める。また、それ以外の場合には、検出カウンタ値初期化ステップ421に処理を進める。
In the secondary determination necessity determination step 418, the determination result storage unit 206 determines whether the secondary determination is necessary. The determination is made based on the detection counter value at that time. When the detection counter value is “0”, it is determined that the secondary determination is not necessary, and the processing (in FIG. 4A via T1) is returned to the image reception standby step 400. If the detection counter value is other than “0”, it is determined that secondary determination is necessary, and the process proceeds to the secondary determination step 419 for a specific person.
In the specific person secondary determination step 419, the specific person secondary determination unit 207 performs the specific person secondary determination. The specific person secondary determination obtains a result having the highest similarity among the one or more specific person primary determination results stored in the determination result storage unit, and the similarity is a certain value (threshold). In this relationship, when the similarity is equal to or greater than a threshold value, the character is determined to be a specific person. As a result of the determination, if it is determined that the person is a specific person, the process proceeds to a specific person detection information transmission step 420. In other cases, the process proceeds to the detection counter value initialization step 421.

特定人物検知情報送信ステップ420では、検知通知部208は、特定人物通知を端末装置103に送信し、検出カウンタ値初期化ステップ421の処理に進む。なお、送信データは、特定人物のIDやその人物画像等を含んで構成される。
検出カウンタ値初期化ステップ421では、判定結果保管部206は、検出カウンタ値を“0”にし、一次判定全削除ステップ422の処理に進む。
一次判定全削除ステップ422では、判定結果保管部は206は、保管していた一次判定の結果を全て削除し、画像受信待機ステップ400に(T1経由で図4(a)の)処理に戻る。また、本実施例では図示しないが、ステップ400に戻す前に、制御指示部210が、必要に応じて、撮像装置101を初期化するための制御指示データを撮像装置101に送信するようにしても良い。
In the specific person detection information transmission step 420, the detection notification unit 208 transmits a specific person notification to the terminal device 103, and the process proceeds to the detection counter value initialization step 421. The transmission data includes a specific person ID, a person image thereof, and the like.
In the detection counter value initialization step 421, the determination result storage unit 206 sets the detection counter value to “0”, and proceeds to the processing of the primary determination all deletion step 422.
In the primary determination all deletion step 422, the determination result storage unit 206 deletes all the stored primary determination results, and returns to the image reception waiting step 400 (via T1 in FIG. 4A). Although not shown in the present embodiment, before returning to step 400, the control instruction unit 210 transmits control instruction data for initializing the imaging apparatus 101 to the imaging apparatus 101 as necessary. Also good.

図5によって、本発明の特定人物検知システムの一実施例において、検知装置の判定結果保管部における保管データの一例を説明する。図5は、本発明の特定人物検知システムの検知装置における判定結果保管部のデータの一実施例を示す図である。500〜509はレコード、510はレコード番号セル、511は検出カウンタ値セル、512は人物IDセル、513は類似度セル、514は登場人物の見かけの大きさセル、515は登場人物の明るさセル、516は登場人物の映りの明瞭さセル、517は最類似人物の見かけの大きさセル、518は最類似人物の明るさセル、519は最類似人物の映りの明瞭さセルである。   With reference to FIG. 5, an example of storage data in the determination result storage unit of the detection device in an embodiment of the specific person detection system of the present invention will be described. FIG. 5 is a diagram illustrating an example of data of the determination result storage unit in the detection device of the specific person detection system of the present invention. 500 to 509 are records, 510 is a record number cell, 511 is a detection counter value cell, 512 is a person ID cell, 513 is a similarity cell, 514 is an apparent size cell of a character, 515 is a brightness cell of the character Reference numeral 516 denotes an appearance clarity cell of the character, 517 denotes an apparent size cell of the most similar person, 518 denotes a brightness cell of the most similar person, and 519 denotes a clarity cell of the most similar person.

図5において、データは、1回の一次判定結果を1レコードとして保管する。図5の実施例では、最大で10回分の一次判定結果、すなわち10個のレコードが保管できるようになっている状態で、かつ、どのレコードも空である状態を示し、レコード500〜509で構成される。
レコードは、レコード番号セル510、検出カウンタ値セル511、人物IDセル512、類似度セル513、登場人物の見かけの大きさセル514、登場人物の明るさセル515、登場人物の映りの明瞭さセル516、最類似人物の見かけの大きさセル517、最類似人物の明るさセル518、最類似人物の映りの明瞭さセル519で構成される。
In FIG. 5, the data stores one primary determination result as one record. In the embodiment of FIG. 5, the primary determination result for 10 times at the maximum, that is, the state where 10 records can be stored and all the records are empty, is composed of records 500 to 509. Is done.
The record includes a record number cell 510, a detection counter value cell 511, a person ID cell 512, a similarity cell 513, an appearance size cell 514, a character brightness cell 515, and a character clarity cell. 516, an apparent size cell 517 of the most similar person, a brightness cell 518 of the most similar person, and an image clarity cell 519 of the most similar person.

レコード番号セル510は、レコード番号を格納するデータ領域である。レコード番号は、レコードの管理をするために用いる番号であり、例えば、レコード毎にユニークに割り当てられる連続整数値である。   A record number cell 510 is a data area for storing a record number. The record number is a number used for managing records, and is, for example, a continuous integer value uniquely assigned to each record.

検出カウンタ値セル511は、検出カウンタ値を格納するデータ領域である。検出カウンタ値として整数値が格納される。
人物IDセル512は、最類似人物の人物IDを格納するデータ領域である。図5の実施例では、人物名称としての文字列が格納される例を示すが、人物固有に与えた識別情報であれば、整数値等を用いるようにしてもよい。
類似度セル513は、類似度を格納するデータ領域である。図5の実施例では、小数値が格納された例を示す。
The detection counter value cell 511 is a data area for storing the detection counter value. An integer value is stored as the detection counter value.
The person ID cell 512 is a data area for storing the person ID of the most similar person. Although the example of FIG. 5 shows an example in which a character string as a person name is stored, an integer value or the like may be used as long as it is identification information given to a person.
The similarity cell 513 is a data area for storing the similarity. The example of FIG. 5 shows an example in which decimal values are stored.

登場人物の見かけの大きさセル514は、登場人物の見かけの大きさを格納するデータ領域である。図5の実施例では、見かけの大きさを画像上の面積を示す画素数として整数値が格納された例を示す。
登場人物の明るさセル515は、登場人物の明るさを格納するデータ領域である。図5の実施例では、明るさを輝度の平均値として、整数値が格納された例を示す。
登場人物の人物の映りの明瞭さセル516は、登場人物の人物の映りの明瞭さを格納するデータ領域である。図5の実施例では、映りの明瞭さを高周波成分量を示す整数値が格納された例を示す。
The appearance size cell 514 of the character is a data area for storing the appearance size of the character. In the embodiment of FIG. 5, an integer value is stored with the apparent size as the number of pixels indicating the area on the image.
The character brightness cell 515 is a data area for storing the brightness of the character. In the embodiment of FIG. 5, an example is shown in which an integer value is stored with the brightness as an average value of luminance.
Character clarity cell 516 of the character is a data area for storing the clarity of the character image. In the embodiment of FIG. 5, an example is shown in which an integer value indicating the amount of high-frequency component is stored for clarity of reflection.

最類似人物の見かけの大きさセル517は、最類似人物の見かけの大きさを格納するデータ領域である。図5の実施例では、見かけの大きさを画像上の面積を示す画素数として整数値が格納された例を示す。
最類似人物の明るさセル518は、最類似人物の明るさを格納するデータ領域である。図5の実施例では、明るさを輝度の平均値として、整数値が格納された例を示す。
最類似人物の人物の映りの明瞭さセル519は、最類似人物の人物の映りの明瞭さを格納するデータ領域である。図5の実施例では、映りの明瞭さを高周波成分量を示す整数値が格納された例を示す。
The apparent size cell 517 of the most similar person is a data area for storing the apparent size of the most similar person. In the embodiment of FIG. 5, an integer value is stored with the apparent size as the number of pixels indicating the area on the image.
The brightness cell 518 of the most similar person is a data area for storing the brightness of the most similar person. In the embodiment of FIG. 5, an example is shown in which an integer value is stored with the brightness as an average value of luminance.
The clarity of the reflection of the person of the most similar person is a data area for storing the clarity of the reflection of the person of the most similar person. In the embodiment of FIG. 5, an example is shown in which an integer value indicating the amount of high-frequency component is stored for clarity of reflection.

ここで、一人の人物の登場から退場までの動作について、図6〜図8を用いて、より具体的に説明する。ここで、この登場人物は、検知対象、すなわち特定人物のAさんであるとする。
特定人物記録部200には、例えば、図3に示したデータが予め記録されている。また、説明の簡略化のため、人物の撮影条件は、人物の見かけの大きさのみである。また、登場から退場までに撮られた画像は計2枚であるとし、3枚目には人物は映っていない。
Here, the operation from the appearance of one person to the exit will be described more specifically with reference to FIGS. Here, it is assumed that this character is a detection target, that is, a specific person Mr. A.
For example, the data shown in FIG. 3 is recorded in the specific person recording unit 200 in advance. For simplification of explanation, the person's shooting condition is only the apparent size of the person. In addition, it is assumed that there are a total of two images taken from the appearance to the exit, and no person is shown on the third image.

図6は、本発明の特定人物検知システムの検知装置において、この人物が登場して1枚目の画像に対する一連の処理の内容を説明するための図である。図3や図5と同一の符号は、それぞれ同一であることを示す。600は画像、601は画像領域、602は検出カウンタ値、603は見かけの大きさ、604は人物特徴量、605〜614は照合処理、615〜624は類似度、625は最類似人物ID、626は画像、627は画像領域、628は見かけの大きさ、629は保管データである。
また、図6(a)は、画像600を示し、図6(b)は、検知装置102の1枚目の画像に対する一連の処理の内容を説明するための図である。また図6(c)は、レコード307の人物画像セル313内の画像626を拡大表示した図で、図6(d)は、図5で説明したような保管データ629を示す図である。図6(c)に示すように、人物画像セル313には、画像データ626の他に、見かけの大きさ628が保管されている。
FIG. 6 is a diagram for explaining the contents of a series of processes for the first image when this person appears in the detection apparatus of the specific person detection system of the present invention. The same reference numerals as those in FIG. 3 and FIG. 600 is an image, 601 is an image area, 602 is a detection counter value, 603 is an apparent size, 604 is a person feature, 605 to 614 is a matching process, 615 to 624 are similarities, 625 is the most similar person ID, 626 Is an image, 627 is an image area, 628 is an apparent size, and 629 is storage data.
FIG. 6A shows an image 600, and FIG. 6B is a diagram for explaining the contents of a series of processes for the first image of the detection apparatus 102. 6C is an enlarged view of the image 626 in the person image cell 313 of the record 307, and FIG. 6D is a view showing the storage data 629 as described in FIG. As shown in FIG. 6C, the person image cell 313 stores an apparent size 628 in addition to the image data 626.

図6において、画像600は、この人物が登場して最初の1フレームを示し、この画像600が、撮像装置101からネットワーク100を介して、検知装置102の画像受信部201に入力される。
検知装置102の画像受信部201は、この入力画像を取得する(図4(a)の処理ステップ400〜401参照。)。そして、検知装置102の人物検出部202は、この画像に対する人物検出などの処理を行う(図4(a)の処理ステップ402〜404参照。)。画像領域601は、上記で得られた人物画像領域を示す。この時点での検出カウンタ値602は、“1”となる。
次に、検知装置102の撮影条件算出部203は、人物画像領域601に対する人物の見かけの大きさを算出する(図4(a)の見かけの大きさ算出ステップ405参照。)。見かけの大きさ603は、ここで算出された値を示す。
In FIG. 6, an image 600 shows the first frame after the appearance of the person, and this image 600 is input from the imaging device 101 to the image receiving unit 201 of the detection device 102 via the network 100.
The image receiving unit 201 of the detection device 102 acquires this input image (see processing steps 400 to 401 in FIG. 4A). Then, the person detection unit 202 of the detection apparatus 102 performs processing such as person detection on this image (see processing steps 402 to 404 in FIG. 4A). An image area 601 indicates the person image area obtained above. The detection counter value 602 at this time is “1”.
Next, the imaging condition calculation unit 203 of the detection apparatus 102 calculates the apparent size of the person with respect to the human image region 601 (see the apparent size calculation step 405 in FIG. 4A). The apparent size 603 indicates a value calculated here.

次に、検知装置102の人物特徴量算出部204は、人物画像領域601に対する人物特徴量を算出する(図4(b)特徴量検出ステップ408参照。)。人物特徴量604は、ここで算出された値を示す。人物特徴量には、多次元量が用いられるのが通常であるが、本実施例においては、説明の簡略化のため、一次元の小数値を用いた例を示す。   Next, the person feature amount calculation unit 204 of the detection apparatus 102 calculates a person feature amount for the person image region 601 (see the feature amount detection step 408 in FIG. 4B). The person feature quantity 604 indicates a value calculated here. In general, a multidimensional quantity is used as the human feature quantity. However, in this embodiment, an example using a one-dimensional decimal value is shown for the sake of simplicity of explanation.

次に、検知装置102の特定人物1次判定部205は、人物特徴量604を用いて、特定人物記録部200の記録データに対して、全照合を行う(図4(b)の全照合ステップ410参照。)。照合処理605〜614の矢印は、記録データの各レコードと照合を行っている様子を示し、類似度615〜624は、各照合において算出した類似度を示す。全照合の結果、最類似人物は、レコード306に記録されている人物であると判定される。
最類似人物ID625は、レコード306に記録されている人物IDを示す。類似度には、多次元量である人物特徴量空間におけるベクトルのスカラー値が使われることが多いが、本実施例においては、説明の簡略化のため、人物特徴量の差分の絶対値を用いた例を示す。
Next, the specific person primary determination unit 205 of the detection apparatus 102 uses the person feature quantity 604 to perform all verification on the recording data of the specific person recording unit 200 (all verification step in FIG. 4B). 410.). The arrows of the collation processes 605 to 614 indicate that collation is performed with each record of the recording data, and the similarities 615 to 624 indicate the similarity calculated in each collation. As a result of all verification, the most similar person is determined to be a person recorded in the record 306.
The most similar person ID 625 indicates the person ID recorded in the record 306. For the similarity, a vector scalar value in the human feature space, which is a multidimensional quantity, is often used. However, in this embodiment, the absolute value of the difference between the human feature quantities is used to simplify the explanation. Here is an example.

次に、検知装置102の撮影条件算出部209は、レコード306の人物画像セル313から人物画像を取り出し、人物の見かけの大きさを算出する(図4(b)の見かけの大きさ算出ステップ412参照。)。画像626は、取り出した人物画像を示す。画像領域627は、画像626上の人物画像領域を示す。見かけの大きさ628は、ここで算出された値を示す。   Next, the imaging condition calculation unit 209 of the detection apparatus 102 extracts a person image from the person image cell 313 of the record 306, and calculates the apparent size of the person (apparent size calculation step 412 in FIG. 4B). reference.). An image 626 shows the extracted person image. An image area 627 indicates a person image area on the image 626. The apparent size 628 indicates the value calculated here.

次に、検知装置102の判定結果保管部206は、検出カウンタ602を、判定結果保管部における保管データのレコード500の検出カウンタ値セル511に格納する。同様に、最類似人物ID625をレコード500の人物IDセル512に、類似度521をレコード500の類似度セル513に、見かけの大きさ603をレコード500の登場人物の見かけの大きさセル514に、見かけの大きさ628をレコード500の最類似人物の見かけの大きさセル517に格納する(図4(b)の一次判定結果格納ステップ415参照。)。保管データ629は、該時点での格納データの状態を示す。   Next, the determination result storage unit 206 of the detection apparatus 102 stores the detection counter 602 in the detection counter value cell 511 of the storage data record 500 in the determination result storage unit. Similarly, the most similar person ID 625 is stored in the person ID cell 512 of the record 500, the similarity 521 is stored in the similarity cell 513 of the record 500, and the apparent size 603 is displayed in the apparent size cell 514 of the character in the record 500. The apparent size 628 is stored in the apparent size cell 517 of the most similar person in the record 500 (see the primary determination result storage step 415 in FIG. 4B). The stored data 629 indicates the state of the stored data at that time.

次に、検知装置102の撮影条件判断部209は、見かけの大きさ603と見かけの大きさ628から、次の撮影条件の方向性を決める(図4(b)の方向性判断ステップ416参照。)。ここでは、最類似人物の見かけの大きさデータ628の値ほうが、登場人物の見かけの大きさ603より大きいので、見かけの大きさを大きくする方向に判断する。   Next, the shooting condition determination unit 209 of the detection apparatus 102 determines the directionality of the next shooting condition from the apparent size 603 and the apparent size 628 (see the directionality determination step 416 in FIG. 4B). ). Here, since the value of the apparent size data 628 of the most similar person is larger than the apparent size 603 of the character, it is determined to increase the apparent size.

次に、検知装置102の制御指示部210は、撮像装置101に対して、ズームアップ指示を送信する(図4(b)の制御指示送信ステップ417参照。)。この制御指示に応じて、撮像装置101側はズームアップ制御を実施する。
画像600に関わる一連の処理は、以上である。
Next, the control instruction unit 210 of the detection apparatus 102 transmits a zoom-up instruction to the imaging apparatus 101 (see the control instruction transmission step 417 in FIG. 4B). In response to this control instruction, the imaging apparatus 101 side performs zoom-up control.
The series of processes related to the image 600 is as described above.

図7は、本発明の特定人物検知システムの検知装置において、この人物が登場して2枚目の画像に対する一連の処理の内容の一実施例を説明するための図である。図3や図5と同一の符号は、それぞれ同一であることを示し、図6と同一の符号は、それぞれ同一であることを示す。700は画像、701は画像領域、702は検出カウンタ値、703は見かけの大きさ、704は人物特徴量、705〜707は照合処理、708〜710は類似度、711は見かけの大きさ、712は保管データである。
また、図7(a)は、画像700を示し、図7(b)は、検知装置102の2枚目の画像に対する一連の処理の内容を説明するための図である。また図7(c)は、レコード307の人物画像セル313内の画像626を拡大表示した図で、図7(d)は、図5で説明したような保管データ712を示す図である。図7(c)に示すように、人物画像セル313には、画像データ626の他に、見かけの大きさ711が保管されている。
FIG. 7 is a diagram for explaining an example of the contents of a series of processes for the second image when this person appears in the detection apparatus of the specific person detection system of the present invention. The same reference numerals as those in FIGS. 3 and 5 indicate that they are the same, and the same reference numerals as those in FIG. 6 indicate that they are the same. 700 is an image, 701 is an image area, 702 is a detection counter value, 703 is an apparent size, 704 is a person feature, 705 to 707 are collation processes, 708 to 710 are similarities, 711 is an apparent size, 712 Is stored data.
FIG. 7A shows an image 700, and FIG. 7B is a diagram for explaining the contents of a series of processing for the second image of the detection apparatus 102. FIG. 7C is an enlarged view of the image 626 in the person image cell 313 of the record 307, and FIG. 7D is a diagram showing the storage data 712 as described in FIG. As shown in FIG. 7C, in the person image cell 313, in addition to the image data 626, an apparent size 711 is stored.

図7において、画像700は、この人物が登場して2フレーム目を示し、この画像700が、撮像装置101からネットワーク100を介して、検知装置102の画像受信部201に入力される。この画像700は、先にズームアップ指示がなされているので、人物は、画像600より大きめに映っている。
検知装置102の画像受信部201は、この入力画像を取得する(図4(a)の処理ステップ400〜401参照。)。そして、検知装置102の人物検出部202は、この画像に対する人物検出などの処理を行う(図4(a)の処理ステップ402〜404参照。)。画像領域701は、上記で得られた人物画像領域701を示す。この時点での検出カウンタ値は、“2”となる。
次に、検知装置102の撮影条件算出部203は、人物画像領域701に対する人物の見かけの大きさを算出する(図4(a)の見かけの大きさ算出ステップ405参照。)。見かけの大きさ703は、ここで算出された値を示す。
In FIG. 7, an image 700 shows the second frame when the person appears, and the image 700 is input from the imaging device 101 to the image receiving unit 201 of the detection device 102 via the network 100. Since the image 700 has been instructed to zoom up first, the person appears larger than the image 600.
The image receiving unit 201 of the detection device 102 acquires this input image (see processing steps 400 to 401 in FIG. 4A). Then, the person detection unit 202 of the detection apparatus 102 performs processing such as person detection on this image (see processing steps 402 to 404 in FIG. 4A). An image area 701 indicates the person image area 701 obtained above. The detection counter value at this time is “2”.
Next, the shooting condition calculation unit 203 of the detection apparatus 102 calculates the apparent size of the person with respect to the human image region 701 (see the apparent size calculation step 405 in FIG. 4A). The apparent size 703 indicates the value calculated here.

次に、検知装置102の人物特徴量算出部204は、人物データ領域701に対する人物特徴量を算出する(図4(b)特徴量検出ステップ408参照。)。人物特徴量704は、ここで算出された値を示す。なお、人物特徴量には、多次元量が用いられるのが通常であるが、本実施例においては、説明の簡略化のため、一次元の小数値を用いた例を示す。   Next, the person feature amount calculation unit 204 of the detection apparatus 102 calculates a person feature amount for the person data area 701 (see the feature amount detection step 408 in FIG. 4B). The person feature amount 704 indicates a value calculated here. In general, a multidimensional quantity is used as the human feature quantity. However, in the present embodiment, an example using a one-dimensional decimal value is shown for the sake of simplicity of explanation.

次に、検知装置102の特定人物1次判定部205は、最類似人物ID625と人物特徴量704を用いて、特定人物記録部200の記録データに対して、絞込照合を行う(図4(b)の絞込照合ステップ411参照。)。照合処理705〜707の矢印は、記録データのうち、人物ID625と同値を有する各レコードと照合を行っている様子を示し、類似度708〜710は、各照合において算出した類似度を示す。
絞込照合の結果、最類似人物は、レコード306に記録されている人物であると判定される。
ここで、最類似人物のレコードは、前回レコードと同じであっても、異なっていても良い。本実施例では同じである場合を示す。
Next, the specific person primary determination unit 205 of the detection apparatus 102 uses the most similar person ID 625 and the person feature amount 704 to narrow down and match the recorded data of the specific person recording unit 200 (FIG. 4 ( (Refer to the narrowing collation step 411 of b).) The arrows of the collation processes 705 to 707 indicate that the record data is collated with each record having the same value as the person ID 625, and the similarities 708 to 710 indicate the similarity calculated in each collation.
As a result of the narrowing and collation, it is determined that the most similar person is a person recorded in the record 306.
Here, the record of the most similar person may be the same as or different from the previous record. In this embodiment, the same case is shown.

次に、検知装置102の撮影条件算出部209は、レコード306の人物画像セル313から人物画像を取り出し、人物の見かけの大きさを算出する(図4(b)のステップ412参照。)。画像626は、取り出した人物画像を示す。画像領域627は、画像626上の人物画像領域を示す。見かけの大きさ711は、ここで算出された値を示し、本例においては、図6で示した見かけの大きさ628と同値となる。   Next, the imaging condition calculation unit 209 of the detection apparatus 102 extracts a person image from the person image cell 313 of the record 306 and calculates the apparent size of the person (see step 412 in FIG. 4B). An image 626 shows the extracted person image. An image area 627 indicates a person image area on the image 626. The apparent size 711 indicates the value calculated here. In this example, the apparent size 711 is the same value as the apparent size 628 shown in FIG.

次に、検知装置102の判定結果保管部206は、検出カウンタ値702を、判定結果保管部における保管データのレコード501の検出カウンタ値セル511に格納する。同様に、最類似710をレコード501の類似度セル513に、見かけの大きさ703をレコード501の登場人物の見かけの大きさセル514に、見かけの大きさ711をレコード501の最類似人物の見かけの大きさセル517に格納する(図4(b)の一次判定結果格納ステップ415参照。)。保管データ712は、該時点での格納データの状態を示す。   Next, the determination result storage unit 206 of the detection apparatus 102 stores the detection counter value 702 in the detection counter value cell 511 of the storage data record 501 in the determination result storage unit. Similarly, the most similar 710 is in the similarity cell 513 of the record 501, the apparent size 703 is in the apparent size cell 514 of the character in the record 501, and the apparent size 711 is in the appearance of the most similar character in the record 501. (Refer to the primary determination result storage step 415 in FIG. 4B). The stored data 712 indicates the state of stored data at that time.

次に、検知装置102の撮影条件判断部209は、見かけの大きさ703と見かけの大きさ711から、次の撮影条件の方向性を決める(図4(b)の方向性判断ステップ416参照。)。ここでは、最類似人物の見かけの大きさ711のほうが、登場人物の見かけの大きさ703より小さいので、見かけの大きさを小さくする方向に判断する。   Next, the shooting condition determination unit 209 of the detection apparatus 102 determines the directionality of the next shooting condition from the apparent size 703 and the apparent size 711 (see the directionality determination step 416 in FIG. 4B). ). Here, since the apparent size 711 of the most similar person is smaller than the apparent size 703 of the characters, the determination is made in the direction of decreasing the apparent size.

次に、検知装置の制御指示部210は、撮像装置に対して、ズームダウン指示を送信する(図4(b)の制御指示送信ステップ417参照。)。この制御指示に応じて、撮像装置101側は、ズームダウン制御を実施する。
画像700に関わる一連の処理は、以上である。
Next, the control instruction unit 210 of the detection apparatus transmits a zoom-down instruction to the imaging apparatus (see the control instruction transmission step 417 in FIG. 4B). In response to this control instruction, the imaging apparatus 101 side performs zoom-down control.
The series of processes relating to the image 700 is as described above.

図8は、本発明の特定人物検知システムの検知装置において、この人物が登場して3枚目の画像に対する一連の処理の内容の一実施例を説明するための図である。図3や図5と同一の符号は、それぞれ同一であることを示し、図6や図7と同一の符号は、それぞれ同一であることを示す。なお、800は画像、801は保管データである。
また図8(a)は、画像800を示し、図8(b)は、検知装置102の3枚目の画像に対する一連の処理の内容を説明するための図である。また図8(c)は、図5で説明したような保管データ712を示す図である(図7(d)と同一)。また、図8(b)においても、図7(c)に示すように、人物画像セル313には、画像データの他に、見かけの大きさのデータが保管されている。
FIG. 8 is a diagram for explaining an example of the contents of a series of processes for the third image when this person appears in the detection apparatus of the specific person detection system of the present invention. The same reference numerals as those in FIGS. 3 and 5 indicate that they are the same, and the same reference numerals as those in FIGS. 6 and 7 indicate that they are the same. In addition, 800 is an image and 801 is storage data.
8A shows an image 800, and FIG. 8B is a diagram for explaining the contents of a series of processes for the third image of the detection apparatus 102. FIG. 8C shows the storage data 712 as described in FIG. 5 (same as FIG. 7D). Also in FIG. 8B, as shown in FIG. 7C, the person image cell 313 stores apparent size data in addition to the image data.

図8(a)において、画像800は、この人物が登場して3フレーム目を示し、この画像が検知装置に入力される。先の人物は既に退場してしまっており、誰も映っていない画像である。
検知装置102の画像受信部201は、の入力画像を取得する(図4(a)の処理ステップ400〜401参照。)。そして、検知装置102の人物検出部202は、この画像に対する人物検出などの処理を行う(図4(a)の処理ステップ402〜404参照。)。先の人物は既に退場してしまっているので、人物画像領域は得られない。この時点での検出カウンタ値は、“2”のままである。
In FIG. 8A, an image 800 shows the third frame when this person appears, and this image is input to the detection device. The previous person has already left and is an image in which no one is shown.
The image receiving unit 201 of the detection apparatus 102 acquires the input image (see processing steps 400 to 401 in FIG. 4A). Then, the person detection unit 202 of the detection apparatus 102 performs processing such as person detection on this image (see processing steps 402 to 404 in FIG. 4A). Since the previous person has already left, a person image area cannot be obtained. The detection counter value at this time remains “2”.

次に、検知装置102の人物検出部202は、現時点での検出カウンタ値“2”を基に特定人物2次判定を行う(図4(c)処理ステップ418〜419参照。)。
検知装置102の判定結果保管部206は、当該判定結果保管部206に保管された保管データ712のレコード500の類似度セル513に格納された類似度と、レコード501の類似度513に格納された類似度とを比較し、レコード501の類似度513に格納された類似度(図7(b)における類似度710での値は“0.4”)を最高類似度とする。さらに、この最高類似度を閾値(本実施例では“0.5”とする)と比較し、閾値以上であるので、特定人物と判断する。なお、閾値未満であれば、特定人物でないと判断する。
Next, the person detection unit 202 of the detection apparatus 102 performs the specific person secondary determination based on the current detection counter value “2” (see processing steps 418 to 419 in FIG. 4C).
The determination result storage unit 206 of the detection apparatus 102 stores the similarity stored in the similarity cell 513 of the record 500 of the storage data 712 stored in the determination result storage unit 206 and the similarity 513 of the record 501. The similarity is compared, and the similarity stored in the similarity 513 of the record 501 (the value at the similarity 710 in FIG. 7B is “0.4”) is set as the highest similarity. Further, this highest similarity is compared with a threshold value (in this embodiment, “0.5”), and since it is equal to or greater than the threshold value, it is determined as a specific person. If it is less than the threshold, it is determined that the person is not a specific person.

次に、検知装置102の検知通知部208は、特定人物通知を端末装置103に送信する(図4(c)の特定人物検知情報送信ステップ420参照。)。
次に、検知装置102の人物検出部202は、検出カウンタ値を“0”とし、保管データを全削除する。(図8(c)保管データ801)。
Next, the detection notification unit 208 of the detection apparatus 102 transmits a specific person notification to the terminal apparatus 103 (see the specific person detection information transmission step 420 in FIG. 4C).
Next, the person detection unit 202 of the detection apparatus 102 sets the detection counter value to “0” and deletes all stored data. (FIG. 8 (c) stored data 801).

以上のように、図6〜図8を用いて、一人の人物の登場から退場までの処理動作を説明したが、登場人物の撮影条件として、人物の見かけの大きさについてだけを説明した。しかし、少なくとも、人物の明るさ、人物の映りの明瞭さ、又は、人物の見かけの大きさのいずれか1つを用いて登場人物の撮影条件を求め、さらに最類似人物の撮影条件を求め、両条件の比較から次の撮影条件の方向性を判断し、該判断に従って撮像装置を制御し、該制御から得られる複数条件下の撮影画像を用いて特定人物検知を行うようにしても良いことは自明である。   As described above, the processing operation from the appearance of one person to the exit has been described with reference to FIGS. 6 to 8, but only the apparent size of the person has been described as the shooting condition of the character. However, the shooting condition of the character is obtained using at least one of the brightness of the person, the clarity of the reflection of the person, or the apparent size of the person, and the shooting condition of the most similar person is further obtained. It is also possible to determine the direction of the next shooting condition from the comparison of the two conditions, control the imaging device according to the determination, and perform specific person detection using the shot images obtained under the multiple conditions obtained from the control. Is self-explanatory.

上述の実施例によれば、特定人物検知システムにおいて、より高い検知精度を得ることを可能とした。   According to the above-described embodiment, it is possible to obtain higher detection accuracy in the specific person detection system.

また同様に、撮像装置と検知装置は、各1台が対向で動作するように示したが、複数の撮像装置に対し1台の検知装置で対応させることも可能であり、また逆に1台の撮像装置に対し複数台の検知装置で対応させることも可能である。
また同様に、検知装置と端末装置は各1台が対向で動作するように示したが、複数の検知装置に対し1台の端末装置で対応させることも可能であり、また逆に1台の検知装置に対し複数台の端末装置で対応させることも可能である。
Similarly, the imaging device and the detection device are shown to operate one by one, but a single detection device can be used for a plurality of imaging devices, and vice versa. It is also possible to make a plurality of detection devices correspond to the imaging device.
Similarly, each of the detection device and the terminal device is shown to operate in the opposite direction, but it is also possible to correspond to a plurality of detection devices with one terminal device, and conversely, one A plurality of terminal devices can correspond to the detection device.

また同様に、撮像装置と検知装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしても良い。
また同様に、検知装置と端末装置を別個の装置とする構成にて示したが、同一の装置にて実施するようにしても良い。
また同様に、最類似人物の撮影条件を毎回算出するように示したが、特定人物の事前登録の際に算出し、特定人物記録部に記録しておくようにしても良い。
また同様に、撮影条件の変更を全て撮像装置に対する機械的制御とするように示したが、撮像装置もしくは検知装置におけるデジタルデータに対する電子的な擬似制御によっても良い。
また同様に、特定人物検知システムを対象に示したが、特定人物だけでなく特定車両や他の特定物体などの検知システムを対象に実施するようにしても良い。
Similarly, the imaging device and the detection device are shown as separate devices, but the same device may be used.
Similarly, the detection device and the terminal device are shown as separate devices, but the same device may be used.
Similarly, the shooting condition of the most similar person is calculated every time, but it may be calculated when the specific person is pre-registered and recorded in the specific person recording unit.
Similarly, all changes in imaging conditions are shown as mechanical control for the imaging apparatus, but electronic pseudo control for digital data in the imaging apparatus or detection apparatus may be used.
Similarly, although the specific person detection system is shown as a target, the detection may be performed not only on a specific person but also on a detection system such as a specific vehicle or another specific object.

以上、本発明を実施例によって詳細に説明した。しかし、本発明は、上述の実施例に限定されるわけではなく、本発明が属する技術分野において、通常の知識を有する者であれば、本発明の思想と精神に基づいて、本発明を修正若しくは変更できる発明が含まれることは勿論である。   The present invention has been described in detail with the embodiments. However, the present invention is not limited to the above-described embodiments, and any person who has ordinary knowledge in the technical field to which the present invention belongs can modify the present invention based on the spirit and spirit of the present invention. Of course, the invention which can be changed is included.

100:ネットワーク、 101:撮像装置、 102:検知装置、 103:端末装置、 200:特定人物記録部、 201:画像受信部、 202:人物検出部、 203:撮影条件算出部、 204:人物特徴量算出部、 205:特定人物1次判定部、 206:判定結果保管部、 207:特定人物2次判定部、 208:検知通知部、 209:撮影条件判断部、 210:制御指示部、 300〜309:レコード、 310:レコード番号セル、 311:人物IDセル、 312:特徴量セル、 313:人物画像セル、 500〜509:レコード、 510:レコード番号セル、 511:検出カウンタ値セル、 512:人物IDセル、 513:類似度セル、 514:登場人物の見かけの大きさセル、 515:登場人物の明るさセル、 516:登場人物の映りの明瞭さセル、 517:最類似人物の見かけの大きさセル、 518:最類似人物の明るさセル、 519:最類似人物の映りの明瞭さセル、 600:画像、 601:画像領域、 602:検出カウンタ値、 603:見かけの大きさ、 604:人物特徴量、 605〜614:照合処理、 615〜624:類似度、 625:最類似人物ID、 626:画像、 627:画像領域、 628:見かけの大きさ、 629:保管データ、 700:画像、 701:画像領域、 702:検出カウンタ値、 703:見かけの大きさ、 704:人物特徴量、 705〜707:照合処理、 708〜710:類似度、 711:見かけの大きさ、 712:保管データ、 800:画像、 801:保管データ。   100: Network 101: Imaging device 102: Detection device 103: Terminal device 200: Specific person recording unit 201: Image reception unit 202: Person detection unit 203: Shooting condition calculation unit 204: Person feature amount Calculation unit 205: Specific person primary determination unit 206: Determination result storage unit 207: Specific person secondary determination unit 208: Detection notification unit 209: Shooting condition determination unit 210: Control instruction unit 300-309 : Record, 310: Record number cell, 311: Person ID cell, 312: Feature amount cell, 313: Person image cell, 500 to 509: Record, 510: Record number cell, 511: Detection counter value cell, 512: Person ID Cell, 513: similarity cell, 514: apparent size cell of characters, 515: brightness of characters Cell 516: Clarity cell of the appearance of the character 517: Apparent size cell of the most similar person 518: Brightness cell of the most similar person 519: Clarity cell of the reflection of the most similar person 600: Image, 601: image area, 602: detection counter value, 603: apparent size, 604: person feature, 605-614: matching process, 615-624: similarity, 625: most similar person ID, 626: image 627: Image area, 628: Apparent size, 629: Storage data, 700: Image, 701: Image area, 702: Detection counter value, 703: Apparent size, 704: Human feature, 705 to 707: Collation processing, 708 to 710: similarity, 711: apparent size, 712: storage data, 800: image, 801: storage data

Claims (2)

撮像装置、検知装置、および端末装置から構成される特定人物検知システムにおいて、
前記検知装置は、前記撮像装置から入力された画像から人物を検知する検知手段と、前記検知手段が検知した人物と、あらかじめ保管された特定人物の一覧との特徴照合から類似性を求め、特定人物検知を行う特定人物検知手段と、前記検知手段が検知した前記人物の第1の撮影条件を求める第1の撮影条件算出手段と、最類似人物に対する第2の撮影条件を求める第2の撮影条件算出手段と、前記第1の撮影条件と前記第2の撮影条件の比較から、次の撮影条件の方向性を判断する方向性判断手段と、前記撮影条件の方向性の判断に基づいて前記撮像装置を制御する制御手段と、前記制御手段から得られる複数条件下の撮影画像を用いて特定人物検知を行う手段とを備えたことを特徴とする特定人物検知システム。
In a specific person detection system composed of an imaging device, a detection device, and a terminal device,
The detection device obtains similarity from a feature check between a detection unit that detects a person from an image input from the imaging device, a person detected by the detection unit, and a list of specific persons stored in advance, A specific person detecting means for performing person detection; a first photographing condition calculating means for obtaining a first photographing condition of the person detected by the detecting means; and a second photographing for obtaining a second photographing condition for the most similar person. Based on the condition calculation means, directionality determination means for determining the directionality of the next imaging condition based on the comparison between the first imaging condition and the second imaging condition, and the directionality determination of the imaging condition A specific person detection system comprising: control means for controlling an imaging device; and means for detecting a specific person using a plurality of captured images obtained from the control means.
撮像装置、検知装置、および端末装置から構成される特定人物検知システムにおける特定人物検知方法おいて、
前記撮像装置から入力された画像から人物を検知しと、前記検知された人物と、あらかじめ保管された特定人物の一覧との特徴照合から類似性を求め、特定人物を検知し、前記検知された前記人物の第1の撮影条件を求め、最類似人物に対する第2の撮影条件を求め、前記第1の撮影条件と前記第2の撮影条件の比較から、次の撮影条件の方向性を判断し、前記撮影条件の方向性の判断に基づいて撮像装置制御手段によって前記撮像装置を制御し、前記撮像装置制御手段から得られる複数条件下の撮影画像を用いて特定人物検知を行うことを特徴とする特定人物検知方法。
In a specific person detection method in a specific person detection system composed of an imaging device, a detection device, and a terminal device,
Detecting a person from an image input from the imaging apparatus, obtaining a similarity from a feature comparison between the detected person and a list of specific persons stored in advance, detecting the specific person, and detecting the detected person The first shooting condition of the person is obtained, the second shooting condition for the most similar person is obtained, and the directionality of the next shooting condition is determined from the comparison between the first shooting condition and the second shooting condition. The image pickup apparatus control means controls the image pickup apparatus based on the determination of the directionality of the image pickup conditions, and the specific person is detected using the picked-up images obtained from the plurality of conditions obtained from the image pickup apparatus control means. Specific person detection method.
JP2010272612A 2010-12-07 2010-12-07 Specific person detection system and detection method Active JP5865584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010272612A JP5865584B2 (en) 2010-12-07 2010-12-07 Specific person detection system and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010272612A JP5865584B2 (en) 2010-12-07 2010-12-07 Specific person detection system and detection method

Publications (2)

Publication Number Publication Date
JP2012124658A true JP2012124658A (en) 2012-06-28
JP5865584B2 JP5865584B2 (en) 2016-02-17

Family

ID=46505665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010272612A Active JP5865584B2 (en) 2010-12-07 2010-12-07 Specific person detection system and detection method

Country Status (1)

Country Link
JP (1) JP5865584B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170941A (en) * 2014-03-06 2015-09-28 オリンパス株式会社 Image/voice processing apparatus, image/voice processing method, and program
JP2016063332A (en) * 2014-09-17 2016-04-25 多摩川精機株式会社 Remote monitoring device and method
JP2016100636A (en) * 2014-11-18 2016-05-30 キヤノン株式会社 Imaging apparatus
JP2020102277A (en) * 2020-04-06 2020-07-02 日本電気株式会社 Communication system, search device, and search method
US11429985B2 (en) 2017-03-21 2022-08-30 Kabushiki Kaisha Toshiba Information processing device calculating statistical information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183205A (en) * 2000-12-11 2002-06-28 Minolta Co Ltd Computer-readable recording medium with database construction program recorded thereon, method and device for constructing database, computer-readable recording medium with database retrieval program recorded thereon, and method and device for retrieving database
JP2007156939A (en) * 2005-12-07 2007-06-21 Honda Motor Co Ltd Person detector, person detection method, and person detection program
JP2009086932A (en) * 2007-09-28 2009-04-23 Omron Corp Image processor and image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183205A (en) * 2000-12-11 2002-06-28 Minolta Co Ltd Computer-readable recording medium with database construction program recorded thereon, method and device for constructing database, computer-readable recording medium with database retrieval program recorded thereon, and method and device for retrieving database
JP2007156939A (en) * 2005-12-07 2007-06-21 Honda Motor Co Ltd Person detector, person detection method, and person detection program
JP2009086932A (en) * 2007-09-28 2009-04-23 Omron Corp Image processor and image processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170941A (en) * 2014-03-06 2015-09-28 オリンパス株式会社 Image/voice processing apparatus, image/voice processing method, and program
JP2016063332A (en) * 2014-09-17 2016-04-25 多摩川精機株式会社 Remote monitoring device and method
JP2016100636A (en) * 2014-11-18 2016-05-30 キヤノン株式会社 Imaging apparatus
US11429985B2 (en) 2017-03-21 2022-08-30 Kabushiki Kaisha Toshiba Information processing device calculating statistical information
JP2020102277A (en) * 2020-04-06 2020-07-02 日本電気株式会社 Communication system, search device, and search method

Also Published As

Publication number Publication date
JP5865584B2 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
JP5567853B2 (en) Image recognition apparatus and method
JP4984728B2 (en) Subject collation device and subject collation method
TWI430186B (en) Image processing apparatus and image processing method
JP5213105B2 (en) Video network system and video data management method
US9141184B2 (en) Person detection system
JP6885682B2 (en) Monitoring system, management device, and monitoring method
US20190019013A1 (en) Facial recognition apparatus, recognition method and program therefor, and information device
JP2014182480A (en) Person recognition device and method
JP6503079B2 (en) Specific person detection system, specific person detection method and detection device
JP5865584B2 (en) Specific person detection system and detection method
JP2011060058A (en) Imaging apparatus and monitoring system
US8284292B2 (en) Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
KR20180086048A (en) Camera and imgae processing method thereof
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
JP5693147B2 (en) Photographic interference detection method, interference detection device, and surveillance camera system
JP5758165B2 (en) Article detection device and stationary person detection device
US10783365B2 (en) Image processing device and image processing system
JP4985742B2 (en) Imaging system, method and program
JP5730000B2 (en) Face matching system, face matching device, and face matching method
JP2018018500A (en) Face identification method
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
JP2017017488A (en) Monitoring system, imaging control method, and program
JP6632632B2 (en) Monitoring system
JP2012049774A (en) Video monitoring device
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R150 Certificate of patent or registration of utility model

Ref document number: 5865584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250