JP2021135970A - Image collation device, image collation system, and image collation method - Google Patents

Image collation device, image collation system, and image collation method Download PDF

Info

Publication number
JP2021135970A
JP2021135970A JP2020034293A JP2020034293A JP2021135970A JP 2021135970 A JP2021135970 A JP 2021135970A JP 2020034293 A JP2020034293 A JP 2020034293A JP 2020034293 A JP2020034293 A JP 2020034293A JP 2021135970 A JP2021135970 A JP 2021135970A
Authority
JP
Japan
Prior art keywords
image
frames
collation
matching
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020034293A
Other languages
Japanese (ja)
Other versions
JP7379213B2 (en
Inventor
智一 河原
Tomokazu Kawahara
智一 河原
浩 堺
Hiroshi Sakai
浩 堺
寛 助川
Hiroshi Sukegawa
寛 助川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020034293A priority Critical patent/JP7379213B2/en
Publication of JP2021135970A publication Critical patent/JP2021135970A/en
Application granted granted Critical
Publication of JP7379213B2 publication Critical patent/JP7379213B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image collation device that, when frames meeting a criteria are not obtained or frames meeting a criteria are insufficient, can prevent a reduction in collation accuracy.SOLUTION: In an image collation system, an acquisition unit of an image collation device in which software is mounted on a computer continuously acquires images to be collated from an input device. A detection unit detects one or more objects of collation from a plurality of input frames included in the images to be collated. A tracking unit tracks a predetermined object of collation based on a result of detection of the objects of collation or extracts a set of frames including the objects of collation. In accordance with the number of conforming frames conforming to the criteria, of a plurality of predetermined frames including the predetermined objects of collation, a frame selection unit dynamically selects one or more frames for collation from the plurality of predetermined frames. A collation unit collates a registered image registered in a database with predetermined images to be collated included in the frames for collation one to one or one to plurality. An output unit outputs a collation result.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、画像照合装置、画像照合システム、及び画像照合方法に関する。 Embodiments of the present invention relate to an image matching device, an image matching system, and an image matching method.

入力画像に含まれる顔画像(その特徴情報)と事前登録された顔画像(その特徴情報)とを照合し、入力画像に含まれる人物を特定する画像照合装置が知られている。例えば、入力画像は、歩行者等を撮影する監視カメラからの画像である。画像照合装置は、照合精度を高めるため、入力画像に含まれる複数フレームの中から基準を満たすフレームに絞り込んで照合処理を実行する。 An image matching device is known that collates a face image (its feature information) included in an input image with a pre-registered face image (its feature information) to identify a person included in the input image. For example, the input image is an image from a surveillance camera that captures a pedestrian or the like. In order to improve the collation accuracy, the image collation device narrows down a plurality of frames included in the input image to frames that satisfy the criteria and executes the collation process.

特開2019−57815号公報JP-A-2019-57815

基準を満たすフレームが得られない、又は基準を満たすフレームが不足するケースでは、照合処理を見送ることが考えられる。しかしながら、基準を満たす十分な数のフレームが得られない環境下では、照合処理が見送られる頻度が高くなってしまう。また、このようなケースで、任意の1フレームを選択して照合処理を実行することが考えられるが、照合精度の大幅な低下が懸念される。 In cases where frames that meet the criteria cannot be obtained or frames that meet the criteria are insufficient, it is conceivable to forgo the collation process. However, in an environment where a sufficient number of frames satisfying the criteria cannot be obtained, the collation process is often postponed. Further, in such a case, it is conceivable to select an arbitrary one frame and execute the collation process, but there is a concern that the collation accuracy will be significantly reduced.

本発明が解決しようとする課題は、基準を満たすフレームが得られない場合、又は基準を満たすフレームが不足する場合に、照合精度の低下を防止することができる画像照合装置、画像照合システム、及び画像照合方法を提供することである。 The problem to be solved by the present invention is an image matching device, an image matching system, and an image matching system that can prevent a decrease in matching accuracy when a frame satisfying the standard cannot be obtained or a frame satisfying the standard is insufficient. It is to provide an image matching method.

実施形態に係る、コンピュータにソフトウェアが搭載された画像照合装置は、取得手段、検出手段、追跡手段、フレーム選択手段、照合手段、及び出力手段を備える。前記取得手段は、撮像装置から照合対象画像を連続して取得する。前記検出手段は、前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する。前記追跡手段は、前記照合対象の検出結果に基づき所定照合対象を追跡する、もしくは照合対象を含むフレームの集合を抽出する。前記フレーム選択手段は、前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択する。前記照合手段は、データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを、1対1もしくは1対複数で照合する。前記出力手段は、照合結果を出力する。 An image matching device in which software is mounted on a computer according to an embodiment includes acquisition means, detection means, tracking means, frame selection means, matching means, and output means. The acquisition means continuously acquires images to be collated from the image pickup apparatus. The detection means detects one or more collation targets from a plurality of input frames included in the collation target image. The tracking means tracks a predetermined collation target based on the detection result of the collation target, or extracts a set of frames including the collation target. The frame selection means dynamically selects one or more matching frames from the plurality of predetermined frames according to the number of matching frames that meet the criteria among the plurality of predetermined frames including the predetermined matching target. The collation means collates a registered image registered in a database with a predetermined collation target image included in the collation frame on a one-to-one or one-to-many basis. The output means outputs a collation result.

図1は、第1の実施形態に係る画像照合システムの一例を示す構成図である。FIG. 1 is a configuration diagram showing an example of an image matching system according to the first embodiment. 図2は、第1の実施形態に係るフレーム選択の一例を示す図である。FIG. 2 is a diagram showing an example of frame selection according to the first embodiment. 図3は、第1の実施形態に係る画像照合システムによる照合処理の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of collation processing by the image collation system according to the first embodiment. 図4は、第2の実施形態に係る画像照合システムの一例を示す構成図である。FIG. 4 is a configuration diagram showing an example of the image matching system according to the second embodiment. 図5は、第2の実施形態に係るパラメータ設定画面の一例を示す図である。FIG. 5 is a diagram showing an example of the parameter setting screen according to the second embodiment. 図6は、第3の実施形態に係る画像照合システムの一例を示す構成図である。FIG. 6 is a configuration diagram showing an example of the image matching system according to the third embodiment. 図7は、第4の実施形態に係る画像照合システムの一例を示す構成図である。FIG. 7 is a configuration diagram showing an example of the image matching system according to the fourth embodiment.

以下に第1の実施形態について図面を参照して説明する。
図1は、第1の実施形態に係る画像照合システムの一例を示す構成図である。
本実施形態では、所定照合対象を含む複数(N個)の所定フレームのうちの照合の基準に適合する適合フレームの数に応じて、複数の所定フレームから1以上の照合用フレームを動的に選択する。例えば、適合フレームの数が規定数(n個、n≦N)以上の場合に複数の所定フレームから照合用フレームを第1の選択手法(選択手法S1)で選択し、適合フレームの数が規定数未満の場合に複数の所定フレームから照合用フレームを第2の選択手法(選択手法S2)で選択する。例えば、選択手法S1により、規定数以下の第1の所定数(m1個、m1≦n)の適合フレームを照合用フレームとして選択する。選択手法S2により、第2の所定数(m2個、m2≦N)のフレームを照合用フレームとして選択する。
The first embodiment will be described below with reference to the drawings.
FIG. 1 is a configuration diagram showing an example of an image matching system according to the first embodiment.
In the present embodiment, one or more collation frames are dynamically selected from a plurality of predetermined frames according to the number of matching frames that meet the collation criteria among a plurality of (N) predetermined frames including a predetermined collation target. select. For example, when the number of conforming frames is a specified number (n, n ≦ N) or more, a collation frame is selected from a plurality of predetermined frames by the first selection method (selection method S1), and the number of conforming frames is specified. When the number is less than the number, a collation frame is selected from a plurality of predetermined frames by the second selection method (selection method S2). For example, according to the selection method S1, a first predetermined number (m1 pieces, m1 ≦ n) of matching frames, which is equal to or less than a specified number, is selected as a collation frame. According to the selection method S2, a second predetermined number (m2, m2 ≦ N) of frames is selected as the collation frame.

本実施形態では、一例として、検出対象を人物の顔とし、顔の画像を用いて登録された人物(=本人)を照合するシステムについて説明する。なお、検出対象は、人物又は動物等の移動物体の一部又は全体、或いは車両、航空機、又はドローン等の人工の移動物体の一部又は全部であってもよい。 In the present embodiment, as an example, a system in which a detection target is a person's face and a registered person (= person) is collated using a face image will be described. The detection target may be a part or all of a moving object such as a person or an animal, or a part or all of an artificial moving object such as a vehicle, an aircraft, or a drone.

図1に示すように、第1の実施形態に係る画像照合システムは、登録装置100、入力装置200、及び画像照合装置300を備える。登録装置100は、1又は複数のコンピュータにより構成することができ、登録部111及び登録画像データベース112を備える。入力装置200は、画像入力部(撮像装置)201を備える。画像照合装置300は、1又は複数のコンピュータにより構成することができ、プロセッサ301、メインメモリ302、補助記憶装置303、インタフェース304、305を備える。言い換えれば、画像照合装置300は、コンピュータにソフトウェアが搭載された装置である。 As shown in FIG. 1, the image matching system according to the first embodiment includes a registration device 100, an input device 200, and an image matching device 300. The registration device 100 can be composed of one or more computers, and includes a registration unit 111 and a registration image database 112. The input device 200 includes an image input unit (imaging device) 201. The image collating device 300 can be composed of one or more computers, and includes a processor 301, a main memory 302, an auxiliary storage device 303, and interfaces 304 and 305. In other words, the image matching device 300 is a device in which software is installed in a computer.

プロセッサ301は、画像照合処理に必要な演算及び制御などの処理を行う。プロセッサ301は、メインメモリ302及び補助記憶装置303の少なくとも一方に記憶されたシステムソフトウェア、アプリケーションソフトウェア又はファームウェアなどのプログラムに基づいて、各種の機能を実現するべく制御を実行する。プロセッサ301は、例えば、CPU(central processing unit)、MPU(micro processing unit)、又はDSP(digital signal processor)である。あるいは、プロセッサ301は、これらのうちの複数を組み合わせたものである。 The processor 301 performs processing such as calculation and control necessary for the image matching process. The processor 301 executes control to realize various functions based on a program such as system software, application software, or firmware stored in at least one of the main memory 302 and the auxiliary storage device 303. The processor 301 is, for example, a CPU (central processing unit), an MPU (micro processing unit), or a DSP (digital signal processor). Alternatively, the processor 301 is a combination of a plurality of these.

メインメモリ302は、コンピュータ可読記憶媒体であり、専らデータの読み出しに用いられる不揮発性メモリ(非一時的記憶媒体)、及びデータの読み書きに用いられる揮発性メモリを含む。不揮発性メモリは、プログラムメモリとしての役割を担い、プロセッサ301が各種の処理を行う上で使用するプログラム、データ、又は各種の設定値などの一部又は全部を記憶する。揮発性メモリは、ワークメモリとしての役割を担い、プロセッサ301が各種の処理を行う上で一時的に使用するデータを記憶する。 The main memory 302 is a computer-readable storage medium, and includes a non-volatile memory (non-temporary storage medium) used exclusively for reading data and a volatile memory used for reading and writing data. The non-volatile memory plays a role as a program memory, and stores a part or all of programs, data, various setting values, and the like used by the processor 301 to perform various processes. The volatile memory plays a role as a work memory and stores data temporarily used by the processor 301 for performing various processes.

補助記憶装置303は、コンピュータ可読記憶媒体であり、例えばEEPROM(electric erasable programmable read-only memory)(登録商標)、HDD(hard disk drive)又はSSD(solid state drive)などの非一時的記憶媒体である。補助記憶装置303は、プロセッサ301が各種の処理を行う上で使用するプログラム、データ、又は各種の設定値などの一部又は全部を記憶する。 The auxiliary storage device 303 is a computer-readable storage medium, for example, a non-temporary storage medium such as an EEPROM (electric erasable programmable read-only memory) (registered trademark), an HDD (hard disk drive), or an SSD (solid state drive). be. The auxiliary storage device 303 stores a part or all of a program, data, or various set values used by the processor 301 to perform various processes.

インタフェース304は、取得部(取得手段)として機能し、画像入力部201からの入力画像を連続して取得し、プロセッサ301へ出力する。インタフェース305は、出力部として機能し、照合結果等をディスプレイ等の外部装置へ出力する。 The interface 304 functions as an acquisition unit (acquisition means), continuously acquires an input image from the image input unit 201, and outputs the input image to the processor 301. The interface 305 functions as an output unit and outputs a collation result or the like to an external device such as a display.

さらに、プロセッサ301について説明する。プロセッサ301は、検出部(検出手段)3011、追跡部(追跡手段)3012、フレーム選択部(フレーム選択手段)3013、及び照合部(照合手段)3014等を備える。検出部3011は、入力画像を照合対象画像とし、照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する。追跡部3012は、照合対象の検出結果に基づき所定照合対象を追跡する、もしくは照合対象を含むフレームの集合を抽出する。フレーム選択部3013は、所定照合対象を含む複数(N個)の所定フレーム(即ち追跡フレーム集合)のうちの照合の基準に適合する適合フレームの数に応じて、追跡フレーム集合から1以上の照合用フレームを動的に選択する。例えば、フレーム選択部3013は、追跡フレーム集合から顔照合の基準に適合する適合フレームを選択する。フレーム選択部3013は、適合フレームの数が規定数(n個)以上の場合に、追跡フレーム集合から照合用フレームを選択手法S1で選択し、適合フレームの数が規定数未満の場合に追跡フレーム集合から照合用フレームを選択手法S2で選択する。照合部3014は、データベースに登録された登録画像(又はその特徴情報)と照合用フレームに含まれる所定照合対象画像(又はその特徴情報)とを、1対1もしくは1対複数で照合する。 Further, the processor 301 will be described. The processor 301 includes a detection unit (detection means) 3011, a tracking unit (tracking means) 3012, a frame selection unit (frame selection means) 3013, a collation unit (matching means) 3014, and the like. The detection unit 3011 uses the input image as the collation target image, and detects one or more collation targets from a plurality of input frames included in the collation target image. The tracking unit 3012 tracks a predetermined matching target based on the detection result of the matching target, or extracts a set of frames including the matching target. The frame selection unit 3013 collates one or more from the tracking frame set according to the number of matching frames that meet the collation criteria among a plurality of (N) predetermined frames (that is, tracking frame sets) including the predetermined collation target. Dynamically select the frame for. For example, the frame selection unit 3013 selects a matching frame that meets the face matching criteria from the tracking frame set. The frame selection unit 3013 selects a collation frame from the tracking frame set by the selection method S1 when the number of matching frames is the specified number (n) or more, and when the number of matching frames is less than the specified number, the tracking frame. A collation frame is selected from the set by the selection method S2. The collation unit 3014 collates the registered image (or its feature information) registered in the database with the predetermined collation target image (or its feature information) included in the collation frame on a one-to-one or one-to-many basis.

以下に、より詳細な説明を補足する。
画像入力部201は、1箇所又は複数箇所に設置可能であり、撮影対象人物の人物画像を入力するものであり、例えばITVカメラからなる。ITVカメラは、カメラのレンズを通して得られた光学的な情報をA/D変換器によりデジタル化し、画像データとして出力する。なお、検索対象となるものは結果的にデジタルの人物画像データとなればよい。よって、画像入力部201は、デジタルスチルカメラで撮影された画像ファイル又は動画ファイルを媒体経由で取り込むためのインタフェースであってもよい。なお、画像入力部201と共に、本人確認に用いるID(Identification)情報を入力する装置を併設してもかまわない。例えばICカードリーダやQRコード(登録商標)リーダ、磁気情報の読み取り装置など、各種媒体から記録された情報を読み取れればどのような装置でもかまわない。これら装置から通行者に関する付属情報を読み取ることで照合処理に利用することが可能である。
A more detailed explanation is supplemented below.
The image input unit 201 can be installed at one or a plurality of locations, and inputs a person image of a person to be photographed, and includes, for example, an ITV camera. The ITV camera digitizes the optical information obtained through the lens of the camera by an A / D converter and outputs it as image data. It should be noted that the search target may be digital human image data as a result. Therefore, the image input unit 201 may be an interface for capturing an image file or a moving image file taken by a digital still camera via a medium. A device for inputting ID (Identification) information used for identity verification may be provided together with the image input unit 201. Any device may be used as long as it can read the information recorded from various media, such as an IC card reader, a QR code (registered trademark) reader, and a magnetic information reader. It is possible to use it for the collation process by reading the attached information about the passerby from these devices.

検出部3011は、画像入力部101からの入力画像から対象物の顔画像を検出する。顔検出は、例えば多数の顔の矩形領域の平均画像を顔テンプレートとして作成しておき、画像入力部201からの入力画像上において顔テンプレートを平行移動、回転、拡大縮小しながら走査し、顔テンプレートとの輝度値の差分が最も小さい位置を顔の検出領域とする方法で実現可能である。 The detection unit 3011 detects the face image of the object from the input image from the image input unit 101. In face detection, for example, an average image of a large number of rectangular regions of a face is created as a face template, and the face template is scanned while being parallel-moved, rotated, and enlarged / reduced on the input image from the image input unit 201, and the face template is detected. It can be realized by a method in which the position where the difference between the brightness value and the face is the smallest is set as the face detection area.

追跡部3012は、検出された対象物の顔画像をフレーム間で追跡する。検出された同一人物の顔画像が複数のフレームにわたって連続して映っていることが想定されるため、それらを同一人物として対応付けできるように人物の顔画像の追跡処理を行う。この実現手段としてはオプティカルフローを使ってあるフレームから検出した顔画像が次のフレームでどの位置にいるか対応付けする手法や、特開2011−170711号公報に開示された技術を利用する方法がある。後述の顔特徴抽出手段では同一人物として対応付けられた複数フレームの顔領域の画像の中から、検索をするのに適切な少なくとも1枚の画像を選択する方法や、最大で検出されたフレーム数の任意の枚数の画像を利用する方法がある。 The tracking unit 3012 tracks the face image of the detected object between frames. Since it is assumed that the detected face images of the same person are continuously displayed over a plurality of frames, the face image of the person is tracked so that they can be associated with each other as the same person. As a means for realizing this, there are a method of associating the position of the face image detected from one frame with the next frame by using optical flow, and a method of using the technique disclosed in Japanese Patent Application Laid-Open No. 2011-170711. .. In the face feature extraction means described later, a method of selecting at least one image suitable for searching from the images of the face area of a plurality of frames associated with the same person, and the maximum number of detected frames. There is a method of using an arbitrary number of images.

フレーム選択部3013は、検出部102および追跡部3012において、同一人物として対応付けられた追跡フレーム集合(N個のフレーム)の中から、照合部3014で利用するn個(1≦n≦N)のフレームを選択して出力する。 The frame selection unit 3013 has n (1 ≦ n ≦ N) used by the collation unit 3014 from among the tracking frame sets (N frames) associated with the same person in the detection unit 102 and the tracking unit 3012. Select and output the frame of.

フレーム選択部3013は、まずN個のフレームに対して照合の基準に適合するかどうかを判定する指標に基づき、n個のフレームを選択する。以下、指標の一例を示す。
・対象物のサイズ(解像度)
・対象物の確からしさのスコア
・対象物の画像領域内の輝度分布
・対象物の画像領域内の位置
・対象物の向き
本実施形態における対象物のサイズ(解像度)としては、検出部3011で対象となる顔を検出したときの領域が矩形領域として求められるため、横方向の画素数を指標とすればよい。また、縦方向の画素数を指標としてもよいし、縦方向の画素数と横方向の画素数をかけた面積を指標としてもよい。
The frame selection unit 3013 first selects n frames based on an index for determining whether or not the N frames meet the collation criteria. An example of the index is shown below.
・ Object size (resolution)
-Score of certainty of the object-Brightness distribution in the image area of the object-Position in the image area of the object-Orientation of the object The size (resolution) of the object in the present embodiment is determined by the detection unit 3011. Since the area when the target face is detected is obtained as a rectangular area, the number of pixels in the horizontal direction may be used as an index. Further, the number of pixels in the vertical direction may be used as an index, or the area obtained by multiplying the number of pixels in the vertical direction by the number of pixels in the horizontal direction may be used as an index.

対象物の確からしさのスコアとしては、検出部3011で検出した際のテンプレートとの一致性を示すスコアをそのまま用いることが可能である。 As the score of the certainty of the object, the score indicating the consistency with the template when detected by the detection unit 3011 can be used as it is.

対象物の画像領域内の輝度分布としては、一般的に顔画像のコントラストが大きいことや偏りがないことなどが望ましいといわれているため、顔領域内の輝度値の分散値、標準偏差を用いる。また、所定以上の輝度値(白とび)の画素数や所定以下の輝度値(黒つぶれ)のように明るすぎたり暗すぎたりする画素の数や割合を指標として用いることも可能である。所定以上又は所定以下の輝度値の割合が低いほど指標は高くなる。よって割合を逆数に換算する、又は1から割合を引いた値に換算する。 As the brightness distribution in the image area of the object, it is generally said that it is desirable that the contrast of the face image is large and that there is no bias. Therefore, the dispersion value and standard deviation of the brightness values in the face area are used. .. It is also possible to use as an index the number or ratio of pixels that are too bright or too dark, such as the number of pixels having a brightness value above a predetermined value (overexposure) or a brightness value below a predetermined value (blackout). The lower the ratio of the luminance value above or below the predetermined value, the higher the index. Therefore, the ratio is converted to the reciprocal or the value obtained by subtracting the ratio from 1.

対象物の画像領域内の位置としては、入力画像の上下左右端に近づくとレンズのゆがみなどにより画質が低下することや、顔画像の一部または顔周辺の画像が領域外となり情報が欠落することがあるため、画像の中央にいくほど高いスコアとなるように中央の座標からの距離を指標とすることも可能である(この場合も中央の座標からの距離が近く値が小さいほど良い指標となるように逆数を採用することが可能である)。 As for the position of the object in the image area, the image quality deteriorates due to lens distortion when approaching the top, bottom, left, and right edges of the input image, and part of the face image or the image around the face becomes out of the area and information is lost. Therefore, it is also possible to use the distance from the center coordinates as an index so that the score becomes higher toward the center of the image (again, the closer the distance from the center coordinates is and the smaller the value is, the better the index is. It is possible to adopt the reciprocal so that

対象物の向きとしては、特開2007−4767号公報に開示された技術を利用することにより対象物の向きを検出することができ、正面向きに近いほど高い指標を示すものとする。なお、このように計算式で求める手法以外に、特開2019−57815号公報を用いて対象者の複数の画像の相関や他人との違いを学習させて照合に適切な画像を求めることも可能である。 As the orientation of the object, the orientation of the object can be detected by using the technique disclosed in Japanese Patent Application Laid-Open No. 2007-4767, and the closer to the front, the higher the index. In addition to the method of calculating by the calculation formula in this way, it is also possible to obtain an image suitable for collation by learning the correlation between a plurality of images of the subject and the difference from others by using Japanese Patent Application Laid-Open No. 2019-57815. Is.

フレーム選択部3013は、各フレームの少なくとも1つの指標に基づき各フレームが照合の基準に適合するか否かを評価する。複数の指標を用いる場合には、フレーム選択部3013は、それぞれの指標に所定の係数をかけて足し算した重み付け平均値を指標として各フレームが照合の基準に適合するか否かを評価するようにしてもよい。また、フレーム選択部3013は、各フレームのそれぞれの指標に着目し、それぞれの指標の高いフレームを所定の割合で抽出し、抽出されたフレームの複数の指標に着目して照合の基準に適合する適合フレームを絞り込む。或いは、フレーム選択部3013は、各フレームのそれぞれの指標にしきい値を設定して、しきい値以上となるフレームを適合フレームとして絞り込む。また指標ごとに判断基準を切り替えてもよく、フレーム選択部3013は、1つ目の指標で所定のしきい値以上となるフレームに絞り込みをしたのち、2つ目の指標の高い順にフレームをさらに絞り込み、適合フレームを選出するようにしてもよい。 The frame selection unit 3013 evaluates whether or not each frame meets the collation criteria based on at least one index of each frame. When a plurality of indexes are used, the frame selection unit 3013 evaluates whether or not each frame meets the collation criteria using the weighted average value obtained by multiplying each index by a predetermined coefficient and adding them as an index. You may. Further, the frame selection unit 3013 pays attention to each index of each frame, extracts frames having a high index at a predetermined ratio, pays attention to a plurality of indexes of the extracted frames, and conforms to the collation criteria. Narrow down the applicable frames. Alternatively, the frame selection unit 3013 sets a threshold value for each index of each frame, and narrows down the frames that are equal to or greater than the threshold value as conforming frames. Further, the judgment criteria may be switched for each index, and the frame selection unit 3013 narrows down the frames that exceed a predetermined threshold value with the first index, and then further sets the frames in descending order of the second index. You may narrow down and select a suitable frame.

フレーム選択部3013は、照合の基準を満たすフレームの中から、n個のフレームを選択する。例えば、フレーム選択部3013は、指標が高い順にn個のフレームを選択する。或いは、フレーム選択部3013は、それぞれの指標が事前に設定した基準値以上であるか否かに応じてn個のフレームを選択するようにしてもよい。なお、選択されるフレーム数がn個未満になることもある。 The frame selection unit 3013 selects n frames from the frames that satisfy the collation criteria. For example, the frame selection unit 3013 selects n frames in descending order of index. Alternatively, the frame selection unit 3013 may select n frames depending on whether or not each index is equal to or higher than a preset reference value. The number of selected frames may be less than n.

図2は、第1の実施形態に係るフレーム選択の一例を示す図である。
例えば、追跡部3012は、所定照合対象を追跡し、所定照合対象を含む複数(N個)の所定フレームを特定する。図2に示すように、所定照合対象を含む6個のフレームF1〜F6が特定されたと仮定する。また、指標としては、「顔の確からしさのスコア(顔スコア)」、「顔のサイズ」、及び「顔の向き」の3つの指標の利用を想定する。
FIG. 2 is a diagram showing an example of frame selection according to the first embodiment.
For example, the tracking unit 3012 tracks a predetermined collation target and identifies a plurality of (N) predetermined frames including the predetermined collation target. As shown in FIG. 2, it is assumed that six frames F1 to F6 including a predetermined collation target are specified. In addition, as indexes, it is assumed that three indexes of "face certainty score (face score)", "face size", and "face orientation" are used.

フレーム選択部3013は、それぞれの指標のしきい値に基づき、フレームを選択する。顔のサイズが小さく、顔のサイズの指標がしきい値未満のフレームF1は照合の基準に適合せず、顔の向きが横を向いているため、顔の向きの指標がしきい値未満のフレームF3、F4も照合の基準に適合せず、全ての指標がしきい値以上の3つのフレームF2、F5、F6は照合の基準に適合する。 The frame selection unit 3013 selects a frame based on the threshold value of each index. Frame F1 with a small face size and a face size index less than the threshold does not meet the collation criteria, and the face orientation is sideways, so the face orientation index is less than the threshold. The frames F3 and F4 also do not meet the collation criteria, and the three frames F2, F5 and F6 in which all the indexes are above the threshold value meet the collation criteria.

適合フレームの数が規定数以上の場合、例えば、適合フレームの数が3で規定数が2であれば、フレーム選択部3013は、照合の基準に適合する3つのフレームF2、F5、F6の中から顔スコアが高い順に2つのフレームを選択する(選択手法S1−1)。或いは、フレーム選択部3013は、3つの指標のそれぞれに係数をかけて、指標の合計値に基づき基準に適合する3つのフレームから2つのフレームを選択するようにしてもよい(選択手法S1−2)。 If the number of conforming frames is equal to or greater than the specified number, for example, if the number of conforming frames is 3 and the specified number is 2, the frame selection unit 3013 is among the three frames F2, F5, and F6 that meet the collation criteria. Two frames are selected in descending order of face score (selection method S1-1). Alternatively, the frame selection unit 3013 may multiply each of the three indexes by a coefficient and select two frames from the three frames that meet the criteria based on the total value of the indexes (selection method S1-2). ).

一方、適合フレームの数が規定数未満の場合、例えば、適合フレームの数が3で、規定数が4の場合、フレーム選択部3013は、照合対象の顔を含む複数(N個)の所定フレームをそのまま照合用フレームとして選択する(選択手法S2−1)。これにより、照合に適合するフレームが不足している場合に、情報量を増やして照合精度を高めることができる。 On the other hand, when the number of conforming frames is less than the specified number, for example, when the number of conforming frames is 3 and the specified number is 4, the frame selection unit 3013 has a plurality of (N) predetermined frames including faces to be collated. Is selected as it is as a collation frame (selection method S2-1). As a result, when there are not enough frames that match the matching, the amount of information can be increased to improve the matching accuracy.

或いは、フレーム選択部3013は、上記3つの指標に対して指定された優先度に基づき、優先度の低い指標で除外されたフレームを優先的に選択し(選択手法S2−2)、フレーム数の不足を補う。不足するフレーム数を補ってもよいし、不足するフレーム数より多いフレーム数を補ってもよい。照合時間を優先する場合は、不足するフレーム数を補う。照合精度を優先する場合は、不足するフレーム数より多いフレーム数を補う。例えば、フレーム選択部3013は、適合フレームの選択に加えて、照合の基準に適合していないフレームのうち優先度の低い指標で除外されたフレームを優先的に選択する。これにより、指標の重みに応じた情報の追加が可能となり、より効果的に照合精度を高めることができる。 Alternatively, the frame selection unit 3013 preferentially selects the frames excluded by the low priority index based on the priority specified for the above three indexes (selection method S2-2), and determines the number of frames. Make up for the shortage. The number of insufficient frames may be supplemented, or the number of frames larger than the number of insufficient frames may be compensated. If the collation time is prioritized, make up for the shortage of frames. When giving priority to collation accuracy, the number of frames that is larger than the number of insufficient frames is compensated. For example, the frame selection unit 3013 preferentially selects, in addition to selecting the conforming frame, the frame excluded by the index having a low priority among the frames that do not conform to the collation criteria. As a result, it is possible to add information according to the weight of the index, and it is possible to improve the collation accuracy more effectively.

或いは、フレーム選択部3013は、照合対象の顔を含む複数(N個)の所定フレームから一定間隔で抽出される抽出フレームを照合用フレームとして選択する(選択手法S2−3)。照合時間を優先する場合は一定間隔を第1の間隔に設定し、照合精度を優先する場合は一定間隔を第2の間隔(第1の間隔<第2の間隔)に設定する。さらに、フレーム選択部3013は、適合フレームの選択に加えて、一定間隔で抽出されるフレームを選択するようにしてもよい。図2のケースでは、適合フレームF2、F5、F6の選択に加えて、一定間隔で抽出されるフレームF1、F3、F5のいくつかを選択するようにしてもよい。例えば、照合時間を優先する場合は、適合フレームF2、F5、F6と抽出されたフレームF1又はF3とを合わせた4個(=規定数n)のフレームを選択する。照合精度を優先する場合は、適合フレームF2、F5、F6と抽出されたフレームF1及びF3とを合わせた5個(>規定数n)のフレームを選択する。これにより、情報の追加が可能となり、より効果的に照合精度を高めることができる。 Alternatively, the frame selection unit 3013 selects extraction frames extracted at regular intervals from a plurality of (N) predetermined frames including faces to be collated as collation frames (selection method S2-3). When the collation time is prioritized, a fixed interval is set as the first interval, and when the collation accuracy is prioritized, the constant interval is set as the second interval (first interval <second interval). Further, the frame selection unit 3013 may select frames to be extracted at regular intervals in addition to selecting matching frames. In the case of FIG. 2, in addition to the selection of the matching frames F2, F5, F6, some of the frames F1, F3, F5 extracted at regular intervals may be selected. For example, when giving priority to the collation time, four frames (= specified number n) including the matching frames F2, F5, F6 and the extracted frames F1 or F3 are selected. When the collation accuracy is prioritized, five (> specified number n) frames including the matching frames F2, F5, F6 and the extracted frames F1 and F3 are selected. As a result, information can be added, and the collation accuracy can be improved more effectively.

或いは、フレーム選択部3013は、照合対象の顔を含む複数(N個)の所定フレームから時刻に基づき抽出されるフレームを選択するようにしてもよい(選択手法S2−4)。さらに、フレーム選択部3013は、適合フレームの選択に加えて、時刻に基づき抽出されるフレームを選択するようにしてもよい。これにより、情報の追加が可能となり、より効果的に照合精度を高めることができる。 Alternatively, the frame selection unit 3013 may select a frame to be extracted based on the time from a plurality of (N) predetermined frames including the face to be collated (selection method S2-4). Further, the frame selection unit 3013 may select a frame to be extracted based on the time in addition to selecting a matching frame. As a result, information can be added, and the collation accuracy can be improved more effectively.

例えば、時刻に基づき新しい上位所定数(=規定数n)のフレームを抽出し、抽出されるフレームを選択する(選択手法S2−41)。図2のケースでは、フレームF1の時刻が最も古く、F2、F3、F4、F5、F6の順に時刻が新しくなるとする。このケースでは、フレーム選択部3013は、フレームF3、F4、F5、F6を選択する。また、適合フレームF2、F5、F6の選択に加えて、規定数に不足するフレームを時刻に基づく新しいフレームF3、F4、F5、F6から補うようにしてもよい。例えば、フレーム選択部3013は、適合フレームF2、F5、F6と、時刻に基づく最も新しいフレームF4を選択する。 For example, a new upper predetermined number (= specified number n) of frames is extracted based on the time, and the extracted frames are selected (selection method S2-41). In the case of FIG. 2, it is assumed that the time of the frame F1 is the oldest, and the time is newer in the order of F2, F3, F4, F5, and F6. In this case, the frame selection unit 3013 selects frames F3, F4, F5, and F6. Further, in addition to the selection of the conforming frames F2, F5, and F6, the frame lacking in the specified number may be supplemented from the new frames F3, F4, F5, and F6 based on the time. For example, the frame selection unit 3013 selects the matching frames F2, F5, F6 and the newest frame F4 based on the time.

或いは、時刻に基づき古い上位所定数(=規定数n)のフレームを抽出し、抽出されるフレームを選択する(選択手法S2−42)。図2のケースでは、フレームF1、F2、F3、F4が選択される。また、適合フレームF2、F5、F6の選択に加えて、時刻に基づく古いフレームF1、F2、F3、F4のうちの最も古いフレームF1を選択するようにしてもよい。 Alternatively, the old upper predetermined number (= specified number n) of frames is extracted based on the time, and the extracted frames are selected (selection method S2-42). In the case of FIG. 2, frames F1, F2, F3, and F4 are selected. Further, in addition to selecting the matching frames F2, F5, and F6, the oldest frame F1 among the old frames F1, F2, F3, and F4 based on the time may be selected.

或いは、フレーム選択部3013は、適合フレームの数が規定数未満の場合に複数の所定フレームのフレーム間の変化量に基づきフレーム群にグループ分けし、各フレーム群から代表的な顔の画像を含むフレームを抽出し、抽出フレームを照合用フレームとして選択する(選択手法S2−5)。例えば、フレーム選択部3013は、顔の画像が類似しているグループにクラスタリングし、各グループから代表画像を選択する。例えば、顔の画像同士の全組み合わせで顔の類似度(照合部3014の照合処理と同等の処理)をもとめ、k−meanクラスタリングを行ってグループ分けする。クラスタリングに利用する指標は、顔の画像間の相関値でもよいし、フレーム選択で利用している指標を用いてもよい。フレーム選択部3013は、クラスタリングを行った後、各グループの代表画像を選択する。代表画像の選択方法としては、各グループの一番平均的な画像を選択してもよいし、単純に時間的に古い順又は新しい順で画像を選択してもよい。 Alternatively, when the number of matching frames is less than the specified number, the frame selection unit 3013 groups the frames into frame groups based on the amount of change between the frames of a plurality of predetermined frames, and includes a representative face image from each frame group. A frame is extracted, and the extracted frame is selected as a collation frame (selection method S2-5). For example, the frame selection unit 3013 clusters the facial images into similar groups and selects a representative image from each group. For example, all combinations of face images are used to determine the degree of face similarity (processing equivalent to the collation process of the collation unit 3014), and k-mean clustering is performed to group them. The index used for clustering may be a correlation value between facial images, or an index used in frame selection may be used. The frame selection unit 3013 selects a representative image of each group after performing clustering. As a method of selecting the representative image, the most average image of each group may be selected, or the images may be simply selected in the order of oldest or newest in time.

登録部111は、スキャナ又はカメラである。スキャナは、登録用の顔画像(例えば写真などの静止画)をスキャンし、取得した登録画像から顔の特徴情報を抽出し、登録画像及びその特徴情報を登録画像データベース112へ登録する。又は、カメラは、登録用の顔画像(動画)を撮影し、取得した登録画像から顔の特徴情報を抽出し、登録画像及びその特徴情報を登録画像データベース112へ登録する。顔の特徴情報の抽出は、照合部3014で画像から顔の特徴情報を抽出する手法と同様である。なお、登録部111は、顔画像ファイルを媒体経由で取り込むためのインタフェースであってもよい。 The registration unit 111 is a scanner or a camera. The scanner scans a face image for registration (for example, a still image such as a photograph), extracts facial feature information from the acquired registered image, and registers the registered image and the feature information in the registered image database 112. Alternatively, the camera captures a face image (moving image) for registration, extracts facial feature information from the acquired registered image, and registers the registered image and the feature information in the registered image database 112. Extraction of facial feature information is the same as the method of extracting facial feature information from an image by the collating unit 3014. The registration unit 111 may be an interface for capturing the face image file via the medium.

登録画像データベース112は、照合部3014で類似性指標を計算するときに利用するデータベースであり、検索対象となる個人ごと顔の特徴情報を記憶する。また、登録画像データベース112は、利用者等に向けて照合結果を分かり易くするために、顔の特徴情報に対応付けて、ID情報、顔画像、名前、性別、年齢、及び身長など該当する人物に関する属性情報を記憶する。顔の特徴情報は、顔特徴抽出処理で抽出されたデータそのものでもよいし、m×nの特徴ベクトル、又は部分空間やKL展開を行う直前の相関行列でもよい。 The registered image database 112 is a database used when the collation unit 3014 calculates the similarity index, and stores facial feature information for each individual to be searched. Further, in order to make the collation result easy to understand for users and the like, the registered image database 112 associates the face feature information with the corresponding person such as ID information, face image, name, gender, age, and height. Stores attribute information about. The facial feature information may be the data itself extracted by the facial feature extraction process, an m × n feature vector, or a correlation matrix immediately before performing subspace or KL expansion.

照合部3014は、フレーム選択部3013で選択された照合用フレームに含まれる所定照合対象画像の特徴情報と、登録画像データベース112に登録された登録画像の特徴情報とを照合する。画像入力部201で1枚又は複数枚のICカード等が利用される場合には、照合部3014は、画像入力部201の撮影により得られた入力画像から選択された照合用フレームに含まれる所定照合対象画像と、ICカードから得られた情報に対応付けられた人物の登録画像とを照合する。ICカード等の利用が無い場合には、照合部3014は、画像入力部201の撮影により得られた入力画像から選択された照合用フレームに含まれる所定照合対象画像と、登録画像データベース112に登録された全ての登録画像とを照合する。 The collation unit 3014 collates the feature information of the predetermined collation target image included in the collation frame selected by the frame selection unit 3013 with the feature information of the registered image registered in the registered image database 112. When one or more IC cards or the like are used in the image input unit 201, the collation unit 3014 is included in a predetermined collation frame selected from the input images obtained by shooting the image input unit 201. The collation target image is collated with the registered image of the person associated with the information obtained from the IC card. When the IC card or the like is not used, the collation unit 3014 registers the predetermined collation target image included in the collation frame selected from the input images obtained by the shooting of the image input unit 201 and the registered image database 112. Check against all the registered images.

照合部3014、本人の確からしさを示す類似度を含む照合結果を生成する。例えば、照合部3014、類似度の高い順にソートされた照合結果を生成する。照合部3014は、登録画像データベース112に記憶されているID情報及び顔画像などの属性情報に対応付けて照合結果を生成してもよい。顔の類似性を求める処理としては、特開2007−4767号公報に開示された技術を利用してもよい。これにより、1枚の人物画像情報に対してモデルを利用して顔の向きや状態を意図的に変動させた画像を作成することにより顔特徴情報をもとめ照合をすることで実現できる。また、同一人物の複数のフレームを複数の画像を利用した動画像による計算をする文献(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17−24(1997))に開示された技術を利用してもよい。このような方法で出力された部分空間のような特徴情報を入力された画像で検出された顔に対する個人の特徴情報とすることで実現が可能となる。この場合、類似性指標としては顔特徴情報として管理されている部分空間同士の類似度とする。また類似度以外の類似性指標としては特徴空間上での距離やマハラノビス距離といったものも利用可能である。距離を利用した場合には数値が大きいほど類似性が低くなるため、しきい値との比較方法としてはしきい値より小さければ小さいほど登録された人物との類似性が高いことを示す。 The collation unit 3014 generates a collation result including a degree of similarity indicating the certainty of the person. For example, the collation unit 3014 generates collation results sorted in descending order of similarity. The collation unit 3014 may generate a collation result in association with the ID information and the attribute information such as the face image stored in the registered image database 112. As a process for obtaining facial similarity, the technique disclosed in Japanese Patent Application Laid-Open No. 2007-4767 may be used. This can be realized by creating an image in which the orientation and state of the face are intentionally changed by using a model for one person image information, and collating the face feature information. In addition, literature that calculates multiple frames of the same person using moving images using multiple images (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda: "Face recognition system using moving images" IEICE Technical Report PRMU, The technique disclosed in vol97, No.113, pp17-24 (1997)) may be utilized. This can be realized by using the feature information such as the subspace output by such a method as the personal feature information for the face detected in the input image. In this case, the similarity index is the degree of similarity between the subspaces managed as facial feature information. In addition, as a similarity index other than the degree of similarity, distances on the feature space and Mahalanobis distances can also be used. When the distance is used, the larger the numerical value, the lower the similarity. Therefore, as a method of comparing with the threshold value, the smaller the value, the higher the similarity with the registered person.

なお、本実施形態では顔の特徴を使った照合手法を用いているが、顔以外にも映像により得られる特徴を使った照合では、いずれも本実施形態の適用が可能であり、顔照合以外にもカメラを近赤外にかえることによって目の虹彩や網膜情報を使った照合、手や顔などの静脈をつかった照合も可能であり、通常のカメラでも人物全身の外見の特徴(服装の特徴や保有物など)をつかった全身像による照合、または歩容や所定の動作をつかった行動による照合技術を本実施形態で適用するようにしてもよい。これらの手法は以下の文献情報をもとに実現が可能である。 In the present embodiment, a collation method using facial features is used, but in any collation using features obtained by images other than the face, the present embodiment can be applied, and other than face collation. Also, by changing the camera to near infrared, it is possible to collate using the iris and retinal information of the eyes, and collation using veins such as hands and face. In this embodiment, a collation based on a full-body image using features, possessions, etc., or a collation technique based on actions using gaits or predetermined movements may be applied. These methods can be realized based on the following literature information.

<文献情報>
・平成19年度,特許出願技術動向調査報告書,バイオメトリック照合の入力・認識(要約版),平成20年4月,特許庁,インターネット
<URL:https://www.jpo.go.jp/resources/report/gidou-houkoku/tokkyo/document/index/vaio_youyaku.pdf>
・特許第3307936号公報、虹彩
・特開平11−213164号公報、網膜
・特開2006−099493号公報、静脈
・特開2006−011988号公報、静脈
・特開2018−82408号公報、全身
・戦略的創造研究推進事業,CREST,研究領域,「共生社会に向けた人間調和型情報技術の構築」,研究課題,「歩容意図行動モデルに基づいた人物行動解析と心を写す情報環境の構築」,研究終了報告書,研究期間 平成22年10月〜平成29年3月,研究代表者:八木 康史,(大阪大学、理事・副学長),インターネット
<URL:https://www.jst.go.jp/kisoken/crest/evaluation/s-houkoku/sh_h28/JST_1111071_10101452_2016_PER.pdf>
<Literature information>
・ 2007, Patent application technology trend survey report, input / recognition of biometric collation (summary version), April 2008, JPO, Internet
<URL: https://www.jpo.go.jp/resources/report/gidou-houkoku/tokkyo/document/index/vaio_youyaku.pdf>
-Patent No. 3307936, Iridescent / Japanese Patent Application Laid-Open No. 11-213164, Retinal / Japanese Patent Application Laid-Open No. 2006-0949493, Venous / JP-A-2006-011988, Vine-Japanese Patent Application Laid-Open No. 2018-82408, Whole Body / Strategy Creative Research Promotion Project, CREST, Research Area, "Construction of Human-Harmonized Information Technology for a Symbiotic Society", Research Projects, "Personal Behavior Analysis Based on the Intentional Behavior Model and Construction of an Information Environment that Captures the Mind" , Research Completion Report, Research Period October 2010-March 2017, Principal Investigator: Yasushi Yagi, (Osaka University, Director / Vice President), Internet
<URL: https://www.jst.go.jp/kisoken/crest/evaluation/s-houkoku/sh_h28/JST_1111071_10101452_2016_PER.pdf>

インタフェース305は、外部装置へ照合結果等を出力する。外部装置は、液晶ディスプレイ等の表示機器、通知或いは警報を出力するスピーカ、及びゲートの開閉により通行を制御する通行制御装置である。例えば、インタフェース305は、照合結果を含む表示情報を表示機器へ出力する。表示機器は、表示情報に基づき、照合の成否、画像入力部201で入力された画像、及び検出部3011で検出された照合対象(顔領域)を表示する。また、入力画像(顔画像)が登録画像データベース112に登録されている人物のうちのどの人物にどの程度類似しているかが分かるように、表示機器(監視用表示機器)は、表示情報に基づき、入力画像と、入力画像に類似する人物の画像及び入力画像に対する類似度とを並べて表示してもよい。 The interface 305 outputs a collation result or the like to an external device. The external device is a display device such as a liquid crystal display, a speaker that outputs a notification or an alarm, and a traffic control device that controls traffic by opening and closing a gate. For example, the interface 305 outputs display information including the collation result to the display device. Based on the display information, the display device displays the success or failure of the collation, the image input by the image input unit 201, and the collation target (face area) detected by the detection unit 3011. Further, the display device (monitoring display device) is based on the display information so that the input image (face image) can be known to which person among the persons registered in the registered image database 112 and how similar it is. , The input image, the image of a person similar to the input image, and the degree of similarity to the input image may be displayed side by side.

また、インタフェース305は、類似度に応じて警告音を示す音声信号をスピーカへ出力する。インタフェース305は、しきい値以上の類似度の照合結果が得られない場合、警告音を示す音声信号をスピーカへ出力する。スピーカは、音声信号に基づき警告音を出力する。 Further, the interface 305 outputs an audio signal indicating a warning sound to the speaker according to the degree of similarity. The interface 305 outputs an audio signal indicating a warning sound to the speaker when a collation result having a similarity equal to or higher than the threshold value cannot be obtained. The speaker outputs a warning sound based on the audio signal.

また、インタフェース305は、類似度に応じてゲートを開錠する開錠信号を通行制御装置へ出力する。インタフェース305は、しきい値以上の類似度の照合結果が得られる場合には開錠信号を出力し、しきい値以上の類似度の照合結果が得られない場合には開錠信号を出力しない。通行制御装置は、開錠信号を受信した場合、開錠信号に基づきゲートを開錠する。 Further, the interface 305 outputs an unlocking signal for unlocking the gate according to the degree of similarity to the passage control device. The interface 305 outputs an unlock signal when a collation result having a similarity equal to or higher than the threshold value is obtained, and does not output an unlock signal when a collation result having a similarity equal to or higher than the threshold value cannot be obtained. .. When the traffic control device receives the unlocking signal, the traffic control device unlocks the gate based on the unlocking signal.

以上により、照合に不向きな画像が入力される環境であっても、照合精度の低下を抑制することができ、照合結果に基づく入出場等の制御の信頼性向上を図ることができる。 As described above, even in an environment in which an image unsuitable for collation is input, it is possible to suppress a decrease in collation accuracy and improve the reliability of control such as entry / exit based on the collation result.

図3は、第1の実施形態に係る画像照合システムによる照合処理の一例を示すフローチャートである。
画像入力部201は、入場又は出場の監視エリアを撮影し、撮影により得られた入力画像を出力する。画像照合装置300のインタフェース304は、入力画像を照合対象画像として取得(ST101)。画像照合装置300のプロセッサ301は、取得された照合対象画像に含まれる所定照合対象画像に対して、照合処理を実行する(ST102〜ST109)。
FIG. 3 is a flowchart showing an example of collation processing by the image collation system according to the first embodiment.
The image input unit 201 photographs the admission or entry monitoring area and outputs the input image obtained by the imaging. The interface 304 of the image collation device 300 acquires the input image as the collation target image (ST101). The processor 301 of the image collation device 300 executes a collation process on the predetermined collation target image included in the acquired collation target image (ST102 to ST109).

プロセッサ301は、メインメモリ302及び補助記憶装置303の少なくとも一方に記憶されるプログラムに基づき各種機能を実現し照合処理を実行する。例えば、検出部3011は、照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する(ST102)。追跡部3012は、照合対象の検出結果に基づき、所定照合対象を追跡する(ST103)。追跡部3012による所定照合対象の追跡が完了すると(ST104、YES)、フレーム選択部3013は、所定照合対象を含む複数(N個)の所定フレームの指標を計算する(ST105)。フレーム選択部3013は、指標が基準値以上のフレームの数、つまり照合の基準に適合するフレームの数に応じて、複数の所定フレームから1以上の照合用フレームを動的に選択する。 The processor 301 realizes various functions based on a program stored in at least one of the main memory 302 and the auxiliary storage device 303, and executes the collation process. For example, the detection unit 3011 detects one or more matching targets from a plurality of input frames included in the matching target image (ST102). The tracking unit 3012 tracks a predetermined collation target based on the detection result of the collation target (ST103). When the tracking of the predetermined collation target by the tracking unit 3012 is completed (ST104, YES), the frame selection unit 3013 calculates the index of a plurality (N) predetermined frames including the predetermined collation target (ST105). The frame selection unit 3013 dynamically selects one or more collation frames from a plurality of predetermined frames according to the number of frames whose index is equal to or greater than the reference value, that is, the number of frames that meet the collation criteria.

照合の基準に適合するフレーム数がしきい値(=規定数)以上(ST106、YES)であれば、フレーム選択部3013は、第1のフレーム選択処理(フレーム選択方式S1)に基づき照合用フレームを選択し(ST107)、照合部3014は、登録画像データベース112に登録された登録画像の特徴情報と照合用フレームに含まれる所定照合対象画像の特徴情報とを照合する(ST109)。インタフェース305は、照合部3014からの照合結果を外部装置へ出力する(ST110)。 If the number of frames conforming to the collation criteria is equal to or greater than the threshold value (= specified number) (ST106, YES), the frame selection unit 3013 uses the collation frame based on the first frame selection process (frame selection method S1). (ST107), the collation unit 3014 collates the feature information of the registered image registered in the registered image database 112 with the feature information of the predetermined collation target image included in the collation frame (ST109). The interface 305 outputs the collation result from the collation unit 3014 to the external device (ST110).

照合の基準に適合するフレーム数がしきい値(=規定数)未満(ST106、NO)であれば、フレーム選択部3013は、第2のフレーム選択処理(フレーム選択方式S2)に基づき照合用フレームを選択し(ST108)、照合部3014は、登録画像データベース112に登録された登録画像の特徴情報と照合用フレームに含まれる所定照合対象画像の特徴情報とを照合する(ST109)。インタフェース305は、照合部3014からの照合結果を外部装置へ出力する(ST110)。 If the number of frames conforming to the collation standard is less than the threshold value (= specified number) (ST106, NO), the frame selection unit 3013 is the collation frame based on the second frame selection process (frame selection method S2). (ST108), the collation unit 3014 collates the feature information of the registered image registered in the registered image database 112 with the feature information of the predetermined collation target image included in the collation frame (ST109). The interface 305 outputs the collation result from the collation unit 3014 to the external device (ST110).

以下に第2の実施形態について図4を参照して説明する。
図4は、第2の実施形態に係る画像照合システムの一例を示す構成図である。第1の実施形態に係る画像照合システムと第2の実施形態に係る画像照合システムとの主な相違点は、第2の実施形態に係る画像照合システムが、インタフェース306を備える点である。第1の実施に係る画像照合システムと第2の実施形態に係る画像照合システムにおいて、共通する構成には同一の参照符号を付し、説明を適宜省略する。
The second embodiment will be described below with reference to FIG.
FIG. 4 is a configuration diagram showing an example of the image matching system according to the second embodiment. The main difference between the image matching system according to the first embodiment and the image matching system according to the second embodiment is that the image matching system according to the second embodiment includes the interface 306. In the image matching system according to the first embodiment and the image matching system according to the second embodiment, the same reference numerals are given to common configurations, and the description thereof will be omitted as appropriate.

インタフェース306は、フレーム選択部3013及び照合部3014の処理のパラメータの設定を受け付け、受け付けた設定をフレーム選択部3013及び照合部3014へ入力する。例えば、インタフェース306は、表示装置及び入力装置と接続し、表示装置にパラメータ設定画面を出力し、入力装置で入力されるパラメータをパラメータ設定画面で受け付ける。これにより、照合処理時間や照合精度にかかわるパラメータが外部から調整できる。例えば、インタフェース306を介して、管理者や保守員パラメータを調整することができる。 The interface 306 accepts the processing parameter settings of the frame selection unit 3013 and the collation unit 3014, and inputs the accepted settings to the frame selection unit 3013 and the collation unit 3014. For example, the interface 306 is connected to the display device and the input device, outputs a parameter setting screen to the display device, and accepts the parameters input by the input device on the parameter setting screen. As a result, parameters related to the collation processing time and the collation accuracy can be adjusted from the outside. For example, administrator and maintenance personnel parameters can be adjusted via interface 306.

図5は、第2の実施形態に係るパラメータ設定画面の一例を示す図である。
図5に示すように、パラメータ設定画面は、ゲート別の顔照合のパラメータ(「認証しきい値」と表記)を設定する設定部を有する。この設定部では、0〜1の値が設定できる。値はスライダバーで調整する方法や値を直接入力する方法などいずれでもよい。
FIG. 5 is a diagram showing an example of the parameter setting screen according to the second embodiment.
As shown in FIG. 5, the parameter setting screen has a setting unit for setting face matching parameters (denoted as “authentication threshold”) for each gate. In this setting unit, a value of 0 to 1 can be set. The value may be adjusted with the slider bar or the value may be directly input.

また、パラメータ設定画面は、フレーム選択に関するパラメータを設定する設定部を有する。この設定部では、所定照合対象を含む所定フレームの数(N個)の設定を受け付ける。例えば、図5に示すように、5個(5フレーム)が設定される。なお、所定フレームの数に限らず、全フレーム中における所定フレームの割合を設定するようにしてもよい。 Further, the parameter setting screen has a setting unit for setting parameters related to frame selection. This setting unit accepts the setting of the number of predetermined frames (N) including the predetermined collation target. For example, as shown in FIG. 5, five (5 frames) are set. The number of predetermined frames is not limited to the number of predetermined frames, and the ratio of predetermined frames in all frames may be set.

また、この設定部では、選択手法S1(フレーム選択モード1)と選択手法S2(フレーム選択モード2)のそれぞれについてもパラメータを受け付ける。適合フレームの数が規定数以上の場合にはフレーム選択モード1、適合フレームの数が規定数未満の場合はフレーム選択モード2が実行される。フレーム選択モード1及びフレーム選択モード2に関するパラメータが設定される。フレーム選択モード1及びフレーム選択モード2のフレーム選択手法が設定される。フレーム選択手法としては、「ベスト順(指標が高い順)」、「間引き」、「時間的に新しい順」、「時間的に古い順」、「クラスタリング」、及び「学習自動選定」から選択できる。また、フレーム選択モード1で出力されるフレーム数、及びフレーム選択モード2で出力されるフレーム数についても設定可能とする。 In addition, this setting unit also accepts parameters for each of the selection method S1 (frame selection mode 1) and the selection method S2 (frame selection mode 2). When the number of conforming frames is the specified number or more, the frame selection mode 1 is executed, and when the number of conforming frames is less than the specified number, the frame selection mode 2 is executed. Parameters related to frame selection mode 1 and frame selection mode 2 are set. The frame selection method of the frame selection mode 1 and the frame selection mode 2 is set. The frame selection method can be selected from "best order (highest index order)", "thinning out", "time newest order", "time oldest order", "clustering", and "learning automatic selection". .. Further, the number of frames output in the frame selection mode 1 and the number of frames output in the frame selection mode 2 can also be set.

例えば全体の入力フレームが10フレーム、適合フレームが7フレームの場合は、設定されたしきい値の5より大きいためフレーム選択モード1が選ばれ、7フレームの中で照合に適切である指標の高い順に3フレームが出力される。一方、適合フレームが2フレームしかない場合にはモード2が選ばれ、10フレームを均等間引きして3フレームが選択出力される。 For example, when the total input frame is 10 frames and the conforming frame is 7 frames, the frame selection mode 1 is selected because it is larger than the set threshold value of 5, and the index suitable for matching is high among the 7 frames. Three frames are output in order. On the other hand, when there are only two conforming frames, mode 2 is selected, 10 frames are evenly thinned out, and 3 frames are selectively output.

設定画面では、ほかにシステムとして必要な設定パラメータの項目を増やしてもよい。ほかにもネットワークを通じて携帯端末から設定できるようにしてもよいし、設定ファイルに書き込むことでシステムに反映させる方法でもよいことは明確である。 On the setting screen, other setting parameter items required for the system may be added. In addition, it is clear that it may be possible to set it from a mobile terminal via a network, or it may be reflected in the system by writing it in a setting file.

以下に第3の実施形態について図6を参照して説明する。
図6は、第3の実施形態に係る画像照合システムの一例を示す構成図である。第1の実施に係る画像照合システムと第2の実施形態に係る画像照合システムにおいて、共通する構成には同一の参照符号を付し、説明を適宜省略する。第1の実施形態及び第2の実施形態では、事前に、通行者登録画像データベース1121に登録画像が登録されることを想定したが、第3の実施形態は、入出場ゲートなどの通行時に撮影される撮影画像から登録画像を登録し、複数地点で撮影される撮影画像を利用して同一人物であるか対応付けを行う。例えば、所定エリアへの入場時の顔画像を登録しておき、入場時の顔画像と出場時の顔画像とを対応付けて、どの人物が入場し出場したかを管理することが可能になる。さらに、入場した人物とは別の人物が出場したことのチェックも可能となる。
The third embodiment will be described below with reference to FIG.
FIG. 6 is a configuration diagram showing an example of the image matching system according to the third embodiment. In the image matching system according to the first embodiment and the image matching system according to the second embodiment, the same reference numerals are given to common configurations, and the description thereof will be omitted as appropriate. In the first embodiment and the second embodiment, it is assumed that the registered image is registered in the passerby registration image database 1121 in advance, but in the third embodiment, the image is taken at the time of passing through the entrance / exit gate or the like. Registered images are registered from the captured images to be captured, and the captured images captured at a plurality of points are used to associate them with each other to see if they are the same person. For example, it is possible to register a face image at the time of entry into a predetermined area, associate the face image at the time of entry with the face image at the time of entry, and manage which person entered and entered. .. Furthermore, it is possible to check that a person other than the person who entered has participated.

そのため、第3の実施形態では、複数の通行ゲート、例えば通行ゲートG1(入場)及び通行ゲートG2(出場)を想定する。図6に示すように、第3の実施形態に係る画像照合システムは、登録装置100、通行ゲートG1に対応して設けられる入力装置210、通行ゲートG2に対応して設けられる入力装置220、及び画像照合装置300を備える。 Therefore, in the third embodiment, a plurality of passage gates, for example, passage gate G1 (entrance) and passage gate G2 (entry) are assumed. As shown in FIG. 6, the image matching system according to the third embodiment includes a registration device 100, an input device 210 provided corresponding to the passage gate G1, an input device 220 provided corresponding to the passage gate G2, and an input device 220. An image collation device 300 is provided.

登録装置100は、1又は複数のコンピュータにより構成することができ、プロセッサ101、メインメモリ102、補助記憶装置103、インタフェース104、インタフェース105、及び通行者登録画像データベース1121を備える。プロセッサ101は、検出部1011、追跡部1012、フレーム選択部1013、及び登録部1014等を備える。入力装置210は、画像入力部(撮像装置)211を備える。入力装置220は、画像入力部(撮像装置)221を備える。画像照合装置300は、1又は複数のコンピュータにより構成することができ、プロセッサ301、メインメモリ302、補助記憶装置303、インタフェース304、305、306を備える。 The registration device 100 can be configured by one or more computers and includes a processor 101, a main memory 102, an auxiliary storage device 103, an interface 104, an interface 105, and a passerby registration image database 1121. The processor 101 includes a detection unit 1011, a tracking unit 1012, a frame selection unit 1013, a registration unit 1014, and the like. The input device 210 includes an image input unit (imaging device) 211. The input device 220 includes an image input unit (imaging device) 221. The image collating device 300 can be configured by one or more computers and includes a processor 301, a main memory 302, an auxiliary storage device 303, and interfaces 304, 305, 306.

登録装置100は、入力装置210からの撮影画像に含まれる登録対象画像を登録する。本実施形態では、双方向に通行可能なゲートではなく、エリア内に入る方向と出る方向の専用ゲートである通行ゲートG1及び通行ゲートG2を想定する。なお、画像入力部211及び221を逆向きに2つ設置することで双方向に通行可能なゲートにも適用可能である。 The registration device 100 registers the image to be registered included in the image captured from the input device 210. In the present embodiment, it is assumed that the passage gate G1 and the passage gate G2 are dedicated gates in the direction of entering and exiting the area, instead of the gates that can pass in both directions. By installing two image input units 211 and 221 in opposite directions, it can be applied to a gate that can pass in both directions.

入力装置210の画像入力部211は、入場者を対象とする通行ゲートG1の通行エリアを撮影し、撮影画像を出力する。登録装置100のインタフェース104は、撮影画像を取得し、検出部1011は、撮影画像から登録対象を検出する。追跡部1012は、検出された登録対象をフレーム間で対応付けて追跡する。フレーム選択部1013は、登録対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。登録部1014は、選択されたフレームを通行者登録画像データベース1121に登録する。インタフェース105は、表示装置に対して通行時の情報として登録結果等を示す表示情報を出力し、また、通行制御装置に対して登録結果に応じて開錠信号等を出力する。 The image input unit 211 of the input device 210 photographs the passage area of the passage gate G1 for visitors and outputs the captured image. The interface 104 of the registration device 100 acquires the captured image, and the detection unit 1011 detects the registration target from the captured image. The tracking unit 1012 tracks the detected registration target in association with each other between frames. The frame selection unit 1013 selects a matching frame suitable for face matching from a plurality of predetermined frames (that is, a tracking frame set) including a registration target. The registration unit 1014 registers the selected frame in the passerby registration image database 1121. The interface 105 outputs display information indicating a registration result or the like as information at the time of passage to the display device, and outputs an unlocking signal or the like to the passage control device according to the registration result.

入力装置220の画像入力部221は、出場者を対象とする通行ゲートG2の通行エリアを撮影し、撮影画像を出力する。画像照合装置200のインタフェース304は、撮影画像を取得し、検出部3011は、撮影画像から所定照合対象を検出する。追跡部3012は、検出された所定照合対象をフレーム間で対応付けて追跡する。フレーム選択部3013は、所定照合対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。フレーム選択部3013は、所定照合対象を含む複数の所定フレームのうちの適合フレームの数に応じて、追跡フレーム集合から1以上の照合用フレームを動的に選択する。照合部3014は、フレーム選択部3013で選択された照合用フレームに含まれる所定照合対象画像の特徴情報と、通行者登録画像データベース1121に登録された登録画像の特徴情報とを照合する。インタフェース305は、外部装置へ照合結果等を出力する。また、インタフェース306は、フレーム選択部3013及び照合部3014の処理のパラメータの設定を受け付け、受け付けた設定をフレーム選択部3013及び照合部3014へ入力する。 The image input unit 221 of the input device 220 photographs the passage area of the passage gate G2 for the contestants and outputs the captured image. The interface 304 of the image collation device 200 acquires a captured image, and the detection unit 3011 detects a predetermined collation target from the captured image. The tracking unit 3012 tracks the detected predetermined collation target in association with each other between frames. The frame selection unit 3013 selects a matching frame suitable for face matching from a plurality of predetermined frames (that is, a tracking frame set) including a predetermined matching target. The frame selection unit 3013 dynamically selects one or more collation frames from the tracking frame set according to the number of matching frames among a plurality of predetermined frames including a predetermined collation target. The collation unit 3014 collates the feature information of the predetermined collation target image included in the collation frame selected by the frame selection unit 3013 with the feature information of the registered image registered in the passerby registration image database 1121. The interface 305 outputs a collation result or the like to an external device. Further, the interface 306 accepts the processing parameter settings of the frame selection unit 3013 and the collation unit 3014, and inputs the accepted settings to the frame selection unit 3013 and the collation unit 3014.

なお、検出部1011は検出部3011と同等の処理を行い、追跡部1012は追跡部3012と同等の処理を行う。フレーム選択部1013は、登録対象を含む複数の所定フレーム(即ち追跡フレーム集合)の全てを選択してもよいし、顔照合に適合する適合フレームの全てを選択してもよい。或いは、フレーム選択部1013は、処理時間の短縮又は情報量の削減のため、登録対象を含む複数の所定フレームから一定数のフレームを間引きしてもよい。 The detection unit 1011 performs the same processing as the detection unit 3011, and the tracking unit 1012 performs the same processing as the tracking unit 3012. The frame selection unit 1013 may select all of a plurality of predetermined frames (that is, a tracking frame set) including a registration target, or may select all of matching frames that match face matching. Alternatively, the frame selection unit 1013 may thin out a certain number of frames from a plurality of predetermined frames including the registration target in order to shorten the processing time or reduce the amount of information.

登録部1014は、照合部3014と同様に、顔画像から顔の特徴情報を抽出し、その結果を通行者登録データベース112に出力する。 Similar to the collation unit 3014, the registration unit 1014 extracts facial feature information from the face image and outputs the result to the passerby registration database 112.

第3の実施形態により、特定エリアに出入りする人物を対応付けて管理することが可能となる。 According to the third embodiment, it is possible to manage people who enter and leave a specific area in association with each other.

以下に第4の実施形態について図7を参照して説明する。
図7は、第4の実施形態に係る画像照合システムの一例を示す構成図である。第3の実施形態に係る画像照合システムと第4の実施形態に係る画像照合システムとの主な相違点は、第4の実施形態に係る画像照合システムが、ID登録部(登録手段)113、ID情報データベース114、ID確認部1015、及びID確認部3015を備える点である。第3の実施に係る画像照合システムと第4の実施形態に係る画像照合システムにおいて、共通する構成には同一の参照符号を付し、説明を適宜省略する。
The fourth embodiment will be described below with reference to FIG. 7.
FIG. 7 is a configuration diagram showing an example of the image matching system according to the fourth embodiment. The main difference between the image matching system according to the third embodiment and the image matching system according to the fourth embodiment is that the image matching system according to the fourth embodiment has an ID registration unit (registration means) 113. The point is that the ID information database 114, the ID confirmation unit 1015, and the ID confirmation unit 3015 are provided. In the image matching system according to the third embodiment and the image matching system according to the fourth embodiment, the same reference numerals are given to common configurations, and the description thereof will be omitted as appropriate.

第4の実施形態では、入場時の顔画像と出場時の顔画像とを対応付けて、どの人物が入場して出場したかを管理するとともに、ID情報データベース114によりID情報を管理する。入場又は出場する人物にID情報を対応付けて人物の入出場を管理することが可能となる。 In the fourth embodiment, the face image at the time of entry and the face image at the time of entry are associated with each other to manage which person entered and participated, and the ID information is managed by the ID information database 114. It is possible to manage the entry / exit of a person by associating the ID information with the person who enters or exits.

例えば、画像入力部211又は221が、顔画像の撮影と並行して、ICカード等からID情報を読み取り、通行者登録画像データベース1121が顔の特徴情報及び属性情報を記憶し、ID情報データベース114がID情報を記憶する。通行者登録画像データベース1121に記憶される特徴情報及び属性情報と、ID情報データベース114に記憶されるID情報とは、管理識別情報等により関連付けられる。 For example, the image input unit 211 or 221 reads the ID information from the IC card or the like in parallel with the shooting of the face image, the passerby registration image database 1121 stores the facial feature information and the attribute information, and the ID information database 114 Stores ID information. The feature information and attribute information stored in the passerby registration image database 1121 and the ID information stored in the ID information database 114 are associated with each other by management identification information or the like.

或いは、ID登録部113が、登録用媒体からID情報及び顔の画像情報(特徴情報)を読み取り、ID情報及び顔の画像情報を関連付けて登録する。つまり、通行者登録画像データベース1121が顔の画像情報(特徴情報)を記憶し、ID情報データベース114がID情報を記憶する。通行者登録画像データベース1121に記憶される顔の画像情報(特徴情報)と、ID情報データベース114に記憶されるID情報とが、管理識別情報等により関連付けられる。 Alternatively, the ID registration unit 113 reads the ID information and the face image information (feature information) from the registration medium, and registers the ID information and the face image information in association with each other. That is, the passerby registration image database 1121 stores the face image information (feature information), and the ID information database 114 stores the ID information. The face image information (feature information) stored in the passerby registration image database 1121 and the ID information stored in the ID information database 114 are associated with each other by management identification information or the like.

入力装置210の画像入力部211は、入場者を対象とする通行ゲートG1の通行エリアを撮影し、撮影画像を出力する。登録装置100のインタフェース104は、撮影画像を取得し、検出部1011は、撮影画像から登録対象を検出する。追跡部1012は、検出された登録対象をフレーム間で対応付けて追跡する。フレーム選択部1013は、登録対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。登録部1014は、選択されたフレームを通行者登録画像データベース1121に登録する。インタフェース105は、表示装置に対して通行時の情報として登録結果等を示す表示情報を出力し、また、通行制御装置に対して登録結果に応じて開錠信号等を出力する。 The image input unit 211 of the input device 210 photographs the passage area of the passage gate G1 for visitors and outputs the captured image. The interface 104 of the registration device 100 acquires the captured image, and the detection unit 1011 detects the registration target from the captured image. The tracking unit 1012 tracks the detected registration target in association with each other between frames. The frame selection unit 1013 selects a matching frame suitable for face matching from a plurality of predetermined frames (that is, a tracking frame set) including a registration target. The registration unit 1014 registers the selected frame in the passerby registration image database 1121. The interface 105 outputs display information indicating a registration result or the like as information at the time of passage to the display device, and outputs an unlocking signal or the like to the passage control device according to the registration result.

また、入場時にID情報の読み取りを必要とする場合、例えば、画像入力部211は、IDカード等からID情報を読み取り、ID情報データベース114は、読み取られたID情報を記憶する。また、ID確認部1015は、読み取ったID情報が、ID情報データベース114に記憶された登録済みのID情報であるか否かを確認し、インタフェース105は、ID情報の確認結果を出力する。 When it is necessary to read the ID information at the time of admission, for example, the image input unit 211 reads the ID information from the ID card or the like, and the ID information database 114 stores the read ID information. Further, the ID confirmation unit 1015 confirms whether or not the read ID information is the registered ID information stored in the ID information database 114, and the interface 105 outputs the confirmation result of the ID information.

入力装置220の画像入力部221は、出場者を対象とする通行ゲートG2の通行エリアを撮影し、撮影画像を出力する。画像照合装置200のインタフェース304は、撮影画像を取得し、検出部3011は、撮影画像から所定照合対象を検出する。追跡部3012は、検出された所定照合対象をフレーム間で対応付けて追跡する。フレーム選択部3013は、所定照合対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。フレーム選択部3013は、所定照合対象を含む複数の所定フレームのうちの適合フレームの数に応じて、追跡フレーム集合から1以上の照合用フレームを動的に選択する。照合部3014は、フレーム選択部3013で選択された照合用フレームに含まれる所定照合対象画像の特徴情報と、通行者登録画像データベース1121に登録された登録画像の特徴情報とを照合する。インタフェース305は、外部装置へ照合結果等を出力する。また、インタフェース306は、フレーム選択部3013及び照合部3014の処理のパラメータの設定を受け付け、受け付けた設定をフレーム選択部3013及び照合部3014へ入力する。 The image input unit 221 of the input device 220 photographs the passage area of the passage gate G2 for the contestants and outputs the captured image. The interface 304 of the image collation device 200 acquires a captured image, and the detection unit 3011 detects a predetermined collation target from the captured image. The tracking unit 3012 tracks the detected predetermined collation target in association with each other between frames. The frame selection unit 3013 selects a matching frame suitable for face matching from a plurality of predetermined frames (that is, a tracking frame set) including a predetermined matching target. The frame selection unit 3013 dynamically selects one or more collation frames from the tracking frame set according to the number of matching frames among a plurality of predetermined frames including a predetermined collation target. The collation unit 3014 collates the feature information of the predetermined collation target image included in the collation frame selected by the frame selection unit 3013 with the feature information of the registered image registered in the passerby registration image database 1121. The interface 305 outputs a collation result or the like to an external device. Further, the interface 306 accepts the processing parameter settings of the frame selection unit 3013 and the collation unit 3014, and inputs the accepted settings to the frame selection unit 3013 and the collation unit 3014.

また、出場時にID情報の読み取りを必要とする場合、例えば、画像入力部221は、IDカード等からID情報を読み取り、ID情報データベース114は、読み取られたID情報を記憶する。また、ID確認部3015は、読み取ったID情報が、ID情報データベース114に記憶された登録済みのID情報であるか否かを確認し、インタフェース305は、ID情報の確認結果を出力する。 When it is necessary to read the ID information at the time of participation, for example, the image input unit 221 reads the ID information from the ID card or the like, and the ID information database 114 stores the read ID information. Further, the ID confirmation unit 3015 confirms whether or not the read ID information is the registered ID information stored in the ID information database 114, and the interface 305 outputs the confirmation result of the ID information.

ここで、ID情報に基づく人物特定について補足する。ID登録部113は、エリア内を通行する人物を特定するID情報を取得する。例えば、ID登録部113は、ICカード、QRコード、磁気カードなどの媒体を介してID情報を取得する。或いは、ID登録部113は、カメラで撮影した顔画像を取得、スキャナで読み取った顔画像を取得、顔画像ファイルを外部からメディアやネットワークで取得し、個人を特定できる情報を少なくとも1つ登録する。なお、ID登録部113は、照合部3014と同等の処理により顔画像から特徴情報を取得する。また、ID情報に対して、氏名、年齢、性別等の情報、及び課金のためのクレジットカード情報を関連付けて管理するようにしてもよい。 Here, the person identification based on the ID information is supplemented. The ID registration unit 113 acquires ID information that identifies a person passing through the area. For example, the ID registration unit 113 acquires ID information via a medium such as an IC card, a QR code, or a magnetic card. Alternatively, the ID registration unit 113 acquires a face image taken by a camera, acquires a face image read by a scanner, acquires a face image file from the outside via media or a network, and registers at least one piece of personally identifiable information. .. The ID registration unit 113 acquires feature information from the face image by the same processing as that of the collation unit 3014. Further, the ID information may be managed by associating information such as name, age, and gender, and credit card information for billing.

ID確認部1015は、画像入力部211から入力されたID情報を利用してID情報データベース407とマッチングして現在通行した人物が誰であるかを特定する。さらにID確認部1015は、登録部1014で得られた顔の特徴情報と、通行者登録画像データベース1121と照合して現在通行した人物が誰であるかを特定してもよい。通行者を特定することによってどの人物がどのエリアにいるかの情報をインタフェース105から出力したり、特定される通行者の通行履歴を管理し、特定される通行者に対して課金したりすることも可能である。 The ID confirmation unit 1015 uses the ID information input from the image input unit 211 to match with the ID information database 407 and identifies who is currently passing by. Further, the ID confirmation unit 1015 may collate the facial feature information obtained by the registration unit 1014 with the passerby registration image database 1121 to identify who is currently passing by. By identifying a passerby, information on which person is in which area can be output from the interface 105, the passage history of the identified passerby can be managed, and the identified passerby can be charged. It is possible.

同様に、ID確認部3015は、画像入力部221から入力されたID情報を利用してID情報データベース407とマッチングして現在通行した人物が誰であるかを特定する。さらにID確認部3015は、照合部3014で得られた顔の特徴情報と、通行者登録画像データベース1121と照合して現在通行した人物が誰であるかを特定してもよい。 Similarly, the ID confirmation unit 3015 uses the ID information input from the image input unit 221 to match with the ID information database 407 and identifies who is currently passing by. Further, the ID confirmation unit 3015 may collate the facial feature information obtained by the collation unit 3014 with the passerby registration image database 1121 to identify who is currently passing by.

上記説明した各実施形態による照合処理は以下の通りであり、各実施形態によれば、基準を満たすフレームが得られない場合、又は基準を満たすフレームが不足する場合に、照合精度の低下を防止することができる画像照合装置、画像照合システム、及び画像照合方法を提供することができる。 The collation processing according to each of the above-described embodiments is as follows, and according to each embodiment, when a frame satisfying the standard cannot be obtained or when a frame satisfying the standard is insufficient, a decrease in collation accuracy is prevented. It is possible to provide an image matching device, an image matching system, and an image matching method that can be used.

各実施形態に係る画像照合システムは、入力されたNフレームの中で所定の条件を満たす適合フレームがn(n≦N)フレーム以上存在する場合には、その中のm1フレーム(m1≦n)を顔照合に利用するフレームとして選択する。 In the image matching system according to each embodiment, when there are n (n ≦ N) or more matching frames satisfying a predetermined condition among the input N frames, m1 frame (m1 ≦ n) among them is present. Is selected as the frame to be used for face matching.

また、画像照合システムは、入力されたNフレームの中で所定の条件を満たす適合フレームがn(n≦N)フレーム未満であった場合には、Nフレーム全て、またはm2フレーム(m2≦N)を顔照合に利用するフレームとして選択する。
所定の条件とは、顔のサイズ(解像度)、顔の確からしさのスコア、顔の輝度分布、画像内の顔の位置、顔の向き、照合スコアで学習した照合最適度指標の1つまたは複数を組み合わせて、判定される条件である。なお、照合最適度指標は、本人の画像同士の類似度が高い画像がベストショット選択されるようなベストショット評価式の自動学習である。
Further, in the image matching system, when the number of conforming frames satisfying a predetermined condition among the input N frames is less than n (n ≦ N) frames, all N frames or m2 frames (m2 ≦ N) are used. Is selected as the frame to be used for face matching.
The predetermined conditions are one or more of the face size (resolution), the score of the certainty of the face, the brightness distribution of the face, the position of the face in the image, the orientation of the face, and the matching optimality index learned from the matching score. Is a condition to be judged by combining. The matching optimum index is an automatic learning of the best shot evaluation formula such that the best shot is selected from the images having a high degree of similarity between the images of the person himself / herself.

即ち、各実施形態に係る画像照合システムは、映像中の顔を追跡して得られた複数フレームの顔画像を用いた顔照合おいて、各フレームに対して顔照合に適合するか否かの度合いを示すスコア付け(高いほど適合に近づく)を行い、以下の要領で照合に使用するフレーム選別する。 That is, whether or not the image matching system according to each embodiment is suitable for face matching for each frame in face matching using face images of a plurality of frames obtained by tracking the face in the image. Score the degree (the higher the score, the closer to the match), and select the frame to be used for matching as follows.

1)スコアが所定の基準より高いフレームがある場合は、所定の基準をもとにスコアの低いフレームを除き、残ったフレームを利用し照合する。 1) If there is a frame whose score is higher than the predetermined standard, the frame with the lower score is excluded based on the predetermined standard, and the remaining frames are used for collation.

2)スコアが所定の基準より高いフレームが存在しない場合には、1)と異なる手法でフレームを選別する。例えば、基準より低いフレームであっても大多数または全フレームを照合に使用する。 2) If there is no frame whose score is higher than the predetermined standard, the frame is selected by a method different from 1). For example, the majority or all frames are used for matching, even if the frames are lower than the reference.

これによって、良好な画像が撮影しにくい環境や被写体の場合でも照合に利用できる画像を増やすことにより照合精度を確保することが可能となる。また登録時と照合時の画像が両方環境の悪い場合などにも精度を確保しやすくなる効果がある。 As a result, it is possible to ensure the matching accuracy by increasing the number of images that can be used for matching even in an environment where it is difficult to shoot a good image or in the case of a subject. In addition, there is an effect that it becomes easy to secure the accuracy even when both the images at the time of registration and the images at the time of collation are in a bad environment.

本実施形態の応用先として、セキュリティエリア又は建物などへの入退室管理装置、出入国管理装置、公共交通機関の入退場ゲート(改札)、所定の人物しか利用できない機器のアクセス制御などがある。 Applications of this embodiment include entry / exit control devices for security areas or buildings, immigration control devices, entrance / exit gates (ticket gates) for public transportation, and access control for devices that can only be used by a predetermined person.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

100…登録装置
101…画像入力部
101…プロセッサ
102…検出部
102…メインメモリ
103…補助記憶装置
104…インタフェース
105…インタフェース
111…登録部
112…登録画像データベース
113…ID登録部
114…情報データベース
200…画像照合装置
200…入力装置
201…画像入力部
210…対応して設けられる入力装置
210…入力装置
211…画像入力部
220…対応して設けられる入力装置
220…入力装置
221…画像入力部
300…画像照合装置
300…及び画像照合装置
301…プロセッサ
302…メインメモリ
303…補助記憶装置
303…及び補助記憶装置
304…インタフェース
305…インタフェース
306…インタフェース
407…情報データベース
1011…検出部
1012…追跡部
1013…フレーム選択部
1014…登録部
1015…ID確認部
1121…通行者登録画像データベース
3011…検出部
3012…追跡部
3013…フレーム選択部
3014…照合部
3015…ID確認部
100 ... Registration device 101 ... Image input unit 101 ... Processor 102 ... Detection unit 102 ... Main memory 103 ... Auxiliary storage device 104 ... Interface 105 ... Interface 111 ... Registration unit 112 ... Registered image database 113 ... ID registration unit 114 ... Information database 200 ... Image collation device 200 ... Input device 201 ... Image input unit 210 ... Corresponding input device 210 ... Input device 211 ... Image input unit 220 ... Corresponding input device 220 ... Input device 221 ... Image input unit 300 ... Image collation device 300 ... and image collation device 301 ... Processor 302 ... Main memory 303 ... Auxiliary storage device 303 ... And auxiliary storage device 304 ... Interface 305 ... Interface 306 ... Interface 407 ... Information database 1011 ... Detection unit 1012 ... Tracking unit 1013 ... Frame selection unit 1014 ... Registration unit 1015 ... ID confirmation unit 1121 ... Passerby registration image database 3011 ... Detection unit 3012 ... Tracking unit 3013 ... Frame selection unit 3014 ... Verification unit 3015 ... ID confirmation unit

Claims (15)

コンピュータにソフトウェアが搭載された画像照合装置であって、この画像照合装置は、
撮像装置から照合対象画像を連続して取得する取得手段と、
前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する検出手段と、
前記照合対象の検出結果に基づき所定照合対象を追跡する、もしくは照合対象を含むフレームの集合を抽出する追跡手段と、
前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択するフレーム選択手段と、
データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを、1対1もしくは1対複数で照合する照合手段と、
照合結果を出力する出力手段と、
を備える画像照合装置。
An image matching device in which software is installed in a computer, and this image matching device is
An acquisition means for continuously acquiring images to be collated from an image pickup device, and
A detection means for detecting one or more collation targets from a plurality of input frames included in the collation target image, and
A tracking means for tracking a predetermined collation target based on the detection result of the collation target, or extracting a set of frames including the collation target.
A frame selection means for dynamically selecting one or more matching frames from the plurality of predetermined frames according to the number of conforming frames that meet the criteria among the plurality of predetermined frames including the predetermined collation target.
A collation means for collating a registered image registered in a database with a predetermined collation target image included in the collation frame on a one-to-one or one-to-many basis.
Output means to output the collation result and
An image matching device comprising.
前記フレーム選択手段は、前記適合フレームの数が規定数以上の場合に前記複数の所定フレームから前記照合用フレームを第1の選択手法で選択し、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから前記照合用フレームを第2の選択手法で選択する、請求項1の画像照合装置。 The frame selection means selects the collation frame from the plurality of predetermined frames by the first selection method when the number of conforming frames is equal to or more than the specified number, and when the number of conforming frames is less than the specified number. The image collation apparatus according to claim 1, wherein the collation frame is selected from the plurality of predetermined frames by a second selection method. 前記フレーム選択手段は、前記適合フレームの数が規定数以上の場合に前記規定数以下の前記適合フレームを前記照合用フレームとして選択する、請求項1又は2の画像照合装置。 The image matching device according to claim 1 or 2, wherein the frame selecting means selects the matching frames having the specified number or less as the matching frame when the number of matching frames is equal to or more than the specified number. 前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームを前記照合用フレームとして選択する、請求項1乃至3の何れか一つの画像照合装置。 The image matching device according to any one of claims 1 to 3, wherein the frame selecting means selects the plurality of predetermined frames as the matching frame when the number of matching frames is less than a specified number. 前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから一定間隔で抽出される抽出フレームを前記照合用フレームとして選択する、請求項1乃至3の何れか一つの画像照合装置。 Any one of claims 1 to 3, wherein the frame selection means selects an extraction frame extracted from the plurality of predetermined frames at regular intervals as the collation frame when the number of conforming frames is less than a specified number. Two image matching devices. 前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから時刻に基づき抽出される抽出フレームを前記照合用フレームとして選択する、請求項1乃至3の何れか一つの画像照合装置。 Any one of claims 1 to 3, wherein the frame selection means selects an extraction frame extracted from the plurality of predetermined frames based on time when the number of conforming frames is less than the specified number as the matching frame. Two image matching devices. 前記フレーム選択手段は、時刻に基づき新しい又は古い上位所定数フレームを抽出する、請求項6の画像照合装置。 The image matching device according to claim 6, wherein the frame selection means extracts a new or old upper predetermined number of frames based on a time. 前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームの変化量に基づきフレーム群にグループ分けし、各フレーム群から抽出される抽出フレームを前記照合用フレームとして選択する、請求項1乃至3の何れか一つの画像照合装置。 When the number of matching frames is less than the specified number, the frame selection means groups the frames into frame groups based on the amount of change of the plurality of predetermined frames, and the extracted frames extracted from each frame group are used as the matching frames. The image matching device according to any one of claims 1 to 3 to be selected. 前記フレーム選択手段は、前記照合対象のサイズ、確からしさのスコア、輝度分布、位置、向き、及び照合最適度指標のうちの少なくとも一つに基づき基準に適合すると判定された前記適合フレームの数に応じて、前記照合用フレームを動的に選択する、請求項1乃至8の何れか一つの画像照合装置。 The frame selection means determines the number of matching frames determined to meet the criteria based on at least one of the size of the matching target, the score of certainty, the brightness distribution, the position, the orientation, and the matching optimum index. An image matching device according to any one of claims 1 to 8, which dynamically selects the matching frame accordingly. 前記照合対象は、人物、動物、車両、航空機、又はドローンの一部又は全体像である、請求項1乃至9の何れか一つの画像照合装置。 The image collation device according to any one of claims 1 to 9, wherein the collation target is a part or an entire image of a person, an animal, a vehicle, an aircraft, or a drone. 前記照合手段は、前記登録画像と前記所定照合対象画像とに基づき特定される人物の全身、顔、目、又は歩容を照合する、請求項1乃至10の何れか一つの画像照合装置。 The collation means is an image collation device according to any one of claims 1 to 10, which collates the whole body, face, eyes, or gait of a person specified based on the registered image and the predetermined collation target image. 請求項1乃至11の何れか一つの画像照合装置と、
静止画又は動画から前記登録画像を登録する登録装置と、
動画から前記照合対象画像を入力する入力装置と、
を備える、画像照合システム。
The image matching device according to any one of claims 1 to 11 and
A registration device that registers the registered image from a still image or moving image, and
An input device for inputting the collation target image from a moving image, and
An image matching system.
請求項1乃至11の何れか一つの画像照合装置と、
入場ゲートに対応する通行エリアの撮影画像から前記登録画像を登録する登録装置と、
出場ゲートに対応する通行エリアの撮影画像から前記照合対象画像を入力する入力装置と、
を備える、画像照合システム。
The image matching device according to any one of claims 1 to 11 and
A registration device that registers the registered image from the captured image of the traffic area corresponding to the entrance gate, and
An input device that inputs the collation target image from the captured image of the traffic area corresponding to the entry gate, and
An image matching system.
前記登録装置は、前記登録画像とID情報とを対応付けて登録する登録手段を備える、請求項12又は13の画像照合システム。 The image matching system according to claim 12 or 13, wherein the registration device includes a registration means for registering the registered image and ID information in association with each other. 照合対象画像を取得し、
前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出し、
前記照合対象の検出結果に基づき所定照合対象を追跡し、
前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択し、
データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを照合し、
照合結果を出力する、画像照合方法。
Get the image to be collated and
One or more collation targets are detected from a plurality of input frames included in the collation target image, and the collation target is detected.
A predetermined collation target is tracked based on the detection result of the collation target, and the collation target is tracked.
One or more matching frames are dynamically selected from the plurality of predetermined frames according to the number of conforming frames that meet the criteria among the plurality of predetermined frames including the predetermined collation target.
The registered image registered in the database is collated with the predetermined collation target image included in the collation frame, and the image is collated.
An image matching method that outputs the matching result.
JP2020034293A 2020-02-28 2020-02-28 Image matching device Active JP7379213B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020034293A JP7379213B2 (en) 2020-02-28 2020-02-28 Image matching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020034293A JP7379213B2 (en) 2020-02-28 2020-02-28 Image matching device

Publications (2)

Publication Number Publication Date
JP2021135970A true JP2021135970A (en) 2021-09-13
JP7379213B2 JP7379213B2 (en) 2023-11-14

Family

ID=77661442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020034293A Active JP7379213B2 (en) 2020-02-28 2020-02-28 Image matching device

Country Status (1)

Country Link
JP (1) JP7379213B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086403A (en) * 2008-10-01 2010-04-15 Toshiba Corp Facial recognition device, facial recognition method, and passage controller
JP2010277315A (en) * 2009-05-28 2010-12-09 Sony Corp Information processing apparatus, authentication data selection method, and program
JP2019205002A (en) * 2018-05-21 2019-11-28 株式会社東芝 Monitoring method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086403A (en) * 2008-10-01 2010-04-15 Toshiba Corp Facial recognition device, facial recognition method, and passage controller
JP2010277315A (en) * 2009-05-28 2010-12-09 Sony Corp Information processing apparatus, authentication data selection method, and program
JP2019205002A (en) * 2018-05-21 2019-11-28 株式会社東芝 Monitoring method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
岡崎彰夫、佐藤俊雄、横井謙太朗、助川寛、緒方淳、渡辺貞一: "正面顔の自動履歴機能をもったアクセス管理システムとその顔トラッキング能力について", 映像情報メディア学会誌, vol. 第57巻第9号, JPN6023032623, 1 September 2003 (2003-09-01), pages 1168 - 1176, ISSN: 0005123882 *

Also Published As

Publication number Publication date
JP7379213B2 (en) 2023-11-14

Similar Documents

Publication Publication Date Title
US10796514B2 (en) System and method for optimizing a facial recognition-based system for controlling access to a building
US9875392B2 (en) System and method for face capture and matching
US8064651B2 (en) Biometric determination of group membership of recognized individuals
KR100808316B1 (en) Person searching device, person searching method and access control system
WO2015136938A1 (en) Information processing method and information processing system
US20070183634A1 (en) Auto Individualization process based on a facial biometric anonymous ID Assignment
US20190065828A1 (en) Decreasing lighting-induced false facial recognition
JP2013077068A (en) Face authentication database management method, face authentication database management device, and face authentication database management program
JP2007206833A (en) Biological collation method and device
KR101554174B1 (en) Method and system for controlling an entrance and exit in airport security area
CN112183162A (en) Face automatic registration and recognition system and method in monitoring scene
Kalunga et al. Development of fingerprint biometrics verification and vetting management system
CN109754504A (en) A kind of intelligent access control system
JP2005084824A (en) Face image collation apparatus and face image collation method and passage controller
JP6044911B1 (en) Entrance / exit management system
JP7379213B2 (en) Image matching device
JP4434560B2 (en) Entrance / exit management system
KR102431711B1 (en) Apparatus and method for processing of access authentication for access targets
US20200125709A1 (en) Tagging system for similarity-based retriebal
Introna et al. Facial recognition technology
JP2020191585A (en) Information processing device, information processing method, and program
JP7516297B2 (en) IMAGE CHECKING DEVICE, IMAGE CHECKING METHOD, AND PROGRAM
CN202854918U (en) Prison meeting area in and out monitoring device based on face recognition
US20220198861A1 (en) Access control system screen capture facial detection and recognition
Szklarski et al. Improving the cross-border flow of third country nationals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231101

R150 Certificate of patent or registration of utility model

Ref document number: 7379213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150