JP7314959B2 - 人物認証装置、制御方法、及びプログラム - Google Patents

人物認証装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP7314959B2
JP7314959B2 JP2020563040A JP2020563040A JP7314959B2 JP 7314959 B2 JP7314959 B2 JP 7314959B2 JP 2020563040 A JP2020563040 A JP 2020563040A JP 2020563040 A JP2020563040 A JP 2020563040A JP 7314959 B2 JP7314959 B2 JP 7314959B2
Authority
JP
Japan
Prior art keywords
person
image sequence
image
matching
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020563040A
Other languages
English (en)
Other versions
JPWO2020137536A1 (ja
Inventor
雄太 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020137536A1 publication Critical patent/JPWO2020137536A1/ja
Application granted granted Critical
Publication of JP7314959B2 publication Critical patent/JP7314959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Hardware Design (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像を用いた人物の照合に関する。
関連する一般的な歩容に基づく認証装置では、歩行する人物の時系列情報を表現する特徴(以下、歩容特徴)を抽出し、それを比較することで人物の認証を実現している。歩容特徴に関連する文献として、特許文献1から3、及び非特許文献1が挙げられる。特許文献1に記載されている歩容特徴は、各時間における脚部の位置関係である。特許文献2に記載されている歩容特徴は、歩幅、歩調、又は歩速などの脚部の動きの情報と、脚長などの骨格情報である。特許文献3に記載されている歩容特徴は、シルエットの移動量の周波数成分である。非特許文献1は、深層学習を用いて時系列に整列したシルエット全体から歩容特徴を抽出する技術を開示している。
国際公開第2006/013765号 特開2010-239992号公報 特開2018-26018号公報
Daksh Thapar、Divyansh Aggarwal、Punjal Agarwal、及び Aditya Nigam、「VGR-Net: A View Invariant Gait Recognition Network」、IEEE 4th International Conference on Identity, Security, and Behavior Analysis(ISBA 2018)、2018年1月
上述した各文献における歩容特徴の抽出は、人物が同じ方向に十分な時間歩行していることを前提とする。しかしながら、実際の映像に常にそのような歩行が映っているとは限らず、そのような歩行が映っていない場合には、映像から歩容特徴を抽出することが難しいため、歩容特徴に基づく認証が難しい。すなわち、映像内の人物が右左折や転回によって歩行方向を変更する場合や、映像内の人物の歩行時間が短い場合、歩容特徴を抽出して認証を行うことが難しいという問題点がある。
また、特許文献2に記載の脚長や身長などの骨格情報のように、時系列情報を持たない歩容特徴には、時系列情報を持つ他の歩容特徴に比べ、表現能力が低いという問題がある。そのため、登録人数が増えた場合などにおいて、認識精度が低下するという問題点がある。
本発明は上記の問題点を鑑みて発明されたものであり、その目的の一つは、映像を用いた人物の照合の精度を向上させる技術を提供することである。
本発明の人物認証装置は、1)第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成部と、2)第1画像シーケンス及び第2画像シーケンスのうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出部と、3)抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合部と、を有する。
本発明の制御方法はコンピュータによって実行される。当該制御方法は、1)第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成ステップと、2)第1画像シーケンス及び第2画像シーケンスのうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出ステップと、3)抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合ステップと、を有する。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
映像を用いた人物の照合の精度を向上させる技術を提供することである。
人物認証装置の理解を容易にするための例示であり、人物認証装置の内容を限定するものではない。 人物認証装置の構成を示すブロック図である。 人物認証装置を実現するための計算機を例示する図である。 人物認証装置が実行する処理の流れを例示するフローチャートである。 時系列操作の第1の例を示す図である。 時系列操作の第2の例を示す図である。 生成部によって生成されるシルエット画像の一例を示す図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[実施形態1]
<概要>
図1は、本実施形態に係る人物認証装置20の概要を例示する図である。図1は、人物認証装置20の理解を容易にするための例示であり、人物認証装置20の内容を限定するものではない。
カメラ10は、撮像を行うことで、第1画像シーケンス40を生成する。第1画像シーケンス40は、カメラ10によって生成された撮像画像(以下、画像42)の時系列データである。例えば、第1画像シーケンス40は、ビデオフレームの時系列データ、すなわちビデオデータである。第1画像シーケンス40には、人物が含まれている。
人物認証装置20は、画像シーケンスを解析することで、人物の認証を行う。そのために、まず人物認証装置20は、第1画像シーケンス40から、1つ以上の第2画像シーケンス50を生成する。第2画像シーケンス50は、第1画像シーケンス40に対して所定の時系列操作を加えることで生成される。例えば第2画像シーケンス50は、第1画像シーケンス40を構成する複数の画像42を時系列で逆順に並べることで生成される。
人物認証装置20は、第1画像シーケンス40及び第2画像シーケンス50のうち、いずれか2つ以上それぞれから、人物の歩容特徴を抽出する。人物認証装置20は、抽出された複数の歩容特徴を、後述の照合データベース30に記憶されている歩容特徴と照合することで、人物認証を行う。ここでいう人物認証は、例えば、「第1画像シーケンス40に含まれる人物が照合データベース30に登録されているか否かを判定する」という処理や、「照合データベース30を用いて、第1画像シーケンス40に含まれている人物を(人物の識別子を)特定する」という処理などである。
照合データベース30は、人物の歩容特徴を記憶する任意の記憶装置である。ここで、照合データベース30に記憶されている歩容特徴を、照合特徴とも呼ぶ。例えば照合データベース30は、人物の識別子に対応づけて、その人物の歩容特徴を1つ以上記憶している。なお、照合データベース30は、事前に登録された歩容特徴を記憶していてもよいし、同時に稼働する別の人物認証システムから送信される歩容特徴を記憶してもよい。
<作用効果>
本実施形態では、所定の時系列操作によって、第1画像シーケンス40から1つ以上の第2画像シーケンス50が生成され、いずれか2つ以上の画像シーケンスそれぞれから、人物の歩容特徴が抽出される。そして、抽出された複数の歩容特徴と、照合データベース30に記憶されている照合特徴とを比較することで、人物の認証が行われる。このように、人物認証装置20では、1つの画像シーケンスに基づいて複数の画像シーケンスが得られ、各画像シーケンスから得られる人物の歩容特徴を用いて人物認証が行われるため、カメラ10から得られる画像シーケンスのみを用いて人物認証を行うケースと比較し、人物認証の精度を高くすることができる。
<機能構成の例>
図2は、人物認証装置20の機能構成を例示するブロック図である。人物認証装置20は、生成部22、特徴抽出部23、及び照合部24を有する。生成部22は、第1画像シーケンス40に対して所定の時系列操作を加えることで1つ以上の第2画像シーケンス50を生成する。特徴抽出部23は、第1画像シーケンス40及び第2画像シーケンス50のうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する。照合部24は、抽出した複数の歩容特徴と、照合データベース30に記憶されている照合特徴とを比較することにより、人物認証を行う。
<人物認証装置20のハードウエア構成の例>
図3は、人物認証装置20を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)やサーバマシンなどの据え置き型の計算機である。その他にも例えば、計算機1000は、スマートフォンやタブレット端末などの可搬型の計算機である。なお、計算機1000は、人物認証装置20を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
ストレージデバイス1080は、人物認証装置20の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
<カメラ10について>
カメラ10は、繰り返し撮像を行って時系列の画像42を生成することにより、第1画像シーケンス40を生成する任意のカメラである。例えばカメラ10は、特定の施設や道路などを監視するために設けられている監視カメラである。カメラ10の設置場所は、屋内であってもよいし、屋外であってもよい。
カメラ10は、その位置が移動しないカメラ(以下、固定カメラ)であってもよいし、その位置が移動するカメラ(以下、移動カメラ)であってもよい。例えば固定カメラは、壁、柱、又は天井などの様々な場所に固定で設置されたカメラである。固定カメラが設置される壁等は、ある程度の期間位置が固定されていればよく、その位置が全く変更されないものに限定されない。例えば固定カメラが設置される壁等は、イベント会場などに臨時で設置される仕切りや柱などでもよい。
例えば移動カメラは、その位置が移動する人や移動物体に取り付けられているカメラである。人に身につけられる移動カメラは、例えば手で保持するカメラ(ビデオカメラや、スマートフォンなどの携帯端末のカメラ)、又は頭や胸などに固定されるカメラ(ウェアラブルカメラなど)などである。例えば移動物体は、車、バイク、ロボット、又は飛翔体(ドローンや飛行船など)などである。移動物体に取り付けられるカメラは、いわゆるドライブレコーダとして用いるために取り付けられているカメラであってもよいし、監視撮影用に別途取り付けられたカメラであってもよい。なお、移動カメラの位置を停止させることで固定カメラを実現してもよい。
ここで、人物認証装置20を実現する計算機1000は、カメラ10であってもよい。この場合、カメラ10は、自身で生成した第1画像シーケンス40から第2画像シーケンス50を生成し、第2画像シーケンス50を利用した人物認証を行う。このような機能を持たせるカメラ10としては、例えば、インテリジェントカメラ、ネットワークカメラ、又は IP(Internet Protocol)カメラなどと呼ばれるカメラを用いることができる。なお、人物認証装置20の全ての機能をカメラ10で実現するのではなく、人物認証装置20の一部の機能のみがカメラ10で実現されてもよい。
<処理の流れ>
図4は、人物認証装置20が実行する処理の流れを例示するフローチャートである。生成部22は、カメラ10によって生成された第1画像シーケンス40を取得する(S1)。生成部22は、第1画像シーケンス40に対して所定の時系列操作を施すことで第2画像シーケンス50を生成する(S2)。特徴抽出部23は、複数の画像シーケンス(第1画像シーケンス40及び第2画像シーケンス50のうちのいずれか2つ以上)それぞれから、歩容特徴を抽出する(S3)。照合部24は、抽出された複数の歩容特徴及び照合データベース30に記憶されている照合特徴を用いて、人物認証を行う(S4)。人物認証装置20は、認証結果を出力する(S5)。
<第1画像シーケンス40の取得:S1>
生成部22は第1画像シーケンス40を取得する(S1)。ここで、第1画像シーケンス40を取得する方法には様々な方法を利用できる。例えば生成部22は、カメラ10から送信される第1画像シーケンス40を受信することで、第1画像シーケンス40を取得する。その他にも例えば、生成部22は、カメラ10によって記憶装置に記憶された第1画像シーケンス40をその記憶装置から読み出すことで、第1画像シーケンス40を取得する。
<第2画像シーケンス50の生成:S2>
生成部22は、第1画像シーケンス40に対して所定の時系列操作を加えることで、1つ以上の第2画像シーケンス50を生成する(S2)。以下、所定の時系列操作の具体例を説明する。
図5は、時系列操作の第1の例を示す図である。図5において、生成部22は、第1画像シーケンス40を構成する撮像画像(以下、画像42)を逆順に並べ替えることで、第2画像シーケンス50を生成している。例えば図5の第1画像シーケンス40は、画像42-1、画像42-2、画像42-3、及び画像42-4をこの順で並べたものである。そして、第2画像シーケンス50は、これらを画像42-4、画像42-3、画像42-2、及び画像42-1という逆の順序で並べることによって構成される。すなわち、画像52-1、画像52-2、画像52-3、及び画像52-4がそれぞれ、画像42-4、画像42-3、画像42-2、及び画像42-1に相当する。
このように第1画像シーケンス40を逆順に並べ替えた第2画像シーケンス50を生成して照合に利用することにより、第1画像シーケンス40の長さが短い(画像42の数)が少ない場合でも、歩行状態が類似した画像シーケンスから抽出した歩容特徴を用いて照合することができる。そのため、カメラ10から得られる画像シーケンスの長さの影響が人物認証の精度に与える影響を小さくし、カメラ10から得られる画像シーケンスの長さが短い場合であっても精度のよい認証を実現できる。
図6は、時系列操作の第2の例を示す図である。図6において、生成部22は、第1画像シーケンス40から一部の期間の画像シーケンスを抽出することで、第2画像シーケンス50を生成する。例えば図6の例において、生成部22は、第1画像シーケンス40から連続する T 枚の画像42を抽出し、抽出した画像42で構成される画像シーケンスを、第2画像シーケンス50としている。
ここで、生成部22は、第1画像シーケンス40から、それぞれ異なる複数の期間の画像シーケンスを抽出することが好適である。例えば図6では、第2画像シーケンス50-1及び第2画像シーケンス50-2が抽出されている。ここで、第2画像シーケンス50-1は、第1画像シーケンス40の先頭から始まる T 枚の画像42によって構成されている。一方、第2画像シーケンス50-2は、第2画像シーケンス50-1の先頭よりも後ろに s ずらした位置から始まる T 枚の画像42によって構成されている。
ここで、第2画像シーケンス50の長さ T やずらし幅 s は、任意の大きさとすることができる。例えば、第2画像シーケンス50の長さを時間で 0.3秒 と定める。この場合、カメラ10が1秒間に25枚の画像を生成するならば、第2画像シーケンス50を構成する画像の枚数は8枚となる。スライド幅は、第2画像シーケンス50の長さよりも小さくすることが好適である。例えば第2画像シーケンス50を構成する画像の枚数が8枚である場合において、ずらし幅は1枚や2枚などとする。こうすることで、第2画像シーケンス50同士の一部が重複することになる。
このように第1画像シーケンス40の一部を切り出して1つ以上の第2画像シーケンス50を生成することにより、第1画像シーケンス40中で人物が進行方向を変えている場合などにおいても、照合が容易な進行方向の部分から抽出した歩容特徴を用いて照合を行うことができる。よって、第1画像シーケンス40の途中における人物の進行方向の変更が認証の精度に与える影響を小さくし、第1画像シーケンス40の途中で人物が進行方向を変更する場合においても精度の高い認証を実現できる。
所定の時系列操作は、上記2つを組み合わせた操作であってもよい。例えば、「第1画像シーケンス40を時系列の逆順に並べたものから、一部の画像42を抽出する」という操作である。また、所定の時系列操作は、上記2つの例以外の時系列操作であってもよい。
<<画像42の加工>>
上述の例では、第2画像シーケンス50を構成する画像52として、第1画像シーケンス40を構成する画像42をそのまま用いている。しかし、生成部22は、画像42に対して所定の加工(画像処理)を加え、当該加工後の画像42を用いて、第2画像シーケンス50を生成してもよい。
生成部22が画像42に対して加える画像処理は任意である。例えば生成部22は、画像42に対して、ノイズを低減させる画像処理を加える。その他にも例えば、生成部22は、画像42を、画像42に含まれる人物のシルエット画像に変換する画像処理を行う。シルエット画像とは、人物を表す画像領域とそれ以外の画像領域とが互いに異なる画素値になるように2値化された画像である。図7は、生成部22によって生成されるシルエット画像の一例を示す図である。なお、図示の都合上、図7では、黒色をドット柄で表している。
シルエット画像を生成するために、まず生成部22は、画像42から人物を検出する(人物を表す画像領域を検出する)。ここで、画像から人物を表す画像領域を検出する技術には、既存の技術を利用することができる。例えば、畳み込みニューラルネットワークを用いた手法や、HOG(Histogram of Oriented Gradients)を用いた手法などを利用できる。
さらに生成部22は、画像42を検出した人物のシルエット画像に変換する。シルエット画像の生成には、既存の技術を利用することができる。例えば、畳み込みニューラルネットワークを用いた手法により、人物の検出と同時に人物のシルエット画像を生成する。その他にも例えば、背景差分を用いた手法などで事前に生成したシルエットを、人物の検出結果と統合してもよい。
第1画像シーケンス40を構成する各画像42をシルエット画像に変換することにより、第1画像シーケンス40が、シルエット画像の画像シーケンスに変換される。生成部22は、このシルエット画像の画像シーケンスに所定の時系列操作を加えることで、第2画像シーケンス50を生成する。これにより、第2画像シーケンス50も、シルエット画像の画像シーケンスとなる。
<歩容特徴の抽出:S3>
特徴抽出部23は、複数の画像シーケンスそれぞれから、歩容特徴を抽出する(S3)。少なくとも、特徴抽出部23は、生成部22によって生成された第2画像シーケンス50からは、歩容特徴を抽出する。一方、第1画像シーケンス40からは、歩容特徴を抽出してもよいし、しなくてもよい。
画像シーケンスから人物の歩容特徴を抽出する技術には、画像シーケンスから時空間画像特徴を抽出する既存の手法を利用することができる。ここで、時空間画像特徴とは、各画像の画像特徴と画像特徴の時系列情報を同時に表現する特徴である。例えば歩容特徴は、畳み込みニューラルネットワークを用いた手法や、DT(Dense Trajectories)を用いた手法によって抽出できる。例えば畳み込みニューラルネットワークを用いる場合、特徴抽出部23は、畳み込みニューラルネットワークに対して画像シーケンスを入力し、中間層(隠れ層)の出力を、歩容特徴として抽出する。なお、中間層が複数の層で構成される場合、歩容特徴には、これら複数の層のうちの任意の層の出力を利用できる。
<歩容特徴による人物認証:S4>
照合部24は、特徴抽出部23で抽出した歩容特徴と、照合データベース30に記憶されている照合特徴とを比較する(照合する)ことで、人物認証を行う。例えば照合部24は、特徴抽出部23で抽出した各歩容特徴について、照合データベース30に記憶されている各照合特徴との間で照合スコアを計算する。例えば照合データベース30に m 個の照合特徴が記憶されている場合、各画像シーケンスから抽出された歩容特徴について、照合スコアが m 個ずつ算出される。照合スコアは、歩容特徴と照合特徴との類似度の高さを表す指標値である。
照合スコアには、特徴同士の類似度を表す種々の指標値を利用することができる。例えば照合スコアには、歩容特徴と照合特徴の間の距離(ユークリッド距離など)や、コサイン類似度などの類似度(角度)を用いることができる。なお、特徴間の距離のように、特徴間の類似度が高いほど値が小さくなる指標値については、指標値の逆数を用いたり、指標値に負の数を掛けたりするなどして、特徴間の類似度が高いほど値が大きくなるにようにすることが好適である。また、照合スコアには、上述した複数の種類の指標値のいずれか1つを用いてもよいし、複数種類の指標値を算出してその統計値(最大値、最小値、平均値、又は加重平均値など)を照合スコアとして用いてもよい。
さらに照合部24は、照合特徴ごとに、その照合特徴との比較によって得られた各画像シーケンスについての照合スコアの統計値(以下、統計スコア)を算出する。すなわち、各照合特徴について、統計スコアが1つ得られる。照合部24は、統計スコアを用いて人物認証を行う。
例えば人物認証として、「第1画像シーケンス40に含まれる人物が照合データベース30に登録されているか否かを判定する」という処理を行うとする。この場合、例えば照合部24は、統計スコアが所定のしきい値以上であるか否かを判定する。所定のしきい値以上である統計スコアが存在する場合(統計スコアの最大値がしきい値以上である場合)、照合部24は、第1画像シーケンス40に含まれる人物が照合データベース30に登録されていると判定する。一方、所定のしきい値以上である統計スコアが存在しない場合(統計スコアの最大値がしきい値未満である場合)、照合部24は、第1画像シーケンス40に含まれる人物が照合データベース30に登録されていないと判定する。
その他にも例えば、人物認証として、「照合データベース30を用いて、第1画像シーケンス40に含まれる人物を特定する」という処理を行うとする。例えばこの場合、照合部24は、統計スコアの中から、上述した所定のしきい値以上であり、なおかつ最大の統計スコアを特定する。そして照合部24は、特定した統計スコアに対応する照合特徴を持つ人物(その照合特徴に対応づけられている人物識別子を持つ人物)を、第1画像シーケンス40に含まれる人物として特定する。例えば、照合データベース30に登録されている人物Aの照合特徴と特徴抽出部23によって算出された歩容特徴との間で算出された統計スコアが、最大の統計スコアであってなおかつ所定のしきい値以上である場合、第1画像シーケンス40に含まれている人物が人物Aであると特定される。なお、最大の統計スコアが所定のしきい値未満である場合には、照合部24は、第1画像シーケンス40に含まれる人物が照合データベース30に登録されていないと判定する。
<認証結果の出力:S5>
人物認証装置20は、認証結果を出力する(S5)。認証結果の出力方法は様々である。例えば、人物認証として、「第1画像シーケンス40に含まれる人物が照合データベース30に登録されているか否かを判定する」という処理を行うとする。この場合、例えば人物認証装置20は、第1画像シーケンス40に含まれる人物が照合データベース30に登録されている人物であるか否かを表す出力を行う。例えばこの出力は、「照合データベース30に登録されている人物である」又は「照合データベース30に登録されている人物でない」旨を表すテキストメッセージや音声メッセージである。その他にも例えば、判定結果に応じた色を出力するランプなどを用いた出力を行ってもよい。
その他にも例えば、人物認証として、「照合データベース30を用いて、第1画像シーケンス40に含まれる人物を特定する」という処理を行うとする。この場合、例えば人物認証装置20は、特定された人物の識別子の出力、又は「照合データベース30に登録されている人物でない」旨を表す出力を行う。例えばこの出力は、テキストメッセージや音声メッセージである。
ここで、各出力装置(テキストメッセージを表示させるディスプレイ装置など、音声メッセージを出力させるスピーカなど、又はランプなど)は、人物認証装置20に設けられていてもよいし、人物認証装置20以外に設けられていてもよい。後者の場合、例えば人物認証装置20は、出力を表す情報を他の装置に送信する。
以上、本発明の実施形態を詳細に説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で上記実施形態に対して変更や修正を加えたものも、本発明に含まれる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成部と、
前記第1画像シーケンス及び前記第2画像シーケンスのうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出部と、
前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合部と、を有する人物認証装置。
2. 前記生成部は、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する、1.に記載の人物認証装置。
3. 前記生成部は、前記第1画像シーケンスの一部の期間から複数の画像を抽出し、抽出した複数の画像で構成される前記第2画像シーケンスを生成する、1.に記載の人物認証装置。
4. 前記生成部は、前記第1画像シーケンスに含まれる第1期間から第1の前記第2画像シーケンスを生成し、前記第1画像シーケンスに含まれる第2期間から第2の前記第2画像シーケンスを生成し、
前記第1期間と前記第2期間は互いに一部が重複する、3.に記載の人物認証装置。
5. 前記生成部は、前記第1画像シーケンスを構成する各画像から人物を検出し、検出した人物のシルエット画像を生成し、前記生成したシルエット画像を用いて前記第2画像シーケンスを生成する、1.~4.のいずれか1つに記載の人物認証装置。
6. 前記抽出部は、画像シーケンスから抽出される前記歩容特徴として、画像シーケンスから検出される人物についての時空間画像特徴を抽出する、1.~5.のいずれか1つに記載の人物認証装置。
7. 前記抽出部は、画像シーケンスを畳み込みニューラルネットワークに入力することで、前記歩容特徴を抽出する、1.~5.のいずれか1つに記載の人物認証装置。
8. 前記畳み込みニューラルネットワークは、入力層、中間層、及び出力層を有し、
前記抽出部は、前記中間層を構成するいずれかの層からの出力を前記歩容特徴として抽出する、7.に記載の人物認証装置。
9. 前記照合部は、
前記記憶部に記憶されている複数の照合特徴それぞれについて、各画像シーケンスから抽出された歩容特徴との類似度を表す照合スコアを算出し、
前記照合特徴ごとに、算出された複数の照合スコアの統計値である統計スコアを算出し、
前記照合特徴ごとの統計スコアを用いて、前記第1画像シーケンスに含まれる人物の認証を行う、1.~8.のいずれか1つに記載の人物認証装置。
10. 前記照合部は、いずれかの前記統計スコアが所定のしきい値以上である場合に、前記第1画像シーケンスが登録済みの人物であると特定する、9.に記載の人物認証装置。
11. 前記記憶部は、人物の識別子とその人物の照合特徴とを対応づけて記憶しており、
前記照合部は、
複数の照合特徴の中から、前記統計スコアが最大であり、なおかつその統計スコアが所定のしきい値以上である照合特徴を特定し、
前記記憶部において前記特定された照合特徴と対応づけられている識別子を持つ人物を、前記第1画像シーケンスに含まれる人物として特定する、9.に記載の人物認証装置。
12. コンピュータによって実行される制御方法であって、
第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成ステップと、
前記第1画像シーケンス及び前記第2画像シーケンスのうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出ステップと、
前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合ステップと、を有する制御方法。
13. 前記生成ステップにおいて、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する、12.に記載の制御方法。
14. 前記生成ステップにおいて、前記第1画像シーケンスの一部の期間から複数の画像を抽出し、抽出した複数の画像で構成される前記第2画像シーケンスを生成する、12.に記載の制御方法。
15. 前記生成ステップにおいて、前記第1画像シーケンスに含まれる第1期間から第1の前記第2画像シーケンスを生成し、前記第1画像シーケンスに含まれる第2期間から第2の前記第2画像シーケンスを生成し、
前記第1期間と前記第2期間は互いに一部が重複する、14.に記載の制御方法。
16. 前記生成ステップにおいて、前記第1画像シーケンスを構成する各画像から人物を検出し、検出した人物のシルエット画像を生成し、前記生成したシルエット画像を用いて前記第2画像シーケンスを生成する、12.~15.のいずれか1つに記載の制御方法。
17. 前記抽出ステップにおいて、画像シーケンスから抽出される前記歩容特徴として、画像シーケンスから検出される人物についての時空間画像特徴を抽出する、12.~16.のいずれか1つに記載の制御方法。
18. 前記抽出ステップにおいて、画像シーケンスを畳み込みニューラルネットワークに入力することで、前記歩容特徴を抽出する、12.~16.のいずれか1つに記載の制御方法。
19. 前記畳み込みニューラルネットワークは、入力層、中間層、及び出力層を有し、
前記抽出ステップにおいて、前記中間層を構成するいずれかの層からの出力を前記歩容特徴として抽出する、18.に記載の制御方法。
20. 前記照合ステップにおいて、
前記記憶部に記憶されている複数の照合特徴それぞれについて、各画像シーケンスから抽出された歩容特徴との類似度を表す照合スコアを算出し、
前記照合特徴ごとに、算出された複数の照合スコアの統計値である統計スコアを算出し、
前記照合特徴ごとの統計スコアを用いて、前記第1画像シーケンスに含まれる人物の認証を行う、12.~19.のいずれか1つに記載の制御方法。
21. 前記照合ステップにおいて、いずれかの前記統計スコアが所定のしきい値以上である場合に、前記第1画像シーケンスが登録済みの人物であると特定する、20.に記載の制御方法。
22. 前記記憶部は、人物の識別子とその人物の照合特徴とを対応づけて記憶しており、
前記照合ステップにおいて、
複数の照合特徴の中から、前記統計スコアが最大であり、なおかつその統計スコアが所定のしきい値以上である照合特徴を特定し、
前記記憶部において前記特定された照合特徴と対応づけられている識別子を持つ人物を、前記第1画像シーケンスに含まれる人物として特定する、20.に記載の制御方法。
23. 12.~22.のいずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
この出願は、2018年12月28日に出願された日本出願特願2018-248213号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 カメラ
20 人物認証装置
22 生成部
23 特徴抽出部
24 照合部
30 照合データベース
40 第1画像シーケンス
42 画像
50 第2画像シーケンス
52 画像
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース

Claims (10)

  1. 第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成部と、
    前記第1画像シーケンス及び1つ以上の前記第2画像シーケンスのそれぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出部と、
    前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合部と、を有し、
    前記生成部は、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する、人物認証装置。
  2. 前記生成部は、前記第1画像シーケンスを構成する各画像から人物を検出し、検出した人物のシルエット画像を生成し、前記生成したシルエット画像を用いて前記第2画像シーケンスを生成する、請求項1に記載の人物認証装置。
  3. 前記抽出部は、画像シーケンスから抽出される前記歩容特徴として、画像シーケンスから検出される人物についての時空間画像特徴を抽出する、請求項1または2に記載の人物認証装置。
  4. 前記抽出部は、画像シーケンスを畳み込みニューラルネットワークに入力することで、前記歩容特徴を抽出する、請求項1~のいずれか1項に記載の人物認証装置。
  5. 前記畳み込みニューラルネットワークは、入力層、中間層、及び出力層を有し、
    前記抽出部は、前記中間層を構成するいずれかの層からの出力を前記歩容特徴として抽出する、請求項に記載の人物認証装置。
  6. 前記照合部は、
    前記記憶部に記憶されている複数の照合特徴それぞれについて、各画像シーケンスから抽出された歩容特徴との類似度を表す照合スコアを算出し、
    前記照合特徴ごとに、算出された複数の照合スコアの統計値である統計スコアを算出し、
    前記照合特徴ごとの統計スコアを用いて、前記第1画像シーケンスに含まれる人物の認証を行う、請求項1~のいずれか1項に記載の人物認証装置。
  7. 前記照合部は、いずれかの前記統計スコアが所定のしきい値以上である場合に、前記第1画像シーケンスに含まれる人物が登録済みの人物であると特定する、請求項に記載の人物認証装置。
  8. 前記記憶部は、人物の識別子とその人物の照合特徴とを対応づけて記憶しており、
    前記照合部は、
    複数の照合特徴の中から、前記統計スコアが最大であり、なおかつその統計スコアが所定のしきい値以上である照合特徴を特定し、
    前記記憶部において前記特定された照合特徴と対応づけられている識別子を持つ人物を、前記第1画像シーケンスに含まれる人物として特定する、請求項に記載の人物認証装置。
  9. コンピュータによって実行される制御方法であって、
    第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成ステップと、
    前記第1画像シーケンス及び1つ以上の前記第2画像シーケンスのうちのそれぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出ステップと、
    前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合ステップと、を有し、
    前記生成ステップでは、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する制御方法。
  10. 請求項に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
JP2020563040A 2018-12-28 2019-12-11 人物認証装置、制御方法、及びプログラム Active JP7314959B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018248213 2018-12-28
JP2018248213 2018-12-28
PCT/JP2019/048414 WO2020137536A1 (ja) 2018-12-28 2019-12-11 人物認証装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020137536A1 JPWO2020137536A1 (ja) 2021-10-28
JP7314959B2 true JP7314959B2 (ja) 2023-07-26

Family

ID=71127217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563040A Active JP7314959B2 (ja) 2018-12-28 2019-12-11 人物認証装置、制御方法、及びプログラム

Country Status (4)

Country Link
US (1) US12020510B2 (ja)
JP (1) JP7314959B2 (ja)
CN (1) CN113544735A (ja)
WO (1) WO2020137536A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023535231A (ja) * 2020-08-20 2023-08-16 ラモット・アット・テル・アビブ・ユニバーシテイ・リミテッド 動的アイデンティティ認証
US11961333B2 (en) * 2020-09-03 2024-04-16 Board Of Trustees Of Michigan State University Disentangled representations for gait recognition
CN116311524A (zh) * 2023-03-22 2023-06-23 凯通科技股份有限公司 基于摄像机组的步态特征确定方法、装置和终端设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014125882A1 (ja) 2013-02-15 2014-08-21 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014196134A1 (ja) 2013-06-06 2014-12-11 日本電気株式会社 解析処理システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398891B (zh) 2004-08-03 2010-12-08 松下电器产业株式会社 人物判定装置
JP5478928B2 (ja) 2009-03-31 2014-04-23 綜合警備保障株式会社 人物同定装置、人物同定方法、及び人物同定プログラム
JP4849181B2 (ja) 2010-04-12 2012-01-11 日本電気株式会社 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム
JP5937823B2 (ja) 2011-12-28 2016-06-22 グローリー株式会社 画像照合処理装置、画像照合処理方法及び画像照合処理プログラム
JP2013210845A (ja) 2012-03-30 2013-10-10 Secom Co Ltd 移動物体照合装置
JP2017205135A (ja) 2014-08-25 2017-11-24 ノーリツプレシジョン株式会社 個人識別装置、個人識別方法、及び、個人識別プログラム
CN105335725B (zh) * 2015-11-05 2019-02-26 天津理工大学 一种基于特征融合的步态识别身份认证方法
US9460557B1 (en) * 2016-03-07 2016-10-04 Bao Tran Systems and methods for footwear fitting
CN105975932B (zh) * 2016-05-04 2019-07-23 广东工业大学 基于时间序列shapelet的步态识别分类方法
JP6786098B2 (ja) 2016-08-10 2020-11-18 公立大学法人大阪 歩容解析装置
CN108681689B (zh) * 2018-04-02 2021-06-04 中国科学院自动化研究所 基于生成对抗网络的帧率增强步态识别方法及装置
US11768504B2 (en) * 2020-06-10 2023-09-26 AI Incorporated Light weight and real time slam for robots

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014125882A1 (ja) 2013-02-15 2014-08-21 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
WO2014196134A1 (ja) 2013-06-06 2014-12-11 日本電気株式会社 解析処理システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
守脇 幸佑,外2名,人物属性を考慮した歩容認証,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2018-CVIM-21,日本,情報処理学会,2018年05月11日
森 敦史,外2名,低フレームレート映像のための歩行周期に基づく位相同期による歩容認証,電子情報通信学会論文誌 (J94-D) 第8号,日本,社団法人電子情報通信学会,2011年,pp.1290-1299

Also Published As

Publication number Publication date
WO2020137536A1 (ja) 2020-07-02
JPWO2020137536A1 (ja) 2021-10-28
CN113544735A (zh) 2021-10-22
US12020510B2 (en) 2024-06-25
US20220076005A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
US10102421B2 (en) Method and device for face recognition in video
US10275672B2 (en) Method and apparatus for authenticating liveness face, and computer program product thereof
JP7314959B2 (ja) 人物認証装置、制御方法、及びプログラム
EP2864930B1 (en) Self learning face recognition using depth based tracking for database generation and update
US10509957B2 (en) System and method for human pose estimation in unconstrained video
CN108009466B (zh) 行人检测方法和装置
CN104933414A (zh) 一种基于wld-top的活体人脸检测方法
Qiang et al. SqueezeNet and fusion network-based accurate fast fully convolutional network for hand detection and gesture recognition
Barnich et al. Frontal-view gait recognition by intra-and inter-frame rectangle size distribution
CN110728188B (zh) 图像处理方法、装置、系统和存储介质
KR102261054B1 (ko) 카메라에 연결되는 고속 얼굴 인식 장치
Sajid et al. VSig: Hand-gestured signature recognition and authentication with wearable camera
Chen et al. Gradient local auto-correlations and extreme learning machine for depth-based activity recognition
Yuan et al. Ear detection based on improved adaboost algorithm
Guo Impact on Biometric Identification Systems of COVID‐19
Naik et al. LBPH algorithm for frontal and side profile face recognition on GPU
Iwashita et al. Gait recognition robust to speed transition using mutual subspace method
CN109241952B (zh) 拥挤场景下人物计数方法及装置
Jabberi et al. Generative data augmentation applied to face recognition
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
Bharadi et al. Multi-instance iris recognition
Park et al. A study on the design and implementation of facial recognition application system
Aouto et al. Pose-Based Identification Using Deep Learning for Military Surveillance Systems
Nguyen et al. Development of a Human Daily Action Recognition System for Smart-Building Applications
Akhter et al. Human-based interaction analysis via automated key point detection and neural network model

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R151 Written notification of patent or utility model registration

Ref document number: 7314959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151