JP7347539B2 - 前景抽出装置、前景抽出方法、及び、プログラム - Google Patents

前景抽出装置、前景抽出方法、及び、プログラム Download PDF

Info

Publication number
JP7347539B2
JP7347539B2 JP2021565178A JP2021565178A JP7347539B2 JP 7347539 B2 JP7347539 B2 JP 7347539B2 JP 2021565178 A JP2021565178 A JP 2021565178A JP 2021565178 A JP2021565178 A JP 2021565178A JP 7347539 B2 JP7347539 B2 JP 7347539B2
Authority
JP
Japan
Prior art keywords
foreground
foreground extraction
model
input image
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021565178A
Other languages
English (en)
Other versions
JPWO2021124417A1 (ja
JPWO2021124417A5 (ja
Inventor
秀昭 佐藤
恭太 比嘉
康敬 馬場崎
博義 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021124417A1 publication Critical patent/JPWO2021124417A1/ja
Publication of JPWO2021124417A5 publication Critical patent/JPWO2021124417A5/ja
Application granted granted Critical
Publication of JP7347539B2 publication Critical patent/JP7347539B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像に含まれる物体を抽出する技術に関する。
近年、様々な用途にドローンが利用されている。ドローンの利用が普及すると、ドローンの航空管制が必要になると考えられる。例えば、地上に設置したカメラにより撮影した映像を用いて、管理対象となるドローンの周辺を監視することが必要となる。具体的に、ドローンの航空管制業務では、撮影画像に基づいて小さな移動物体を検出し、鳥や管理対象以外のドローンなどの制御不可能な物体を識別し、管理対象のドローンを即座に制御して自動的に衝突回避を行う必要がある。
特許文献1は、撮影画像に基づいて飛来物を抽出し、予め用意された飛行パターンと比較することにより、飛行物が鳥類であるか否かを判別する手法を記載している。
国際公開WO2009/102001号公報
上記の特許文献1は、飛来物の飛行パターンに基づいて飛来物を識別している。このため、飛来物の検出に失敗し、移動軌跡が取得できない場合には飛来物を識別することはできない。
本発明の1つの目的は、画像に含まれる移動物体を正確に抽出することにある。
本発明の一つの観点では、前景抽出装置は、
入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成する抽出結果生成手段と、
前記入力画像に基づいてトラッカーを生成し、前記トラッカーと前記前景抽出結果に含まれる前景との距離を算出し、前記距離を用いて時系列特徴を生成し、生成した時系列特徴に基づいて前景抽出モデルを選択する選択手段と、
選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する前景領域生成手段と、を備える。
本発明の他の観点では、前景抽出方法は、
入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成し、
前記入力画像に基づいてトラッカーを生成し、前記トラッカーと前記前景抽出結果に含まれる前景との距離を算出し、前記距離を用いて時系列特徴を生成し、生成した時系列特徴に基づいて前景抽出モデルを選択し、
選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する。
本発明の他の観点では、プログラムは、
入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成し、
前記入力画像に基づいてトラッカーを生成し、前記トラッカーと前記前景抽出結果に含まれる前景との距離を算出し、前記距離を用いて時系列特徴を生成し、生成した時系列特徴に基づいて前景抽出モデルを選択し、
選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する処理をコンピュータに実行させる。
本発明によれば、画像に含まれる移動物体を正確に抽出することができる。
実施形態に係る前景抽出装置のハードウェア構成を示す。 第1実施形態の第1実施例に係る前景抽出装置の機能構成を示す。 トラッカーの生成方法を説明する図である。 時系列情報の生成方法を説明する図である。 時系列情報の例を示す。 前景抽出装置による前景抽出処理のフローチャートである。 複数フレームの画像を用いてトラッカーを生成する方法を示す。 複数フレームの画像を用いてトラッカーを生成する方法を示す。 第1実施形態の第2実施例に係る前景抽出装置の機能構成を示す。 物体識別部による物体識別の方法を説明する図である。 前景抽出装置による物体識別処理のフローチャートである。 第2実施形態の第1実施例による前景抽出装置の機能構成を示す。 第2実施形態の第1実施例における特徴ベクトルの抽出方法を示す。 選択モデル学習部における学習方法を模式的に示す。 前景抽出モデルを選択する例を示す。 第2実施形態の第2実施例による選択モデルの学習方法を模式的に示す。 第2実施形態の第2実施例の変形例による選択モデルの学習方法を模式的に示す。 第3実施形態に係る前景抽出装置の機能構成を示す。
以下、図面を参照して、本発明の好適な実施形態について説明する。
<基本概念>
まず、実施形態に係る前景抽出手法の基本概念について説明する。空を撮影した画像から、飛行中の小さな移動物体(以下、「小移動物体」と呼ぶ。)やその領域を抽出する場合、背景差分手法が利用される。なお、画像に含まれる移動物体を「前景」とも呼ぶ。背景差分手法は連続するフレーム画像の差分に基づいて移動物体を検出する手法であり、様々な背景差分手法が知られている。しかし、それらの背景差分手法は、得意とする状況がそれぞれ異なり、1つの背景差分手法のみを用いて継続的に高精度で前景を抽出することは難しい。
そこで、以下の実施形態では、複数の前景抽出方法を用意し、個々の状況において適切な1つ又は複数の前景抽出方法を選択して前景抽出を行う。具体的には、連続するフレーム画像に対して複数の前景抽出方法を適用した結果を評価して適切な前景抽出方法を選択し、選択された前景抽出方法を用いて前景を抽出する。
<第1実施形態>
[ハードウェア構成]
図1は、第1実施形態に係る前景抽出装置のハードウェア構成を示すブロック図である。図示のように、前景抽出装置100は、入力IF(InterFace)12と、プロセッサ13と、メモリ14と、記録媒体15と、データベース(DB)16と、を備える。
入力IF12は、前景抽出装置100が処理の対象とする入力画像を取得する。例えば、地上に設置されたカメラにより、空を飛行する移動物体を撮影した画像が入力IF12を通じて入力される。プロセッサ13は、CPU(Central Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、前景抽出装置100の全体を制御する。具体的に、プロセッサ13は、後述する前景抽出処理を実行する。
メモリ14は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ14は、プロセッサ13により実行される各種のプログラムを記憶する。また、メモリ14は、プロセッサ13による各種の処理の実行中に作業メモリとしても使用される。
記録媒体15は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、前景抽出装置100に対して着脱可能に構成される。記録媒体15は、プロセッサ13が実行する各種のプログラムを記録している。前景抽出装置100が各種の処理を実行する際には、記録媒体15に記録されているプログラムがメモリ14にロードされ、プロセッサ13により実行される。
データベース16は、入力IF12を含む外部装置から入力されるデータを記憶する。具体的には、前景抽出装置100が処理の対象とする入力画像が記憶される。なお、上記に加えて、前景抽出装置100は、ユーザが指示や入力を行うためのキーボード、マウスなどの入力機器や、表示部を備えていても良い。
[第1実施例]
次に、第1実施形態の第1実施例について説明する。
(機能構成)
図2は、第1実施形態の第1実施例に係る前景抽出装置100の機能構成を示すブロック図である。図示のように、前景抽出装置100は、時系列特徴生成部21と、前景抽出モデル選択部22と、前景領域生成部23と、時系列情報記憶部24と、分類モデル記憶部25と、選択モデル記憶部26と、前景抽出モデル記憶部27と、を備える。
時系列特徴生成部21には、複数のフレーム画像からなる入力画像が入力される。時系列特徴生成部21は、入力画像から時系列特徴を生成し、前景抽出モデル選択部22に供給する。「時系列特徴」とは、連続するフレーム画像における特徴であり、連続するフレームに含まれるトラッカーを用いて生成される。
ここで、まずトラッカーについて説明する。「トラッカー」とは、隣接するフレームにおいて検出され、相互に対応付けされた物体を指す。図3は、トラッカーの生成方法を説明する図である。いま、時系列特徴生成部21は、前景抽出モデル記憶部27から3つの前景抽出モデルM1~M3を取得し、使用するものとする。時系列特徴生成部21は、図示の入力画像61に対して前景抽出モデルM1~M3を適用して、前景抽出結果62~64を得る。時系列特徴生成部21は、前景抽出結果62~64の投票を行い、過半数の前景抽出結果に含まれる物体をトラッカーと決定する。図3の例では、前景抽出結果62~64の過半数に含まれる物体(三角形)65と物体(円形)66がそれぞれトラッカーとして抽出される。
トラッカーが生成されると、時系列特徴生成部21は、トラッカーを用いて時系列情報を生成する。時系列情報は、時系列特徴を抽出するために使用される情報である。図4は、時系列情報の生成方法を説明する図である。いま、連続するN-1フレームとNフレームがあり、N-1フレームから前述のようにトラッカー65、66が抽出されているとする。時系列特徴生成部21は、Nフレームの入力画像に対して前景抽出モデルM1~M3を適用して前景抽出結果67~69を生成する。図4の例では、前景抽出結果67には、1つの三角形の前景67aと、1つの円形の前景67bとが含まれている。前景抽出結果68には、1つの三角形の前景と、1つの円形の前景と、3つの四角形の前景が含まれている。前景抽出結果69には、1つの三角形の前景と、1つの四角形の前景が含まれている。時系列特徴生成部21は、矢印で示すように、N-1フレームの各トラッカーと、Nフレームから各前景抽出モデルによって抽出された前景とのペアを作り、その対応関係を時系列情報として生成する。
図5は、時系列情報の例を示す。時系列情報は、前景抽出を行ったフレームの1つ前のフレームについて、「フレーム番号」、「トラッカー番号」、「座標値」を含む。図4の例では、時系列情報は、N-1フレームについて、2つのトラッカー65、66の番号と、それらの座標とを含んでいる。なお、ここではトラッカー65の番号を「1」とし、トラッカー66の番号を「2」とする。また、時系列情報は、前景抽出を行ったフレームについて、「フレーム番号」、「前景抽出モデル」、「前景ラベル」、「座標値」を含む。図4の例では、時系列情報は、前景抽出を行ったNフレームについて、フレーム番号と、前景抽出モデルM1~M3のいずれかと、前景抽出結果67~69に含まれる各前景を識別する前景ラベルと、その前景の座標値とを含んでいる。なお、図5に示すように、座標値は、トラッカー又は前景を囲む矩形の左上と右下の点の座標により示される。
次に、時系列特徴生成部21は、時系列情報を用いて時系列特徴を生成する。時系列特徴生成部21は、まず、図4の矢印で示すように、N-1フレームで生成されたトラッカー65と、前景抽出結果67~69に含まれる前景の各々との距離を算出する。具体的に、時系列特徴生成部21は、N-1フレームにおけるトラッカー65の座標と、Nフレームの前景抽出結果67における三角形の前景67aの座標とに基づいて、トラッカー65と前景67aとの距離を算出する。同様に、時系列特徴生成部21は、トラッカー65と、前景抽出結果67~69に含まれる前景それぞれとの距離を算出する。さらに、時系列特徴生成部21は、N-1フレームで生成された他のトラッカーについても、前景抽出結果67~69に含まれる前景のそれぞれとの距離を算出する。図4の例では、時系列特徴生成部21は、トラッカー66と、前景抽出結果67~69に含まれる前景それぞれとの距離を算出する。
さらに、時系列特徴生成部21は、図2に示す分類モデル記憶部25から分類モデルを取得し、分類モデルを用いてNフレームの前景抽出結果67~69に含まれる前景のそれぞれについて前景度を算出する。なお、分類モデルは、入力された前景の形状に基づいて、その前景の前景度(前景らしさのスコア)を出力するモデルである。
こうして、Nフレームの前景抽出結果67~69に含まれる前景のそれぞれについて、トラッカーとの距離、及び、前景度が得られると、時系列特徴生成部21は、以下の式(1)を用いて、各前景抽出モデルについてのスコアF(i)を時系列特徴として算出する。
Figure 0007347539000001
ここで、「t」はトラッカー番号である。「i」は前景抽出モデルを示し、「c」は前景抽出モデルにより抽出された前景のラベルである。また、「d(t,c)」はトラッカーtと前景cとの距離であり、「p(i,c)」は前景抽出モデルiにより抽出された前景cの前景度を示す。「n(T)」は、トラッカーの数を示す。よって、スコアF(i)は、ある前景抽出モデルiについて、トラッカーtと前景cとの距離d(t、c)を、前景cの前景度p(i,c)で除算した値を全てのトラッカーt及び前景cについて合計し、その値をトラッカーの数n(T)で除算したものとなる。図4の例では、時系列特徴生成部21は、3つの前景抽出モデルM1~M3について、それぞれスコアF(1)~F(3)を算出し、時系列特徴として前景抽出モデル選択部22に供給する。
ここで、スコアF(i)は、その値が小さいほど、前景を抽出する精度が高いことを示している。その理由は以下の通りである。まず、式(1)では、トラッカーと前景との距離d(t,c)が大きいほどスコアF(i)は大きくなる。実際の小移動物体は、隣接するフレーム間での移動量は小さいので、距離d(t,c)が大きいほどその前景はノイズである可能性が高くなり、距離d(t,c)が小さいほどその前景が小移動物体である可能性が高くなる。また、式(1)では、距離d(t、c)を前景度p(i,c)で除算しているので、抽出された前景の前景度(前景らしさ)が高いほど、スコアF(i)は小さくなる。よって、スコアF(i)が小さいほど、その前景抽出モデルの精度が高いことを示す。
前景抽出モデル選択部22は、供給された時系列特徴、即ち、各前景抽出モデルのスコアF(i)に基づいて、複数の前景抽出モデルから、1又は複数の前景抽出モデルを選択する。典型的な例では、前景抽出モデル選択部22は、複数の前景抽出モデルのうち、スコアF(i)が最小である1つの前景抽出モデルを選択する。別の例では、前景抽出モデル選択部22は、スコアF(i)が小さい方から所定数の前景抽出モデルを選択し、それらを組み合わせて使用してもよい。
前景領域生成部23は、前景抽出モデル選択部22が選択した前景抽出モデルを用いて、入力画像から前景の領域(「前景領域」と呼ぶ。)を抽出し、出力する。例えば、前景抽出モデル選択部22が、スコアF(i)の最も小さい1つの前景抽出モデルを選択した場合、前景領域生成部23は、その前景抽出モデルを前景抽出モデル記憶部27から取得し、入力画像に適用して前景領域を抽出し、出力する。一方、前景抽出モデル選択部22が複数の前景抽出モデルを選択した場合、前景領域生成部23は、それらの前景抽出モデルを用いて生成した前景抽出結果に対して前述の投票を実施し、過半数を超える前景領域を前景領域として出力してもよい。
(前景抽出処理)
図6は、前景抽出装置100による前景抽出処理のフローチャートである。この処理は、図1に示すプロセッサ13が、予め用意されたプログラムを実行し、図2に示す各要素として動作することにより実現される。
まず、時系列特徴生成部21は、複数の前景抽出モデルを用いて、入力画像の複数のフレームから前景抽出を行い、前景抽出結果を生成する(ステップS11)。次に、時系列特徴生成部21は、トラッカーが存在するか否かを判定する(ステップS12)。トラッカーが存在しない場合(ステップS12:No)、時系列特徴生成部21は、前述の方法でトラッカーを生成する(ステップS13)。
トラッカーが存在する場合(ステップS12:Yes)、時系列特徴生成部21は、複数の前景抽出結果から、前景抽出モデル毎に時系列特徴を生成する(ステップS14)。この時系列特徴は、各前景抽出モデルのスコアF(i)である。次に、前景抽出モデル選択部22は、各前景抽出モデルのスコアF(i)に基づいて前景抽出モデルを選択する(ステップS15)。そして、前景領域生成部23は、選択された前景抽出モデルを用いて、前景領域を生成する(ステップS16)。
次に、入力画像に残りのフレームがあるか否かが判定される(ステップS17)。残りのフレームがある場合(ステップS17:Yes)、処理はステップS11へ戻る。一方、残りのフレームがない場合(ステップS17:No)、処理は終了する。
(トラッカー生成方法の変形例)
図3を参照して説明したトラッカー生成方法では、1フレームの画像からトラッカーを生成している。その代わりに、複数フレームの画像を用いてトラッカーを生成してもよい。図7及び図8は、複数フレームの画像を用いてトラッカーを生成する方法を示す。図7に示すように、時系列特徴生成部21は、まず、第1フレームから第3フレームのそれぞれにおいて前述の方法でトラッカーを生成する。次に、図8(A)に示すように、各フレームのトラッカーを次のフレームの全てのトラッカーと接続する。そして、時系列特徴生成部21は、各接続により示されるトラッカーのペアから、画像上の移動距離及び前景度に基づいて最適な接続を選択する。図8(B)の例では、画像上の移動距離及び前景度に基づいて、接続91、92により三角形のトラッカーが生成され、接続93、94により円形のトラッカーが生成されている。
[第2実施例]
次に、第1実施形態の第2実施例について説明する。第1実施例の前景抽出装置100は適切な前景抽出モデルを選択し、それを用いて前景領域を生成し、出力している。第2実施例の前景抽出装置100xは、生成した前景領域を用いて、さらに前景に対応する物体の識別を行う。
(機能構成)
図9は、第1実施形態の第2実施例に係る前景抽出装置100xの機能構成を示すブロック図である。図2と比較すると理解されるように、第2実施例に係る前景抽出装置100xは、第1実施例に係る前景抽出装置100の構成に加えて、時系列特徴計算部31と、物体識別部32と、物体識別モデル記憶部34とを備える。また、第1実施例の分類モデル記憶部25の代わりに、前景識別モデル記憶部33が設けられる。
時系列特徴生成部21は、第1実施例と同様に、入力画像に基づいて時系列特徴を抽出する。但し、時系列特徴生成部21は、第1実施例における分類モデルの代わりに、前景識別モデル記憶部33から前景識別モデルを取得し、その前景識別モデルを用いて前景度を算出する。なお、前景識別モデルは、入力された前景の形状に基づいて、その前景が識別対象の物体である確率を示す前景度(スコア)を出力するモデルである。
前景抽出モデル選択部22と前景領域生成部23は、第1実施例と同様に動作する。時系列特徴計算部31は、前景領域生成部23が出力した前景領域について、新たに時系列特徴を計算する。具体的には、時系列特徴計算部31は、前景領域生成部23が生成した前景領域について、前述の式(1)を用いて時系列特徴としてのスコアFを算出する。この際、時系列特徴計算部31は、前景抽出モデル22が選択した前景抽出モデルについてのスコアFを算出すればよい。
物体識別部32は、物体識別モデル記憶部34から物体識別モデルを取得し、それを用いて物体を識別する。具体的には、物体識別部32は、物体識別モデルを用いて、複数のフレームにおいて抽出された前景領域と、各フレームについて算出された時系列特徴とに基づいて物体を識別する。図10は、物体識別部32による物体識別の方法を説明する図である。図10の例では、物体識別部32は、連続する3フレームの画像を用いて物体識別を行うものとする。この場合、物体識別部32は、第1~第3フレームの画像に含まれる前景領域と、第1及び第2フレームに含まれる前景領域に基づいて計算された時系列特徴(スコアF2)と、第2及び第3フレームに含まれる前景領域に基づいて計算された時系列特徴(スコアF3)とに基づいて、物体の識別を行う。そして、物体識別部32は、物体識別結果を出力する。
(物体識別処理)
図11は、前景抽出装置100xによる物体識別処理のフローチャートである。この処理は、図1に示すプロセッサ13が、予め用意されたプログラムを実行し、図2に示す各要素として動作することにより実現される。ここで、図11に示す物体識別処理のステップS21~S26は、図6に示す前景抽出処理のステップS11~S16と同様であるので、説明を省略する。
ステップS26において、選択モデルにより選択された前景抽出モデルを用いて前景領域が生成されると、時系列特徴計算部31は、生成された前景領域について時系列特徴を生成する(ステップS27)。そして、物体識別部32は、複数フレームの画像における前景領域と、生成された時系列特徴とに基づいて、前景領域に対応する物体を識別し、物体識別結果を出力する(ステップS28)。この際、所定の物体として識別されなかった前景は、ノイズとして除去される。
次に、入力画像に残りのフレームがあるか否かが判定される(ステップS29)。残りのフレームがある場合(ステップS29:Yes)、処理はステップS21へ戻る。一方、残りのフレームがない場合(ステップS29:No)、処理は終了する。
以上のように、第1実施形態の第2実施例によれば、適切な前景抽出モデルを使用して前景領域を抽出した後、その前景領域に対応する物体の識別まで行うことができる。また、物体を識別することにより、所定の物体以外の前景領域をノイズとして除去することができる。
<第2実施形態>
次に、本発明の第2実施形態について説明する。第1実施形態では、入力画像から時系列特徴を生成し、これを用いて適切な前景抽出モデルを選択している。これに対し、第2実施形態では、入力画像とその正解データを用いて、前景抽出モデルを選択する選択モデルを学習する。そして、学習済の選択モデルを用いて、複数の前景選択モデルから適切な前景選択モデルを選択する。なお、第2実施形態による前景抽出装置のハードウェア構成は第1実施形態と同様であるので、説明を省略する。
[第1実施例]
(機能構成)
図12(A)は、第2実施形態の第1実施例による、学習時の前景抽出装置200の機能構成を示すブロック図である。学習時の前景抽出装置200は、選択モデル学習部41と、選択モデル記憶部42と、正解データ記憶部43とを備える。
選択モデル記憶部42は、複数の前景抽出モデルから適切な1つ又は複数の前景選択モデルを選択する選択モデルを記憶している。選択モデル学習部41は、選択モデル記憶部42から選択モデルを取得し、その学習を行う。具体的に、選択モデル学習部41は、入力画像に対応する正解データを正解データ記憶部43から取得し、入力画像と、それに対応する正解データとを用いて選択モデルの学習を行う。学習が終了すると、選択モデル学習部41は、学習済みの選択モデルを選択モデル記憶部42に記憶する。
図12(B)は、予測時の前景抽出装置210の機能構成を示すブロック図である。予測時とは、撮影画像から実際に物体を検出するときを言う。予測時の前景抽出装置210は、前景抽出モデル選択部44と、選択モデル記憶部42と、前景領域生成部45と、前景抽出モデル記憶部46とを備える。なお、選択モデル記憶部42には、学習時の前景抽出装置200により学習済みの選択モデルが記憶されている。
予測時には、前景抽出モデル選択部44は、選択モデル記憶部42に記憶されている学習済みの選択モデルを取得し、入力画像に基づいて最適な前景抽出モデルを選択し、その前景抽出モデルを示す情報を前景領域生成部45に出力する。前景抽出モデル記憶部46は、複数の前景抽出モデルを予め記憶している。前景領域生成部45は、前景抽出モデル選択部44が選択した前景抽出モデルを前景抽出モデル記憶部46から取得し、それを用いて入力画像から前景領域を生成し、出力する。こうして、学習済みの選択モデルを用いて、複数の前景抽出モデルから適切な前景抽出モデルを選択し、それを用いて前景領域を抽出することができる。
(選択モデル)
次に、第2実施形態の第1実施例による選択モデル及びその学習方法について説明する。第1実施例は、強化学習の手法を用いて選択モデルを学習する。まず、選択モデル学習部41は、図13に示すように、入力画像の隣接するN個のフレーム(図13の例では4フレーム)をニューラルネットワークを用いた特徴抽出器に入力し、入力画像の特徴ベクトルを生成する。特徴抽出器は、一般物体認識で利用される特徴抽出器であれば何でもよく、例えばVGG16、ResNetなどを用いることができる。なお、特徴抽出器は、既に学習済みのものである。
図14は、選択モデル学習部41における学習方法を模式的に示す。選択モデル学習部41は、特徴抽出器により得られた入力画像の特徴ベクトルを強化学習における「状態s」として用いる。また、選択モデル学習部41は、複数の前景抽出モデルから適切なものを選択する行動を「a」とする。行動aは、以下のように表される。
Figure 0007347539000002
また、状態sのときに行動aを選択したときの報酬を「r」とすると、報酬rは以下のように、前景抽出モデルの出力と正解データとの差として与えられる。
Figure 0007347539000003
なお、「Iik」は、iフレームのときにkモデルで前景抽出した結果を示し、「I」は正解データを示す。よって、選択モデルにより選択された前景抽出モデルの出力と正解データとの差が小さくなるほど、高い報酬rが与えられる。
選択モデル学習部41は、画像の特徴ベクトルである状態s、前景抽出モデルを選択する行動a、報酬rを用いて、選択モデルQ(s,a)(以下、「Q値」又は「価値Q」とも呼ぶ。)を学習する。選択モデルQ(s,a)は以下の式で与えられる。
Figure 0007347539000004
ここで、「α」、「γ」は設計者が決めるパラメータである。また、学習の回数、終了条件なども設計者により決定される。そして、学習が終了すると、学習済みの選択モデルが選択モデル記憶部42に記憶される。
予測時には、前景抽出モデル選択部44は、学習済みの選択モデルを用いて、入力画像から適切な前景抽出モデルを選択する。図15は、前景抽出モデルを選択する例を示す。この例では、選択モデルは3つの前景抽出モデル1~3についてQ値を算出し、前景抽出モデル1によるQ値が最大となっている。よって、前景抽出モデル選択部44は、前景抽出モデル1を選択する。また、例えば選択モデルが上位2個の前景抽出モデルを選択する場合には、Q値の大きいほうから、前景抽出モデル1及び3を選択すればよい。そして、前景領域生成部45は、選択された前景抽出モデルを用いて、入力画像から前景領域を抽出する。
[第2実施例]
次に、第2実施形態の第2実施例について説明する。第2実施例の前景抽出装置のハードウェア構成は図1に示す第1実施形態と同様であり、機能構成は図12に示す第2実施形態の第1実施例と同様である。
(選択モデル)
次に、第2実施形態の第2実施例による選択モデル及びその学習方法について説明する。第2実施例は、教師あり学習の手法を用いて選択モデルを学習する。図16は、第2実施形態の第2実施例による選択モデルの学習方法を模式的に示す。
学習時には、まず、入力画像が尤度推定器に入力される。尤度推定器はニューラルネットワークにより構成され、例えば、CNN(Convolutional Neural Network)、RNN(Recurrent Nueral Network)などを用いることができる。尤度推定器は、入力画像に基づいて、各前景抽出モデルの選択尤度を学習する。図16の例では、尤度推定器は、前景抽出モデル1~Nのそれぞれについて、そのモデルの混合割合を示す重みWを出力する。そして、各前景抽出モデルの重みW~Wを用いて、前景抽出モデル1~Nの認識結果I~Iを重み付け加算することにより予測結果(ΣW×I)を生成する。
選択モデル学習部41は、予測結果と正解データとの差(損失)が小さくなるように、尤度推定器のパラメータを学習する。学習が終了すると、選択モデル学習部41は、学習済みの尤度推定器のパラメータを含む選択モデルを選択モデル記憶部42に記憶する。
予測時には、前景抽出モデル選択部44は、学習済みの選択モデルを選択モデル記憶部42から取得し、それを用いて入力画像から適切な前景抽出モデルを選択する。具体的に、選択モデルは、尤度推定器が出力した重みWに応じて、1又は複数の前景抽出モデルを選択する。前景領域生成部45は、選択された前景抽出モデルを前景抽出モデル記憶部46から取得し、重みWの割合でそれらを用いて入力画像から前景領域を抽出する。
(変形例)
図17は、第2実施形態の第2実施例の変形例による選択モデルの学習方法を模式的に示す。図16に示す第2実施形態の第2実施例では、尤度推定器は各前景抽出モデルに対する重みWを出力している。これに対し、この変形例では、尤度推定器は、各前景抽出モデルについて、そのモデルの選択尤度を示す空間マップWを出力する。具体的に、空間マップWは、n×n次元のマップであり、各画素に対応する係数は入力画像の対応位置におけるその前景抽出モデルの尤度を示す。なお、空間マップのサイズは、入力画像の一部に対応する。図17の例では、空間マップWの画素のうち、暗い色の画素ほど高い係数が設定される。
各空間マップWは、各前景抽出モデルの認識結果I~Iと乗算され、それらの総和が予測結果として出力される。具体的に、選択モデルは、尤度推定器が出力した空間マップWに応じて、1又は複数の前景抽出モデルを選択する。前景領域生成部45は、選択された前景抽出モデルを前景抽出モデル記憶部46から取得し、空間マップに応じてそれらを用いて入力画像から前景領域を抽出する。
このように、各前景抽出モデルの選択尤度を示す空間マップを出力することにより、入力画像の部分毎に適正の高い前景抽出モデルを選択して前景領域が抽出されることになる。例えば、図17の例において、前景抽出モデル1は円形の前景を高精度で抽出する性質を有し、前景抽出モデルNは三角形の前景を高精度で抽出する性質を有するものとする。この場合、前景抽出モデル1に対応する空間マップWは入力画像の円形の部分に注目するものとなり、前景抽出モデルNに対応する空間マップWは入力画像の三角形の部分に注目するものとなる。よって、1枚の入力画像を構成する部分毎に最適な前景抽出モデルが選択される。これにより、各前景抽出モデルの検出容易性の異なる対象が同一のフレームに映り込んだ場合でも、各対象の検出に最適な前景抽出モデルを選択することが可能となる。なお、こうして学習された選択モデルを用いて予測を行う際の動作は、第2実施例の第2実施例の場合と同様である。
<第3実施形態>
図18は、第3実施形態に係る前景抽出装置70の機能構成を示すブロック図である。なお、前景抽出装置70のハードウェア構成は、図1と同様である。図示のように、前景抽出装置70は、抽出結果生成部71と、選択部72と、前景領域生成部73と、を備える。
抽出結果生成部71は、入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成する。選択部72は、各前景抽出モデルによる前景抽出結果を用いて、複数の前景抽出モデルから1又は複数の前景抽出モデルを選択する。前景領域生成部73は、選択された前景抽出モデルを用いて、入力画像から前景領域を抽出する。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成する抽出結果生成部と、
各前景抽出モデルによる前景抽出結果を用いて、前記複数の前景抽出モデルから1又は複数の前景抽出モデルを選択する選択部と、
選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する前景領域生成部と、
を備える前景抽出装置。
(付記2)
前記選択部は、前記入力画像に基づいて、前記複数の前景抽出モデル毎に時系列特徴を生成し、生成した時系列特徴に基づいて前記前景抽出モデルを選択する付記1に記載の前景抽出装置。
(付記3)
前記選択部は、前記入力画像に基づいてトラッカーを生成し、前記トラッカーと前記前景抽出結果に含まれる前景との距離を算出し、前記距離を用いて前記時系列特徴を生成する付記2に記載の前景抽出装置。
(付記4)
前記選択部は、前記前景抽出結果に含まれる各前景の前景度を算出し、前記前景度を用いて前記時系列特徴を生成する付記3に記載の前景抽出装置。
(付記5)
前記時系列特徴は、前記距離を前記前景度で除した値を全てのトラッカー及び全ての前景について合計した合計値を、前記トラッカーの数で除した値で示され、
前記選択部は、前記時系列特徴の値が最小である前景抽出モデルを選択する付記4に記載の前景抽出装置。
(付記6)
前記前景領域生成部が生成した前景領域に対する時系列特徴を計算する時系列特徴計算部と、
前記入力画像と、前記時系列特徴計算部が計算した時系列特徴とに基づいて、前記前景領域に対応する物体を識別する物体識別部と、
を備える付記2乃至5のいずれか一項に記載の前景抽出装置。
(付記7)
前記選択部は、前記入力画像と、前記前景抽出結果の正解データとを用いて学習済の選択モデルを用いて、前記前景抽出モデルを選択する付記1に記載の前景抽出装置。
(付記8)
前記選択モデルは、前記入力画像から抽出された特徴ベクトルを状態sとし、前記前景抽出結果と前記正解データとの差を報酬rとし、前記状態sにおいて前記複数の前景抽出モデルのいずれかを選択する行動aをとったときの価値Q(s,a)が大きくなるように学習されており、
前記選択部は、前記価値Q(s,a)に基づいて前記前景抽出モデルを選択する付記7に記載の前景抽出装置。
(付記9)
前記価値Q(s,a)は、
Figure 0007347539000005
で与えられる付記8に記載の前景抽出装置。
(付記10)
前記選択モデルは、入力画像に基づいて尤度推定器が算出した前記前景抽出モデル毎の重みと、前記前景抽出モデル毎の前景抽出結果との重み付き和を予測結果とし、前記予測結果と前記正解データとの差が小さくなるように学習されており、
前記選択部は、前記前景抽出モデル毎の重みに基づいて前記前景抽出モデルを選択する付記7に記載の前景抽出装置。
(付記11)
前記選択モデルは、入力画像に基づいて尤度推定器が算出した前記前景抽出モデル毎の空間マップと、前記前景抽出モデル毎の前景抽出結果との積の総和を予測結果とし、前記予測結果と前記正解データとの差が小さくなるように学習されており、
前記選択部は、前記前景抽出モデル毎の空間マップに基づいて前記前景抽出モデルを選択する付記7に記載の前景抽出装置。
(付記12)
入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成し、
各前景抽出モデルによる前景抽出結果を用いて、前記複数の前景抽出モデルから1又は複数の前景抽出モデルを選択し、
選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する前景抽出方法。
(付記13)
入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成し、
各前景抽出モデルによる前景抽出結果を用いて、前記複数の前景抽出モデルから1又は複数の前景抽出モデルを選択し、
選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する処理をコンピュータに実行させるプログラムを記録した記録媒体。
以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
21 時系列特徴生成部
22、44 前景抽出モデル選択部
23、45 前景領域生成部
24 時系列情報記憶部
25 分類モデル記憶部
26、42 選択モデル記憶部
27、46 前景抽出モデル記憶部
31 時系列特徴計算部
32 物体識別部
33 前景識別モデル記憶部
41 選択モデル学習部
100、100x、200、210 前景抽出装置

Claims (10)

  1. 入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成する抽出結果生成手段と、
    前記入力画像に基づいてトラッカーを生成し、前記トラッカーと前記前景抽出結果に含まれる前景との距離を算出し、前記距離を用いて時系列特徴を生成し、生成した時系列特徴に基づいて前景抽出モデルを選択する選択手段と、
    選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する前景領域生成手段と、
    を備える前景抽出装置。
  2. 前記選択手段は、前記前景抽出結果に含まれる各前景の前景度を算出し、前記前景度を用いて前記時系列特徴を生成する請求項に記載の前景抽出装置。
  3. 前記時系列特徴は、前記距離を前記前景度で除した値を全てのトラッカー及び全ての前景について合計した合計値を、前記トラッカーの数で除した値で示され、
    前記選択手段は、前記時系列特徴の値が最小である前景抽出モデルを選択する請求項に記載の前景抽出装置。
  4. 前記前景領域生成手段が生成した前景領域に対する時系列特徴を計算する時系列特徴計算手段と、
    前記入力画像と、前記時系列特徴計算手段が計算した時系列特徴とに基づいて、前記前景領域に対応する物体を識別する物体識別手段と、
    を備える請求項乃至のいずれか一項に記載の前景抽出装置。
  5. 前記選択手段は、前記入力画像と、前記前景抽出結果の正解データとを用いて学習済の選択モデルを用いて、前記前景抽出モデルを選択する請求項1に記載の前景抽出装置。
  6. 前記選択モデルは、前記入力画像から抽出された特徴ベクトルを状態sとし、前記前景抽出結果と前記正解データとの差を報酬rとし、前記状態sにおいて前記複数の前景抽出モデルのいずれかを選択する行動aをとったときの価値Q(s,a)が大きくなるように学習されており、
    前記選択手段は、前記価値Q(s,a)に基づいて前記前景抽出モデルを選択する請求項に記載の前景抽出装置。
  7. 前記選択モデルは、入力画像に基づいて尤度推定器が算出した前記前景抽出モデル毎の重みと、前記前景抽出モデル毎の前景抽出結果との重み付き和を予測結果とし、前記予測結果と前記正解データとの差が小さくなるように学習されており、
    前記選択手段は、前記前景抽出モデル毎の重みに基づいて前記前景抽出モデルを選択する請求項5に記載の前景抽出装置。
  8. 前記選択モデルは、入力画像に基づいて尤度推定器が算出した前記前景抽出モデル毎の空間マップと、前記前景抽出モデル毎の前景抽出結果との積の総和を予測結果とし、前記予測結果と前記正解データとの差が小さくなるように学習されており、
    前記選択手段は、前記前景抽出モデル毎の空間マップに基づいて前記前景抽出モデルを選択する請求項5に記載の前景抽出装置。
  9. 入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成し、
    前記入力画像に基づいてトラッカーを生成し、前記トラッカーと前記前景抽出結果に含まれる前景との距離を算出し、前記距離を用いて時系列特徴を生成し、生成した時系列特徴に基づいて前景抽出モデルを選択し、
    選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する前景抽出方法。
  10. 入力画像について、複数の前景抽出モデルを用いて前景抽出を行って前景抽出結果を生成し、
    前記入力画像に基づいてトラッカーを生成し、前記トラッカーと前記前景抽出結果に含まれる前景との距離を算出し、前記距離を用いて時系列特徴を生成し、生成した時系列特徴に基づいて前景抽出モデルを選択し、
    選択された前景抽出モデルを用いて、前記入力画像から前景領域を抽出する処理をコンピュータに実行させるプログラム。
JP2021565178A 2019-12-16 2019-12-16 前景抽出装置、前景抽出方法、及び、プログラム Active JP7347539B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/049236 WO2021124417A1 (ja) 2019-12-16 2019-12-16 前景抽出装置、前景抽出方法、及び、記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021124417A1 JPWO2021124417A1 (ja) 2021-06-24
JPWO2021124417A5 JPWO2021124417A5 (ja) 2022-07-25
JP7347539B2 true JP7347539B2 (ja) 2023-09-20

Family

ID=76477319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021565178A Active JP7347539B2 (ja) 2019-12-16 2019-12-16 前景抽出装置、前景抽出方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20230010199A1 (ja)
JP (1) JP7347539B2 (ja)
WO (1) WO2021124417A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319236A (ja) 2000-05-10 2001-11-16 Nippon Hoso Kyokai <Nhk> 動き物体の形状抽出方法と装置
JP2010205007A (ja) 2009-03-04 2010-09-16 Omron Corp モデル画像取得支援装置、モデル画像取得支援方法およびモデル画像取得支援プログラム
JP2019169145A (ja) 2018-03-22 2019-10-03 キヤノン株式会社 画像処理装置および方法、並びに、命令を格納する記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319236A (ja) 2000-05-10 2001-11-16 Nippon Hoso Kyokai <Nhk> 動き物体の形状抽出方法と装置
JP2010205007A (ja) 2009-03-04 2010-09-16 Omron Corp モデル画像取得支援装置、モデル画像取得支援方法およびモデル画像取得支援プログラム
JP2019169145A (ja) 2018-03-22 2019-10-03 キヤノン株式会社 画像処理装置および方法、並びに、命令を格納する記憶媒体

Also Published As

Publication number Publication date
JPWO2021124417A1 (ja) 2021-06-24
US20230010199A1 (en) 2023-01-12
WO2021124417A1 (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
US11450146B2 (en) Gesture recognition method, apparatus, and device
CN109478239B (zh) 检测图像中的对象的方法和对象检测系统
CN107403426B (zh) 一种目标物体检测方法及设备
CN109670474B (zh) 一种基于视频的人体姿态估计方法、装置及设备
JP7263216B2 (ja) ワッサースタイン距離を使用する物体形状回帰
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
KR20180055070A (ko) 재질 인식 및 재질 트레이닝을 수행하는 방법 및 장치
JP6756406B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2016179808A1 (en) An apparatus and a method for face parts and face detection
JP7059695B2 (ja) 学習方法および学習装置
US11836944B2 (en) Information processing apparatus, information processing method, and storage medium
JP7364041B2 (ja) 物体追跡装置、物体追跡方法、及び、プログラム
JP7384217B2 (ja) 学習装置、学習方法、及び、プログラム
JP2007025902A (ja) 画像処理装置、画像処理方法
JP7209657B2 (ja) 情報処理装置及び方法
JP6622150B2 (ja) 情報処理装置および情報処理方法
JP7347539B2 (ja) 前景抽出装置、前景抽出方法、及び、プログラム
JP7331947B2 (ja) 物体識別装置、物体識別方法、学習装置、学習方法、及び、プログラム
KR20180082680A (ko) 분류기를 학습시키는 방법 및 이를 이용한 예측 분류 장치
JP6989873B2 (ja) システム、画像認識方法、及び計算機
JP7331949B2 (ja) 画像処理装置、画像処理方法、学習装置、学習方法、及び、プログラム
US20240095934A1 (en) Image processing apparatus, training apparatus, image processing method, training method, and non-transitory computer-readable medium
JP7233610B2 (ja) 情報処理装置、プログラム及び情報処理方法
JP2005071125A (ja) 被写体検出装置、被写体検出方法、被写体データ選定プログラムおよび被写体位置検出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7347539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151