JPWO2018011870A1 - 動画像処理装置、動画像処理方法及び動画像処理プログラム - Google Patents

動画像処理装置、動画像処理方法及び動画像処理プログラム Download PDF

Info

Publication number
JPWO2018011870A1
JPWO2018011870A1 JP2018527274A JP2018527274A JPWO2018011870A1 JP WO2018011870 A1 JPWO2018011870 A1 JP WO2018011870A1 JP 2018527274 A JP2018527274 A JP 2018527274A JP 2018527274 A JP2018527274 A JP 2018527274A JP WO2018011870 A1 JPWO2018011870 A1 JP WO2018011870A1
Authority
JP
Japan
Prior art keywords
moving image
frame
similarity
sequence
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018527274A
Other languages
English (en)
Other versions
JP6419393B2 (ja
Inventor
尚吾 清水
尚吾 清水
宏一 中島
宏一 中島
崇 西辻
崇 西辻
勝大 草野
勝大 草野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018011870A1 publication Critical patent/JPWO2018011870A1/ja
Application granted granted Critical
Publication of JP6419393B2 publication Critical patent/JP6419393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

取得部(106)は、クエリ動画像の特徴量の集合であるクエリ特徴量(30)と、候補動画像の特徴量の集合である特徴量レコード(40)とを取得する。類似度マップ生成部(107)は、クエリ特徴量(30)と特徴量レコード(40)との比較を行い、候補動画像のフレームごとにクエリ特徴量(30)と特徴量レコード(40)との類似度を算出して類似度が時系列に並べられた類似度列を生成し、候補動画像のフレームごとの類似度列が候補動画像のフレームの順に並べられた類似度マップを生成する。

Description

本発明は、動画像処理技術に関する。
従来、動画像から抽出した動きベクトルから算出した特徴量から、動画像中の特定のシーンを検索する技術として、例えば特許文献1に示す技術がある。特許文献1では、動画像中の特定範囲における動きベクトルの角度別ヒストグラムに基づき、例えば、テニスの試合画像からサーブを打つシーンを検索する技術が示されている。
特開2013−164667号公報
ところが特許文献1に示す技術は、特徴量の比較過程において時間長の相違があった場合に類似シーンを抽出することができないという課題がある。例えば、人が5秒間で画面を横切るシーンに類似するシーンを動画像から抽出する場合に、10秒間で画面を横切るシーンが動画像に含まれていても、特許文献1の技術によれば、時間長が異なるため、10秒間で画面を横切るシーンを類似シーンとして抽出することができない。
また、特許文献1に示す技術は、特徴量に部分的な不一致の連続があった場合に類似シーンを抽出できないという課題がある。例えば、人が停止することなく画面を横切るシーンに類似するシーンを動画像から抽出する場合に、人が途中で数秒間停止して画面を横切るシーンが動画像に含まれていても、特許文献1の技術によれば、特徴量に部分的な不統一の連続があるため、人が途中で数秒間停止して画面を横切るシーンを類似シーンとして抽出することができない。
特許文献1の上記の課題は、人間の周期動作を繰り返し検出するような適用例を考えた場合に、特許文献1の技術が被写体の体調変化や周囲の環境変動によって生じる動作の乱れに対応できないことを意味する。人間の周期動作が、全周期に渡って完全には一致し得ないことを考えれば、この課題への対応は、動画像の類似シーン抽出には必須である。
本発明は、上記の課題を解決することを主な目的とする。より具体的には、本発明は、比較対象の動作の時間長の相違及び比較対象の動作の間に特徴量の部分的な不一致の連続があっても類似シーンを抽出できるようにすることを主な目的とする。
本発明に係る動画像処理装置は、
複数のフレームで構成される第1の動画像の各フレームに対して生成された特徴量である第1の特徴量が前記第1の動画像のフレームの順に並べられた第1の特徴量列と、前記第1の動画像よりも多い複数のフレームで構成される第2の動画像の各フレームに対して生成された特徴量である第2の特徴量が前記第2の動画像のフレームの順に並べられた第2の特徴量列とを取得する取得部と、
前記第1の特徴量列と前記第2の特徴量列との比較を、前記第1の特徴量列との比較の対象となる前記第2の動画像の比較対象範囲を前記第2の動画像のフレームの順に移動させながら行い、前記第2の動画像のフレームごとに前記第1の特徴量列内の前記第1の特徴量と比較対象範囲の前記第2の特徴量列内の前記第2の特徴量との類似度を算出して前記類似度が時系列に並べられた類似度列を生成し、前記第2の動画像のフレームごとの類似度列が前記第2の動画像のフレームの順に並べられた類似度マップを生成する類似度マップ生成部とを有する。
本発明により得られる類似度マップを解析することで、比較対象の動作の時間長の相違及び比較対象の動作の間に特徴量の部分的な不一致の連続があっても類似シーンを抽出することができる。
実施の形態1及び2に係る動画像処理装置の機能構成例を示す図。 実施の形態1及び2に係る動画像処理装置のハードウェア構成例を示す図。 実施の形態1に係る動画像処理装置の動作例を示すフローチャート図。 実施の形態2に係る動画像処理装置の動作例を示すフローチャート図。 実施の形態2に係る類似度マップの生成例を示す図。 実施の形態2に係る類似度マップ上の最適パスの例を示す図。 実施の形態2に係る類似度マップ上の最適パスの例を示す図。 実施の形態2に係る類似区間推定手法の例を示す図。 実施の形態2に係る類似度マップの例を示す図。 実施の形態2に係る類似度マップ上の最適パスの例を示す図。 実施の形態2に係る類似度マップ上の最適パスの例を示す図。
以下、本発明の実施の形態について、図を用いて説明する。以下の実施の形態の説明及び図面において、同一の符号を付したものは、同一の部分または相当する部分を示す。
実施の形態1.
本実施の形態では、動画像から抽出した動きベクトルの角度別ヒストグラムを特徴量として生成する構成を説明する。
***構成の説明***
図1は、実施の形態1及び2に係る動画像処理装置10の機能構成例を示す。
また、図2は実施の形態1及び2に係る動画像処理装置10のハードウェア構成例を示す。
なお、動画像処理装置10で行われる動作は、動画像処理方法に相当する。
まず、図2を参照して、動画像処理装置10のハードウェア構成例を説明する。
図2に示すように、動画像処理装置10は、入力インタフェース201、プロセッサ202、出力インタフェース203及び記憶装置204を備えるコンピュータである。
入力インタフェース201は、例えば、図1に示す動画像動き情報20及びクエリ特徴量30を取得する。入力インタフェース201は、例えば、マウス、キーボード等の入力装置である。また、動画像処理装置10が通信により動画像動き情報20及びクエリ特徴量30を取得する場合は、入力インタフェース201は通信装置である。また、動画像処理装置10が動画像動き情報20及びクエリ特徴量30をファイルとして取得する場合は、HDD(Hard Disk Drive)とのインタフェース装置である。
プロセッサ202は、図1に示す特徴量抽出部11、特徴量比較部12及び入力数カウンタ104を実現する。つまり、プロセッサ202は、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の機能を実現するプログラムを実行する。
図2は、プロセッサ202が特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の機能を実現するプログラムを実行している状態を模式的に示している。
なお、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の機能を実現するプログラムは、動画像処理プログラムの例である。
プロセッサ202は、プロセッシングを行うIC(Integrated Circuit)であり、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
記憶装置204は、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の機能を実現するプログラムを記憶している。
記憶装置204は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、HDD等である。
出力インタフェース203は、プロセッサ202の解析結果を出力する。出力インタフェース203は、例えばディスプレイである。また、動画像処理装置10がプロセッサ202の解析結果を送信する場合は、出力インタフェース203は通信装置である。また、動画像処理装置10がプロセッサ202の解析結果をファイルとして出力する場合は、出力インタフェース203はHDDとのインタフェース装置である。
次に、図1を参照して、動画像処理装置10の機能構成例を説明する。
なお、本実施の形態では、動画像動き情報20、特徴量抽出部11及び入力数カウンタ104についてのみ説明し、クエリ特徴量30、特徴量レコード40、特徴量比較部12及び類似区間情報50は実施の形態2で説明する。
動画像動き情報20は、動画像から抽出された動きベクトルが示される情報である。
特徴量抽出部11は、フィルタ101、偏角算出部102、ヒストグラム生成部103及び平滑化処理部105で構成される。
フィルタ101は、入力インタフェース201を介して取得された動画像動き情報20から既定の条件に合致する動画像動き情報20を選別する。そして、フィルタ101は、選別した動画像動き情報20を偏角算出部102に出力する。
偏角算出部102は、動画像に含まれるフレームごとに、フィルタ101から取得した動画像動き情報20の動きベクトルの偏角成分を算出する。そして、偏角算出部102は、算出結果をヒストグラム生成部103に出力する。
なお、偏角算出部102で行われる処理は、偏角算出処理に相当する。
ヒストグラム生成部103は、偏偏角算出部102の偏角成分の算出結果を用いて、フレームごとに偏角成分のヒストグラムデータを生成する。また、ヒストグラム生成部103は、入力数カウンタ104から処理開始通知が出力された際に、平滑化処理部105にヒストグラムデータの完成を通知する。
なお、ヒストグラム生成部103で行われる処理は、ヒストグラム生成処理に相当する。
入力数カウンタ104は、入力インタフェース201が取得する動画像動き情報20を計数する。そして、入力数カウンタ104は、動画像1フレーム分の動画像動き情報20が入力された場合に、ヒストグラム生成部103へ処理開始通知を出力する。
平滑化処理部105は、ヒストグラムデータを取得し、取得したヒストグラムデータに対する平滑処理を行って特徴量を生成する。
そして、平滑化処理部105は、生成した特徴量を特徴量レコード40として記憶装置204に格納する。特徴量レコード40の詳細は、実施の形態2で説明する。
***動作の説明***
次に、図3のフローチャートを参照して本実施の形態に係る動画像処理装置10の動作例を説明する。
フィルタ101は、デジタルカメラやネットワークカメラ等で撮影された動画像から抽出された動きベクトルが示される動画像動き情報20を、入力インタフェース201を介して取得する(ステップST301)。
フィルタ101が取得する動画像動き情報20には、例えば、MPEG(Moving Picture Expert Group)等で規定される符号化動きベクトルのように、近接する動画像フレーム間の輝度勾配等から画素ブロック単位で計算される動きベクトルが示される。
次に、フィルタ101は、取得した動画像動き情報20に示される動きベクトルが既定の条件を満たしているか否かを判定する(ステップST302)。フィルタ101は、条件を満たす動きベクトルの動画像動き情報20を偏角算出部102に出力する。
フィルタ101が用いる条件は、例えば、動きベクトルのノルムの上限値の条件及び下限の条件である。
偏角算出部102は、フィルタ101から出力された動画像動き情報20の動きベクトルの偏角成分を算出する(ステップST303)。
そして、偏角算出部102は、算出結果をヒストグラム生成部103に出力する。
ヒストグラム生成部103は、偏角算出部102からの偏角成分の算出結果の取得頻度を、角度別にカウントしてヒストグラムデータを生成する(ステップST304)。そして、ヒストグラム生成部103はヒストグラムデータを記憶装置204に蓄積する。
入力数カウンタ104は、入力インタフェース201が取得する動画像動き情報20を計数し、動画像1フレーム分の動画像動き情報20が入力された際に、ヒストグラム生成部103へ処理開始通知を出力する(ステップST305)。
ヒストグラム生成部103は入力数カウンタ104からの処理開始通知をトリガに、平滑化処理部105にヒストグラムデータの完成を通知する。
平滑化処理部105は、ヒストグラム生成部103からヒストグラムデータの完成が通知されると、記憶装置204からヒストグラムデータを取得し、取得したヒストグラムデータに対する平滑化処理を行う(ステップST306)。
平滑化処理部105は、例えば、取得したヒストグラムデータに先行する任意数の連続するフレームに対してヒストグラム生成部103により生成されたヒストグラムデータを用いた平滑化処理を行って、特徴量を生成する。
より具体的には、平滑化処理部105は、特徴量を生成するフレーム(記憶装置204から取得したヒストグラムデータに対応するフレーム)と任意数の先行するフレームの各々との時間的距離に応じた重み付けを任意数の先行するフレームのヒストグラムデータの各々に適用して平滑化処理を行う。
最後に、平滑化処理部105が、平滑処理後のデータ(特徴量)を特徴量レコード40として記憶装置204に格納する(ステップST307)。
***実施の形態の効果の説明***
特許文献1の技術では、比較対象の動作にスケール差があると、類似シーンを抽出できないという課題がある。
本実施の形態では、動きベクトルの偏角成分のみでヒストグラムを生成して特徴量を得ているので、比較対象の動作にスケール差がある場合でも類似シーンを抽出することができる。
実施の形態2.
本実施の形態では、2つ以上の動画像から抽出した特徴量の比較から類似度を算出し、高い類似度が最も連続する区間を、例えば動的計画法などの、時間長の相違、あるいは部分的な不一致の連続を考慮したマッチング手法によって推定することで、動画像の類似区間を抽出する構成を説明する。
***構成の説明***
本実施の形態では、図1に示すクエリ特徴量30、特徴量レコード40、特徴量比較部12及び類似区間情報50を説明する。
クエリ特徴量30は、特徴量列である。より具体的には、クエリ特徴量30は、複数のフレームで構成されるクエリ動画像の各フレームに対して生成された特徴量がクエリ動画像のフレームの順に並べられた特徴量列である。
クエリ動画像は、検索対象の動きが表されている動画像である。
例えば、クエリ動画像が300枚のフレームで構成されている場合は、クエリ特徴量30には、300個の特徴量がフレームの順に並べられている。
クエリ特徴量30を構成する各特徴量は、実施の形態1で説明した生成方法と同様の方法で生成された特徴量(平準化処理後のヒストグラムデータ)である。
クエリ動画像は第1の動画像に相当する。クエリ特徴量30は第1の特徴量列に相当する。更に、クエリ動画像の各フレームの特徴量は第1の特徴量に相当する。
特徴量レコード40も特徴量列である。特徴量レコード40は、候補動画像の各フレームに対して生成された特徴量(平準化処理後のヒストグラムデータ)が候補動画像のフレームの順に並べられた特徴量列である。
候補動画像は、クエリ動画像で表される動きと同じ動き又は類似する動きが含まれる可能性がある動画像である。候補動画像は、クエリ動画像よりも多い複数のフレームで構成される。
例えば、候補動画像が3000枚のフレームで構成されている場合は、特徴量レコード40には、3000個の特徴量がフレームの順に並べられている。
特徴量レコード40は、実施の形態1で説明した特徴量抽出部11により生成される。
候補動画像は第2の動画像に相当する。特徴量レコード40は第2の特徴量列に相当する。更に、特徴量レコード40の各フレームの特徴量は第2の特徴量に相当する。
特徴量比較部12は、取得部106、類似度マップ生成部107及び区間抽出部108で構成される。
取得部106は、クエリ特徴量30を入力インタフェース201を介して取得する。また、取得部106は、記憶装置204から特徴量レコード40を取得する。そして、取得部106は、取得したクエリ特徴量30と特徴量レコード40を類似度マップ生成部107に出力する。
取得部106で行われる処理は、取得処理に対応する。
類似度マップ生成部107は、クエリ特徴量30と特徴量レコード40とを比較する。より具体的には、類似度マップ生成部107は、クエリ特徴量30との比較の対象となる候補動画像の比較対象範囲を候補動画像のフレームの順に移動させながらクエリ特徴量30と特徴量レコード40との比較を行う。
そして、類似度マップ生成部107は、候補動画像のフレームごとにクエリ特徴量30内の特徴量と比較対象範囲の特徴量レコード40内の特徴量との類似度を算出して類似度が時系列に並べられた類似度列を生成する。
更に、類似度マップ生成部107は、候補動画像のフレームごとの類似度列を候補動画像のフレームの順に並べて類似度マップを生成する。つまり、類似度マップは、候補動画像のフレームごとの類似度列が候補動画像のフレームの順に並べられている二次元の類似度情報である。
類似度マップ生成部107で行われる処理は、類似度マップ生成処理に相当する。
区間抽出部108は、類似度マップを解析し、クエリ動画像で表されている動きと同じ動き又は類似する動きが表されている候補動画像のフレームの区間である類似区間を抽出する。類似区間は対応区間に相当する。
類似区間情報50は、区間抽出部108が抽出した類似区間が示される情報である。
図5は、類似度マップの例を示す。
図5では、フレーム数Lのクエリ特徴量Sに対して、フレーム数L(0≦L≦L)の特徴量レコードSとの類似度マップを生成する手順を示す。
類似度マップ生成部107は、特徴量レコードSのフレームの順に、フレームごとに、比較対象範囲(L個のフレーム)の始点フレームをシフトさせ、比較対象範囲の各フレームの特徴量とクエリ特徴量Sの対応する位置にあるフレームの特徴量とを比較して、フレームの単位で類似度を算出する。
つまり、類似度マップ生成部107は、特徴量レコードSの0番目のフレームLからの比較対象範囲(フレームL〜Lq−1)に対する比較では、特徴量レコードSのフレームLとクエリ特徴量Sの0番目のフレームLとの比較を行って、類似度を算出する。次に、類似度マップ生成部107は、特徴量レコードSの1番目のフレームLとクエリ特徴量Sの1番目のフレームLとの比較を行って、類似度を算出する。フレームL以降についても類似度マップ生成部107は同様の比較を行う。
特徴量レコードSのフレームLq−1とクエリ特徴量SのフレームLq−1との比較が終わると、類似度マップ生成部107は、特徴量レコードSの1番目のフレームLからの比較対象範囲(フレームL〜L)に対する比較を行う。特徴量レコードSの1番目のフレームLからの比較対象範囲(フレームL〜L)に対する比較では、特徴量レコードSのフレームLとクエリ特徴量Sの0番目のフレームLとの比較を行って、類似度を算出する。次に、類似度マップ生成部107は、特徴量レコードSのフレームLとクエリ特徴量Sの1番目のフレームLとの比較を行って、類似度を算出する。フレームL以降についても類似度マップ生成部107は同様の比較を行う。
特徴量レコードSのフレームLとクエリ特徴量SのフレームLq−1との比較が終わると、類似度マップ生成部107は、特徴量レコードSの2番目のフレームLからの比較対象範囲(フレームL〜Lq+1)に対する比較を行う。以降、類似度マップ生成部107は、同様の処理をフレームLr−qに至るまで繰り返す。以上の処理により得られた各比較対象範囲での類似度列を特徴量レコードSのフレームの順に配列することで類似度マップが得られる。
クエリ特徴量Sの時間軸をt(0≦t<L)、特徴量レコードSの時間軸をt(0≦t<L)とし、特徴量の次元をNとすると、クエリ特徴量Sと特徴量レコードSの類似度Simは、各時間軸の関数として、次式で表せる。
Figure 2018011870
ここで、関数fは特徴量の各次元における類似度を求める関数であり、例えば、コサイン類似度などが適用できる。また、類似度にはノイズ軽減、あるいは強調を目的としたフィルタを適用することができる。例えば、近傍数フレームの類似度に重みをつけて積算し、指数関数フィルタを適用することで、類似度のコントラスト強調ができる。
以上より、類似度マップ生成部107は、2つ以上の特徴量に対する類似度を計算し、類似度マップを生成し、生成した類似度マップを記憶装置204に格納する。更に、類似度マップ生成部107は、区間抽出部108へ類似度マップの生成を通知する。
なお、図5の例では、類似度マップ生成部107は、画像イメージデータの類似度マップを生成しているが、図9に示すように、類似度マップ生成部107が数値データの類似度マップを生成するようにしてもよい。
図9では、破線で囲んでいる数値の列が、特徴量レコードSのn番目のフレームLからの比較対象範囲(フレームL〜Ln+q−1)とクエリ特徴量SのフレームL〜Lq−1との類似度列を示す。なお、図9の例では、類似度は0.0〜1.0の値としている。また、図9に示す、L、Ln+1、Ln+2等は説明用に付したものであり、実際の類似度マップには含まれていない。
***動作の説明***
次に、本実施の形態に係る動画像処理装置10の動作例を図4を参照して説明する。
まず、取得部106がクエリ特徴量30と特徴量レコード40を取得する(ステップST401)。前述したように、取得部106は、クエリ特徴量30を入力インタフェース201を介して取得し、記憶装置204から特徴量レコード40を取得する。そして、取得部106は、取得したクエリ特徴量30と特徴量レコード40を類似度マップ生成部107に出力する。
次に、類似度マップ生成部107が、特徴量レコード40、クエリ特徴量30の参照フレーム位置をそれぞれの開始点t=0、t=0に設定する(ステップST401、ステップST402)。
次に、類似度マップ生成部107は、特徴量レコード40の参照位置を固定し、クエリ特徴量30の参照位置を1フレームずつ移動させながら、式(1)にしたがって各時点における類似度を算出し、算出した類似度を記憶装置204に保存する(ステップST403、ステップST404)。
クエリ特徴量30の参照位置が末尾に達した場合(ステップST405でYES)は、類似度マップ生成部107は、特徴量レコード40の参照位置を正方向に隣接するフレームに移行し(ステップST406)、ステップST402〜ST405の処理を繰り返す。
特徴量レコード40の参照位置が末尾に達した場合(ステップST407でYES)は、類似度マップ生成部107は、処理完了を区間抽出部108に通知する。
区間抽出部108は、類似度マップ生成部107からの通知を取得し、記憶装置204から類似度マップを読み出し、類似度マップから最適パスを抽出する(ステップST408)。
より具体的には、区間抽出部108は、類似度マップから、特徴量レコード40の各フレームから既定範囲w内で、最も類似度が高いパスを最適パスとして抽出する。
図5の類似度マップでは、類似度の高低が画像の明暗と対応して表現されている。図5の類似度マップを用いる場合は、区間抽出部108は、特徴量レコード40の各フレームから既定範囲w内で明度の高い箇所が類似度マップの上部から右下方向に直線状に伸びている箇所を検出することによって最適パスを抽出する。すなわち区間抽出部108は、類似度マップにおいて、特徴量レコード40の各フレームから既定範囲w内で最も高い類似度の積算値を持つパスを選択する。
区間抽出部108の最適パスの抽出手順を図10及び図11を用いて説明する。
図10では、フレームLについての最適パスの抽出手順を示している。
図11では、フレームLn+3についての最適パスの抽出手順を示している。
なお、図10及び図11では、既定範囲w=7としている。つまり、図10では、区間抽出部108はフレームLと当該フレームLに後続する7つのフレームとの範囲(L〜Ln+7)で最適パスを抽出する。また、図11では、区間抽出部108はフレームLn+3と当該フレームLn+3に後続する7つのフレームとの範囲(フレームLn+3〜Ln+10)で最適パスを抽出する。なお、図10及び図11において、一点鎖線で囲んだ範囲が、最適パスの抽出範囲である。
図10に示すように、区間抽出部108は、各行において最も数値が高い類似度を選択する。但し、1行目は、左端の類似度を選択する。図10において、破線で囲んだ類似度が最も数値が高い類似度である。このようにして各行で選択した最も数値が高い類似度(図10の破線で囲んだ類似度)をつないで得られるパスが最適パスである。つまり、最適パスは、各フレームの類似度列と各フレームに後続する既定範囲w内のフレームの類似度列の中から選択された、最も類似度積算値が高くなるパスである。なお、図10において、一点鎖線で囲んだ範囲が、最適パスの抽出範囲である。
図11のように、最適パスが左上から右下45度に向かう最適パスが得られた場合は、クエリ動画像に表される動きと、当該最適パスに対応する候補動画像内の類似区間に表される動きが時間長においても一致している。例えば、人が5秒間で画面を横切るシーンがクエリ動画像に表されている場合に、図11のような最適パスが得られた場合は、当該最適パスに対応する候補動画像内の類似区間にも人が5秒間で画面を横切るシーンが表されている。
区間抽出部108は、最適パスの抽出対象のフレームを、L、Ln+1、Ln+2…とシフトさせて、順次、各フレームに対して最適パスを抽出する。
区間抽出部108は、例えば、動的計画法を用いて類似度マップにおける最適パスを特徴量レコード40の全領域に渡って複数推定する。
動的計画法を用いているため、クエリ動画像に表される動きと候補動画像中の類似する動きとの間に時間長の差異がある場合(図6)でも、区間抽出部108は類似区間を抽出することができる。また、動的計画法を用いているため、クエリ動画像に表される動きと候補動画像中の類似する動きとの間に部分的に連続した不一致区間がある場合(図7)においても、区間抽出部108は類似区間を抽出することができる。
図6及び図7は、図5に示すような画像イメージとして表現されている類似度マップにおいて抽出された最適パスを示している。図6及び図7において、白い線が最適パスを表す。
図6の(a)の最適パスは、図11の最適パスと同様に、左上から右下45度に向かう最適パスである。このため、図6の(a)の最適パスに対応する候補動画像内の類似区間に表される動きは、クエリ動画像に表される動きと時間長においても一致している。
図6の(b)の最適パスが得られた場合は、クエリ動画像の動きの時間長が候補動画像の類似区間の動きの時間長に対して短い。例えば、人が5秒間で画面を横切るシーンがクエリ動画像に表されている場合に、図6の(b)のような最適パスが得られた場合は、当該最適パスに対応する候補動画像内の類似区間には人が10秒間で画面を横切るシーンが表されている。
また、図7の最適パスは、左上から右下45度に向かうパスの途中に水平のパスが含まれている。図7の最適パスが得られた場合は、当該最適パスに対応する候補画像内の類似区間に表される動きには、クエリ動画像に表される動きと、クエリ動画像に表されていない動きとが含まれている。例えば、人が停止することなく画面を横切るシーンがクエリ動画像に表されている場合に、図7のような最適パスが得られた場合は、当該最適パスに対応する候補動画像内の類似区間には、人が途中で数秒間停止して画面を横切るシーンが表される。
以上のようにして最適パスが抽出されると、次に、区間抽出部108は、最適パスを解析して、候補動画像から類似区間を抽出する(図4のステップST409)。
そして、区間抽出部108は、出力インタフェース203から、類似区間の抽出結果を類似区間情報50として出力する。
区間抽出部108は、各フレームの最適パスでの類似度の積算値の波形特徴に基づき、候補動画像から、クエリ動画像の動きと同じ動き又は類似する動きが表される類似区間を抽出する。
類似区間の抽出手順を図8を参照して説明する。
図8は、候補動画像の各フレームでの最適パスの類似度積算値を候補動画像のフレームの順にプロットして得られる類似度積算値の波形を示す。
図8の横軸Tは、候補動画像のフレーム番号に対応する。
区間抽出部108は、複数の最適パスから最適な類似区間を選定するため、図8の波形から、最も確からしい区間を推定する。すなわち、区間抽出部108は、図8の波形において、類似度積算値が周囲と比較して総合的に高い箇所を求めることで、類似区間を推定する。区間抽出部108は、例えば、図8に示したように上限閾値と下限閾値を設け、波形の立ち上がりを検出する手法により類似区間を抽出する。つまり、区間抽出部108は、図8の波形において類似度積算値が下限閾値を上回ってから類似度積算値が上限閾値を下回るまでの間における類似度積算値の極大値に対応する候補動画像のフレームを、類似区間の開始点として抽出する。
この上限閾値と下限閾値は、動画像全体の動き量やヒストグラムのパターンから、動的に変更してもよい。
***実施の形態の効果の説明***
本実施の形態で説明した類似度マップを用いることで、比較対象の動作の時間長の相違及び比較対象の動作の間に特徴量の部分的な不一致の連続があっても類似シーンを抽出することができる。
そして、長時間に渡って撮影された動画像から、特定の動作に類似する区間を時間的な伸縮や部分的な相違を含めて抽出できることで、動画像検索にかかっていた時間を短縮することができる。
以上、本発明の実施の形態について説明したが、これら2つの実施の形態を組み合わせて実施しても構わない。
あるいは、これら2つの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これら2つの実施の形態を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
例えば、実施の形態2では、特徴量比較部12は、実施の形態1で説明した特徴量抽出部11で生成された特徴量、すなわち、動きベクトルの偏角成分の特徴量を用いて候補動画像から類似区間を抽出している。しかし、特徴量比較部12は、動きベクトルとの偏角成分とノルムとの特徴量を用いて候補動画像から類似区間を抽出するようにしてもよい。
***ハードウェア構成の説明***
最後に、動画像処理装置10のハードウェア構成の補足説明を行う。
図2に示す記憶装置204には、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の機能を実現するプログラムの他に、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がプロセッサ202により実行される。
プロセッサ202はOSの少なくとも一部を実行しながら、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の機能を実現するプログラムを実行する。
プロセッサ202がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の処理の結果を示す情報やデータや信号値や変数値が、記憶装置204、プロセッサ202内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、特徴量抽出部11及び特徴量比較部12の「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
また、動画像処理装置10は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)といった電子回路により実現されてもよい。
この場合は、特徴量抽出部11、特徴量比較部12及び入力数カウンタ104は、それぞれ電子回路の一部として実現される。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
10 動画像処理装置、11 特徴量抽出部、12 特徴量比較部、20 動画像動き情報、30 クエリ特徴量、40 特徴量レコード、50 類似区間情報、101 フィルタ、102 偏角算出部、103 ヒストグラム生成部、104 入力数カウンタ、105 平滑化処理部、106 取得部、107 類似度マップ生成部、108 区間抽出部、201 入力インタフェース、202 プロセッサ、203 出力インタフェース、204 記憶装置。

Claims (13)

  1. 複数のフレームで構成される第1の動画像の各フレームに対して生成された特徴量である第1の特徴量が前記第1の動画像のフレームの順に並べられた第1の特徴量列と、前記第1の動画像よりも多い複数のフレームで構成される第2の動画像の各フレームに対して生成された特徴量である第2の特徴量が前記第2の動画像のフレームの順に並べられた第2の特徴量列とを取得する取得部と、
    前記第1の特徴量列と前記第2の特徴量列との比較を、前記第1の特徴量列との比較の対象となる前記第2の動画像の比較対象範囲を前記第2の動画像のフレームの順に移動させながら行い、前記第2の動画像のフレームごとに前記第1の特徴量列内の前記第1の特徴量と比較対象範囲の前記第2の特徴量列内の前記第2の特徴量との類似度を算出して前記類似度が時系列に並べられた類似度列を生成し、前記第2の動画像のフレームごとの類似度列が前記第2の動画像のフレームの順に並べられた類似度マップを生成する類似度マップ生成部とを有する動画像処理装置。
  2. 前記動画像処理装置は、更に、
    前記類似度マップを解析し、前記第1の動画像で表されている動きと同じ動き又は類似する動きが表されている前記第2の動画像のフレームの区間である対応区間を抽出する区間抽出部を有する請求項1に記載の動画像処理装置。
  3. 前記区間抽出部は、
    前記類似度マップにおいて、前記第2の動画像のフレームごとに、当該フレームの類似度列と当該フレームに後続する既定範囲内のフレームの類似度列との中から最も類似度積算値が高くなるパスである最適パスを抽出し、
    前記第2の動画像のフレームごとの最適パスの類似度積算値を解析して、前記対応区間を抽出する請求項2に記載の動画像処理装置。
  4. 前記区間抽出部は、
    各最適パスの類似度積算値を前記第2の動画像のフレームの順にプロットして得られる類似度積算値の波形において類似度積算値が下限閾値を上回ってから類似度積算値が上限閾値を下回るまでの間における類似度積算値の極大値に対応する前記第2の動画像のフレームを、前記対応区間の開始点として抽出する請求項3に記載の動画像処理装置。
  5. 前記区間抽出部は、
    動的計画法を用いて、前記第2の動画像のフレームごとに最適パスを抽出する請求項3に記載の動画像処理装置。
  6. 前記取得部は、
    前記第1の動画像の各フレームから抽出された動きベクトルの偏角成分の特徴量である第1の特徴量が前記第1の動画像のフレームの順に並べられた第1の特徴量列と、前記第2の動画像の各フレームから抽出された動きベクトルの偏角成分の特徴量である第2の特徴量が前記第2の動画像のフレームの順に並べられた第2の特徴量列とを取得する請求項1に記載の動画像処理装置。
  7. 動画像に含まれるフレームごとに動きベクトルの偏角成分を算出する偏角算出部と、
    前記偏角算出部の偏角成分の算出結果を用いて、フレームごとに偏角成分のヒストグラムデータを生成するヒストグラム生成部とを有する動画像処理装置。
  8. 前記動画像処理装置は、更に、
    前記ヒストグラム生成部により生成された前記偏角成分のヒストグラムデータに対して、先行する任意数の連続するフレームに対して前記ヒストグラム生成部により生成された前記偏角成分のヒストグラムデータを用いた平滑化処理を行って特徴量を生成する平滑化処理部を有する請求項7に記載の動画像処理装置。
  9. 前記平滑化処理部は、
    特徴量を生成するフレームと前記任意数のフレームの各々との時間的距離に応じた重み付けを前記任意数のフレームの前記偏角成分のヒストグラムデータの各々に適用して平滑化処理を行う請求項8に記載の動画像処理装置。
  10. コンピュータが、複数のフレームで構成される第1の動画像の各フレームに対して生成された特徴量である第1の特徴量が前記第1の動画像のフレームの順に並べられた第1の特徴量列と、前記第1の動画像よりも多い複数のフレームで構成される第2の動画像の各フレームに対して生成された特徴量である第2の特徴量が前記第2の動画像のフレームの順に並べられた第2の特徴量列とを取得し、
    前記コンピュータが、前記第1の特徴量列と前記第2の特徴量列との比較を、前記第1の特徴量列との比較の対象となる前記第2の動画像の比較対象範囲を前記第2の動画像のフレームの順に移動させながら行い、前記第2の動画像のフレームごとに前記第1の特徴量列内の前記第1の特徴量と比較対象範囲の前記第2の特徴量列内の前記第2の特徴量との類似度を算出して前記類似度が時系列に並べられた類似度列を生成し、前記第2の動画像のフレームごとの類似度列が前記第2の動画像のフレームの順に並べられた類似度マップを生成する動画像処理方法。
  11. コンピュータが、動画像に含まれるフレームごとに動きベクトルの偏角成分を算出し、
    前記コンピュータが、偏角成分の算出結果を用いて、フレームごとに偏角成分のヒストグラムデータを生成する動画像処理方法。
  12. 複数のフレームで構成される第1の動画像の各フレームに対して生成された特徴量である第1の特徴量が前記第1の動画像のフレームの順に並べられた第1の特徴量列と、前記第1の動画像よりも多い複数のフレームで構成される第2の動画像の各フレームに対して生成された特徴量である第2の特徴量が前記第2の動画像のフレームの順に並べられた第2の特徴量列とを取得する取得処理と、
    前記第1の特徴量列と前記第2の特徴量列との比較を、前記第1の特徴量列との比較の対象となる前記第2の動画像の比較対象範囲を前記第2の動画像のフレームの順に移動させながら行い、前記第2の動画像のフレームごとに前記第1の特徴量列内の前記第1の特徴量と比較対象範囲の前記第2の特徴量列内の前記第2の特徴量との類似度を算出して前記類似度が時系列に並べられた類似度列を生成し、前記第2の動画像のフレームごとの類似度列が前記第2の動画像のフレームの順に並べられた類似度マップを生成する類似度マップ生成処理とをコンピュータに実行させる動画像処理プログラム。
  13. 動画像に含まれるフレームごとに動きベクトルの偏角成分を算出する偏角算出処理と、
    前記偏角算出処理の偏角成分の算出結果を用いて、フレームごとに偏角成分のヒストグラムデータを生成するヒストグラム生成処理とをコンピュータに実行させる動画像処理プログラム。
JP2018527274A 2016-07-11 2016-07-11 動画像処理装置、動画像処理方法及び動画像処理プログラム Active JP6419393B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070478 WO2018011870A1 (ja) 2016-07-11 2016-07-11 動画像処理装置、動画像処理方法及び動画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2018011870A1 true JPWO2018011870A1 (ja) 2018-10-25
JP6419393B2 JP6419393B2 (ja) 2018-11-07

Family

ID=60952838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527274A Active JP6419393B2 (ja) 2016-07-11 2016-07-11 動画像処理装置、動画像処理方法及び動画像処理プログラム

Country Status (5)

Country Link
US (1) US20190220670A1 (ja)
JP (1) JP6419393B2 (ja)
CN (1) CN109478319A (ja)
DE (1) DE112016006940T5 (ja)
WO (1) WO2018011870A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110324660B (zh) * 2018-03-29 2021-01-19 北京字节跳动网络技术有限公司 一种重复视频的判断方法及装置
KR102608736B1 (ko) * 2020-12-15 2023-12-01 주식회사 포티투마루 질의에 대한 문서 검색 방법 및 장치
CN113177467A (zh) * 2021-04-27 2021-07-27 上海鹰觉科技有限公司 火焰识别方法及系统、装置、介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341631A (ja) * 1999-05-25 2000-12-08 Nippon Telegr & Teleph Corp <Ntt> 映像検索方法及び装置並びに映像検索プログラムを記録した記録媒体
JP2007020195A (ja) * 2006-07-18 2007-01-25 Hitachi Ltd 映像の検索方法および装置
WO2009157402A1 (ja) * 2008-06-26 2009-12-30 日本電気株式会社 コンテンツ再生制御システムと、その方法及びプログラム
JP2012123654A (ja) * 2010-12-09 2012-06-28 Nippon Telegr & Teleph Corp <Ntt> 情報検索装置、情報検索方法及び情報検索プログラム
WO2015005196A1 (ja) * 2013-07-09 2015-01-15 株式会社日立国際電気 画像処理装置及び画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870754A (en) * 1996-04-25 1999-02-09 Philips Electronics North America Corporation Video retrieval of MPEG compressed sequences using DC and motion signatures
KR20010009273A (ko) * 1999-07-08 2001-02-05 김영환 움직임 정도 기술방법을 이용한 동영상 색인 및 검색방법
US20100086053A1 (en) * 2007-04-26 2010-04-08 Panasonic Corporation Motion estimation device, motion estimation method, and motion estimation program
JP4973729B2 (ja) * 2007-06-07 2012-07-11 富士通株式会社 動画像類似判定装置、および動画像類似判定方法
CN101394559B (zh) * 2007-09-21 2010-10-27 扬智科技股份有限公司 动态图像处理方法、译码方法及其装置
GB2485733A (en) * 2009-08-06 2012-05-23 Toshiba Res Europ Ltd Correlated probabilistic trajectories pedestrian motion detection using a decision forest
CN102542571B (zh) * 2010-12-17 2014-11-05 中国移动通信集团广东有限公司 一种运动目标检测方法及装置
JP2012203613A (ja) * 2011-03-25 2012-10-22 Sony Corp 画像処理装置および方法、記録媒体並びにプログラム
JP2013164667A (ja) 2012-02-09 2013-08-22 Nippon Telegr & Teleph Corp <Ntt> 映像検索装置、映像検索方法、および映像検索用プログラム
CN102710743A (zh) * 2012-04-16 2012-10-03 杭州斯凯网络科技有限公司 手持终端apn自适应的无线接入方法
WO2015049732A1 (ja) * 2013-10-02 2015-04-09 株式会社日立製作所 画像検索方法、画像検索システム、および情報記録媒体
CN104021676B (zh) * 2014-06-25 2016-08-03 上海交通大学 基于车辆动态视频特征的车辆定位及车速测量方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341631A (ja) * 1999-05-25 2000-12-08 Nippon Telegr & Teleph Corp <Ntt> 映像検索方法及び装置並びに映像検索プログラムを記録した記録媒体
JP2007020195A (ja) * 2006-07-18 2007-01-25 Hitachi Ltd 映像の検索方法および装置
WO2009157402A1 (ja) * 2008-06-26 2009-12-30 日本電気株式会社 コンテンツ再生制御システムと、その方法及びプログラム
JP2012123654A (ja) * 2010-12-09 2012-06-28 Nippon Telegr & Teleph Corp <Ntt> 情報検索装置、情報検索方法及び情報検索プログラム
WO2015005196A1 (ja) * 2013-07-09 2015-01-15 株式会社日立国際電気 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP6419393B2 (ja) 2018-11-07
WO2018011870A1 (ja) 2018-01-18
CN109478319A (zh) 2019-03-15
US20190220670A1 (en) 2019-07-18
DE112016006940T5 (de) 2019-03-14

Similar Documents

Publication Publication Date Title
Hu et al. Recurrently aggregating deep features for salient object detection
CN109977262B (zh) 从视频中获取候选片段的方法、装置及处理设备
JP6204659B2 (ja) 映像処理装置及び映像処理方法
US9646389B2 (en) Systems and methods for image scanning
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP2019036009A (ja) 制御プログラム、制御方法、及び情報処理装置
JP2019036008A (ja) 制御プログラム、制御方法、及び情報処理装置
KR101479387B1 (ko) 얼굴 검출을 위한 방법 및 장치
US20100194869A1 (en) Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
JP6419393B2 (ja) 動画像処理装置、動画像処理方法及び動画像処理プログラム
JP4496595B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
KR101982258B1 (ko) 오브젝트 검출 방법 및 오브젝트 검출 장치
JP2005252359A (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP4525064B2 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
KR101589492B1 (ko) 다수의 재귀 규칙을 이용한 디지털 비디오의 움직임 추정 방법 및 시스템
JP2006215655A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP6787075B2 (ja) 画像処理システム、画像処理装置および画像処理方法
JP4622265B2 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにプログラム
JP2009021864A (ja) 動きベクトル探索装置
KR101507998B1 (ko) 배경확산 및 영역확장을 이용한 물체 검출 방법 및 장치, 이를 이용한 물체 추적 방법 및 장치
JP2015049702A (ja) 対象認識装置、対象認識方法、およびプログラム
US9390347B2 (en) Recognition device, method, and computer program product
JP4207764B2 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP2021157794A (ja) ビデオ処理装置、ビデオ処理方法及びマシン可読記憶媒体
JP5470529B2 (ja) 動き検出装置、動き検出方法及び動き検出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180801

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180801

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181009

R150 Certificate of patent or registration of utility model

Ref document number: 6419393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250