JPWO2019021369A1 - データ解析装置 - Google Patents

データ解析装置 Download PDF

Info

Publication number
JPWO2019021369A1
JPWO2019021369A1 JP2019532249A JP2019532249A JPWO2019021369A1 JP WO2019021369 A1 JPWO2019021369 A1 JP WO2019021369A1 JP 2019532249 A JP2019532249 A JP 2019532249A JP 2019532249 A JP2019532249 A JP 2019532249A JP WO2019021369 A1 JPWO2019021369 A1 JP WO2019021369A1
Authority
JP
Japan
Prior art keywords
data
analysis
unit
results
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019532249A
Other languages
English (en)
Other versions
JP6625289B2 (ja
Inventor
一之 宮澤
一之 宮澤
杉本 和夫
和夫 杉本
守屋 芳美
芳美 守屋
彰 峯澤
彰 峯澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6625289B2 publication Critical patent/JP6625289B2/ja
Publication of JPWO2019021369A1 publication Critical patent/JPWO2019021369A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

データ解析部(11−1)〜(11−N)のそれぞれから出力される解析結果をグループ分けする解析結果分類部(12)を設け、統合解析部(13)が、解析結果分類部(12)により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有する。

Description

この発明は、データを解析するデータ解析装置に関するものである。
監視カメラにより撮影された映像の監視は、幅広く実用化されており、社会における安全安心の実現に大きく貢献している。
近年では、人が映像を見ることによって監視するだけでなく、映像を解析することで、不審物又は不審者を検知してアラートを出力する機能、あるいは、映像を解析することで、ある特定の事象が起きていることを検知し、検知した事象の記録を行う機能を備えるデータ解析装置が開発されている。
以下の特許文献1には、カメラから出力された撮影データを解析して、撮影データの解析結果を得るデータ解析装置が開示されている。
このデータ解析装置は、互いに異なるカメラから出力された撮影データが示す映像を解析して、映像内に存在している物体を検出する複数の検出部と、複数の検出部の検出結果を統合し、統合した検出結果から物体を追跡する統合追跡部とを備えている。
データ解析装置が備えている複数の検出部は、例えば、物体を学習しているニューラルネットワークを有する識別器を使用している。この識別器は、カメラの映像を示す撮影データをニューラルネットワークに入力することで、ニューラルネットワークから物体の検出結果を得ている。
特開2016−71830号公報
従来のデータ解析装置は、複数の検出部の検出結果を統合する統合追跡部を備えているため、統合追跡部を備えていない場合よりも、物体の追跡精度を高めることができる。
しかし、統合追跡部は、あくまでも、複数の検出部の検出結果を統合するものであって、複数の検出部が有しているニューラルネットワークを統合するものではない。このため、物体の検出可能な領域は、複数のカメラの撮影範囲内に限られる。
仮に、複数の検出部が有しているニューラルネットワークを統合することが可能であるとすれば、それぞれのカメラで検出に至る過程の解析情報を統合することにより、或るカメラの撮影範囲と、或るカメラの撮影範囲との間の領域に存在している物体についても、検出できる可能性がある。
しかし、複数の検出部が有しているニューラルネットワークを単に統合する場合、あまり関連性がないカメラの撮影データを入力するニューラルネットワーク同士の統合も行われるため、ニューラルネットワークの規模が極めて大きくなるうえ、不要な情報が入力されることで検出精度が劣化する可能性がある。
規模が極めて大きいニューラルネットワークは、学習時に決定しなければならない重みの数が膨大である。このため、膨大な学習データと学習時間を要することになる。また、膨大な学習時間を費やしても、適正な重みを獲得できない事態が頻発して、物体の検出精度が劣化してしまうことがある。
したがって、複数の検出部が有しているニューラルネットワークを統合することが可能であるとしても、カメラから出力された撮影データの解析結果に誤りが生じてしまうことがあるという課題があった。
この発明は上記のような課題を解決するためになされたもので、データの解析結果に誤りが生じる状況を抑えることができるデータ解析装置を得ることを目的とする。
この発明に係るデータ解析装置は、互いに異なる複数のセンサのうち、いずれか1つ以上のセンサにより観測されたデータを解析して、データの解析結果を出力する複数のデータ解析部と、複数のデータ解析部のそれぞれから出力される解析結果をグループ分けする解析結果分類部とを設け、統合解析部が、解析結果分類部により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有するようにしたものである。
この発明によれば、複数のデータ解析部のそれぞれから出力される解析結果をグループ分けする解析結果分類部を設け、統合解析部が、解析結果分類部により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有するように構成したので、データの解析結果に誤りが生じる状況を抑えることができる効果がある。
この発明の実施の形態1によるデータ解析装置が適用される解析システムを示す構成図である。 この発明の実施の形態1によるデータ解析装置を示す構成図である。 この発明の実施の形態1によるデータ解析装置を示すハードウェア構成図である。 データ解析装置がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 道路の周辺に存在している構造物などに設置されている7台のカメラ1−1〜1−7の撮影範囲の一例を示す説明図である。 ニューラルネットワークが有する最小単位の構造を示す説明図である。 ディープニューラルネットワークの構造を示す説明図である。 データ解析部11−nの処理内容を示すフローチャートである。 図5のように7台のカメラ1−1〜1−7が設置されている場合の解析結果のグループ分け例を示す説明図である。 解析結果分類部12の処理内容を示すフローチャートである。 統合解析部13により構築されるニューラルネットワークのモデルの一例を示す説明図である。 データ解析部11−1〜11−Nの解析結果y11−1〜y11−Nを再解析するニューラルネットワークのモデルを示す説明図である。 この発明の実施の形態2によるデータ解析装置を示す構成図である。 この発明の実施の形態2によるデータ解析装置を示すハードウェア構成図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1によるデータ解析装置が適用される解析システムを示す構成図である。
図1において、カメラ1−1〜1−Nは、例えば、道路の周辺に存在している構造物に設置されており、道路などを撮影して、道路などの映像を示す撮影データを出力するセンサである。Nは、2以上の整数である。
この実施の形態1では、センサがカメラである例を説明するが、センサは、観測データを出力するものであれば、カメラに限るものではなく、例えば、センサが振動計又は温度計であってもよい。センサが振動計であれば、観測データとして振動データが出力され、センサが温度計であれば、観測データとして温度データが出力される。
ネットワーク2は、例えば、インターネットで実現され、カメラ1−1〜1−Nと、データ解析装置3と、表示装置4とを接続している。
ただし、ネットワーク2は、カメラ1−1〜1−Nと、データ解析装置3と、表示装置4とを有線又は無線で接続することができればよく、インターネットに限るものではない。
したがって、ネットワーク2は、例えば、LAN(Local Area Network)であってもよい。また、カメラ1−1〜1−Nと、データ解析装置3と、表示装置4とが直接接続されていれば、ネットワーク2が設けられていなくてもよい。
データ解析装置3は、ネットワーク2と接続されており、カメラ1−1〜1−Nから出力された撮影データを解析し、撮影データの解析結果を表示装置4に出力する装置である。
表示装置4は、ネットワーク2と接続されており、データ解析装置3から出力された撮影データの解析結果を表示する装置である。
また、表示装置4は、カメラ1−1〜1−Nから出力された撮影データが示す映像を表示する。
なお、表示装置4がスピーカを備えている場合、スピーカを用いて、データ解析装置3から出力された撮影データの解析結果を音で出力するようにしてもよい。
図2は、この発明の実施の形態1によるデータ解析装置3を示す構成図である。図3は、この発明の実施の形態1によるデータ解析装置3を示すハードウェア構成図である。
図2及び図3において、データ解析部11−1〜11−Nは、カメラ1−1〜1−Nと一対一で対応付けられている。
データ解析部11−n(n=1,2,・・・,N)は、例えば図3に示すデータ解析回路21で実現される。
データ解析部11−nは、カメラ1−nから出力された撮影データを取得し、取得した撮影データを解析して、撮影データの解析結果を統合解析部13に出力する処理を実施する。データ解析回路21は、カメラ1−nから出力された撮影データを取得するためのネットワークインタフェースなどを備えている。
この実施の形態1では、データ解析部11−1〜11−Nと、カメラ1−1〜1−Nとが一対一で対応付けられている例を説明するが、データ解析部11−nが、複数のカメラと対応付けられており、複数のカメラから出力された撮影データを解析するようにしてもよい。
解析結果分類部12は、例えば図3に示す解析結果分類回路22で実現される。
解析結果分類部12は、データ解析部11−1〜11−Nのそれぞれから出力される解析結果のグループ分けを実施する。
統合解析部13は、例えば図3に示す統合解析回路23で実現される。
統合解析部13は、解析結果分類部12により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークを有している。
また、統合解析部13は、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークを有している。
第2ニューラルネットワークの出力が、データ解析装置3により得られる最終的な解析結果である。
図2では、データ解析装置3の構成要素であるデータ解析部11−1〜11−N、解析結果分類部12及び統合解析部13のそれぞれが、図3に示すような専用のハードウェアで実現されるものを想定している。即ち、データ解析回路21、解析結果分類回路22及び統合解析回路23で実現されるものを想定している。
データ解析回路21、解析結果分類回路22及び統合解析回路23は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
データ解析装置3の構成要素は、専用のハードウェアで実現されるものに限るものではなく、データ解析装置3がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)が該当する。
図4は、データ解析装置3がソフトウェア又はファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
データ解析装置3がソフトウェア又はファームウェアなどで実現される場合、データ解析部11−1〜11−N、解析結果分類部12及び統合解析部13の処理手順をコンピュータに実行させるためのプログラムをメモリ31に格納し、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行するようにすればよい。
また、図3では、データ解析装置3の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図4では、データ解析装置3がソフトウェアやファームウェアなどで実現される例を示しているが、データ解析装置3における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
次に動作について説明する。
この実施の形態1では、複数のセンサがカメラ1−1〜1−Nである例を説明する。
図5は、道路の周辺に存在している構造物などに設置されている7台のカメラ1−1〜1−7の撮影範囲の一例を示す説明図である。
カメラ1−1〜1−7の撮影範囲は、破線で囲まれている領域であり、1−1aは、カメラ1−1の撮影範囲、1−2aは、カメラ1−2の撮影範囲、1−3aは、カメラ1−3の撮影範囲である。
また、1−4aは、カメラ1−4の撮影範囲、1−5aは、カメラ1−5の撮影範囲、1−6aは、カメラ1−6の撮影範囲、1−7aは、カメラ1−7の撮影範囲である。
図中、実線は、道路を表している。
カメラ1−1〜1−Nは、道路などを撮影し、ネットワーク2を介して、道路などの映像を示す撮影データをデータ解析装置3に出力する。
データ解析装置3のデータ解析部11−n(n=1,2,・・・,N)は、カメラ1−nから出力された撮影データを取得し、取得した撮影データを解析して、撮影データの解析結果を統合解析部13に出力する。
データ解析部11−nによる撮影データの解析手法として、例えば、多層のニューラルネットワークであるディープニューラルネットワークに基づく手法が考えられる。
ニューラルネットワークは、例えば、図6に示すような構造を最小単位とするネットワークである。
図6において、x,x,・・・,xは、ニューラルネットワークに入力されるデータである。
,w,・・・,wは、データx,x,・・・,xに対する重みであり、例えば、学習用のデータを用いて事前に決定される。
yは、ニューラルネットワークから出力されるデータの解析結果である。
ディープニューラルネットワークは、図6に示す構造が多層に組み合わせれた構造を有するニューラルネットワークであり、様々な問題に対して高い解析精度を有することが知られている。
図7に示すディープニューラルネットワークは、データx,x,・・・,xが入力されると、以下の式(1)に示すような演算を実施し、データの解析結果yを出力する。
Figure 2019021369
式(1)において、xは、常に1である。fは、ステップ関数、シグモイド関数、ランプ関数などの活性化関数である。
yは、活性化関数の演算結果であるy,・・・,yを有するデータの解析結果である。
図8は、データ解析部11−nの処理内容を示すフローチャートである。
以下、図8を参照しながら、データ解析部11−nの処理内容を具体的に説明する。
まず、データ解析部11−nは、カメラ1−nから出力された撮影データx,x,・・・,xを取得する(図8のステップST1)。
撮影データx,x,・・・,xは、例えば、カメラ1−nの映像を構成する画素の値が該当する。
撮影データx,x,・・・,xが図7に示すディープニューラルネットワークに入力されることで、ディープニューラルネットワークから、カメラ1−nの映像の特徴を表す特徴ベクトル、あるいは、映像に所定の事象が含まれている確率を示す確率ベクトルを示す解析結果y,y,・・・,yが得られる。
所定の事象の種類として、様々な種類が考えられ、アプリケーションに応じて適切な事象が選択される。例えば、図1に示す解析システムが、道路の監視を目的とする場合、道路の渋滞、道路の封鎖などの事象が含まれる。
ここで、図7に示すようなディープニューラルネットワークの構造として、様々なモデルが存在するため、どのようなモデルを使用するかは事前に決定しておく必要がある。
また、撮影データx,x,・・・,xに対する重みw,w,・・・,wについても、事前に決定しておく必要がある。
次に、データ解析部11−nは、事前に決定されている重みのうち、図7に示すディープニューラルネットワークの演算対象層に適用される重みw,w,・・・,wと、撮影データx,x,・・・,xとを、事前に決定されているモデルに定義されている活性化関数f(・)に入力する(図8のステップST2)。
この段階では、図7に示すディープニューラルネットワークの演算対象層は、最下位層であり、図7において、最も左側の層である。
データ解析部11−nは、重みw,w,・・・,wと、撮影データx,x,・・・,xとを入力した活性化関数f(・)を演算し、活性化関数f(・)の演算結果y,y,・・・,yを演算対象層の次の層の入力データとして出力する(図8のステップST3)。
この段階では、演算対象層の次の層は、演算対象層よりも1つ上位の層である。演算対象層が最下位層であれば、演算対象層の次の層は、図7において、左から2番目の層である。
データ解析部11−nは、演算対象層の次の層が最上位層であるか否かを判定する(図8のステップST4)。
図7に示すディープニューラルネットワークの最上位層は、図7において、最も右側の層である。
データ解析部11−nは、次の層が最上位層でなければ(図8のステップST4:NOの場合)、次の層を演算対象層に設定する(図8のステップST5)。
データ解析部11−nは、事前に決定されている重みのうち、ステップST5の処理で設定した演算対象層に適用される重みw,w,・・・,wと、ステップST3の処理で出力した演算対象層の入力データとを活性化関数f(・)に入力する(図8のステップST2)。
データ解析部11−nは、演算対象層に適用される重みw,w,・・・,wと、演算対象層の入力データとを入力した活性化関数f(・)を演算し、活性化関数f(・)の演算結果y,y,・・・,yを演算対象層の次の層の入力データとして出力する(図8のステップST3)。
データ解析部11−nは、演算対象層の次の層が最上位層でなければ(図8のステップST4:NOの場合)、演算対象層の次の層が最上位層になるまで、ステップST5,ST2,ST3の処理を繰り返し実施する。
データ解析部11−nは、演算対象層の次の層が最上位層であれば(図8のステップST4:YESの場合)、演算対象層における活性化関数f(・)の演算結果y,y,・・・,yを、ディープニューラルネットワークの解析結果として、統合解析部13に出力する(図8のステップST6)。
解析結果分類部12は、データ解析部11−1〜11−Nのそれぞれから出力される解析結果のグループ分けを実施する。
カメラ1−1〜1−Nの撮影範囲における道路渋滞等の事象の発生は、カメラ1−1〜1−Nから出力された撮影データx,x,・・・,xを解析することで、検知することができる。
また、2つのカメラの撮影範囲の間の領域における事象の発生は、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することで、検知できることがある。しかし、2つのカメラの撮影範囲の間で、車両等が行き来可能な道路が存在しない場合、2つのカメラの撮影範囲の間の領域において、道路渋滞等の事象が発生することはない。
したがって、車両等が行き来可能な道路が存在しない場合、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することは、事象の発生を検知する上で意味がない。
一方、車両等が行き来可能な道路が存在する場合、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することは、事象の発生を検知する上で有用である。
また、2つのカメラの撮影範囲の間に重なりがある場合、2つのカメラの撮影範囲における交通状況は、互いに関連している可能性が高い。このため、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することは、事象の発生を検知する上で有用である。
7台のカメラ1−1〜1−7が設置されている図5の例では、カメラ1−1の撮影範囲1−1aと、カメラ1−2の撮影範囲1−2aとは、重なりが有る。このため、データ解析部11−1,11−2の解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することは、事象の発生を検知する上で有用である。
また、カメラ1−2の撮影範囲1−2aと、カメラ1−3の撮影範囲1−3a及びカメラ1−4の撮影範囲1−4aとは、重なりが無いが、行き来可能な道路が存在している。
このため、データ解析部11−2,11−3,11−4の解析結果をニューラルネットワークに入力して、3つの解析結果を再解析することは、事象の発生を検知する上で有用である。
また、カメラ1−5の撮影範囲1−5aと、カメラ1−6の撮影範囲1−6a及びカメラ1−7の撮影範囲1−7aとは、重なりが無いが、行き来可能な道路が存在している。このため、データ解析部11−5,11−6,11−7の解析結果をニューラルネットワークに入力して、3つの解析結果を再解析することは、事象の発生を検知する上で有用である。
図9は、図5のように7台のカメラ1−1〜1−7が設置されている場合の解析結果のグループ分け例を示す説明図である。
図9では、7台のカメラ1−1〜1−7のそれぞれをノードで表している。
また、図9では、互いの撮影範囲に重なりが有るカメラ同士、あるいは、互いの撮影範囲の間に行き来可能な道路が存在しているカメラ同士をエッジで結んでいるノード接続グラフを表している。
ノード接続グラフ(1)は、カメラ1−1〜1−4に対応するデータ解析部11−1〜11−4の解析結果を同一のグループに分類する旨を示し、ノード接続グラフ(2)は、カメラ1−5〜1−7に対応するデータ解析部11−5〜11−7の解析結果を同一のグループに分類する旨を示している。
図10は、解析結果分類部12の処理内容を示すフローチャートである。
以下、図10を参照しながら、解析結果分類部12の処理内容を具体的に説明する。
まず、解析結果分類部12は、カメラ1−1〜1−Nの撮影範囲をそれぞれ算出する(図10のステップST11)。
カメラ1−n(n=1,2,・・・,N)の撮影範囲は、カメラ1−nの属性情報及び設置情報を参照することで算出することが可能である。
カメラ1−nの属性情報であるカメラパラメータは、一般的にはカメラ1−nの内部パラメータα,α,γ,u,vと呼ばれるパラメータであり、以下の式(2)に示すような行列で表される。
Figure 2019021369
α=f・m、α=f・mであり、m及びmは、画素と距離の関係を表すスケールファクタ、fは、焦点距離である。
また、γは、カメラの製造過程で生じるx軸とy軸のひずみを表すパラメータであり、通常は0であるため問題ない。
及びvは、主点と呼ばれ、画像平面とカメラの主軸が交わる点である。u及びvは、通常は画像中心とほぼ一致する。
なお、カメラ1−nの内部パラメータα,α,γ,u,vは、カメラ1−nの撮影範囲を正確に算出するために必要な情報の一例であり、内部パラメータα,α,γ,u,v以外の属性情報を用いて、カメラ1−nの撮影範囲を算出するようにしてもよい。
カメラ1−nの設置情報は、カメラ1−nが設置されている位置、高さ及び角度を示す情報である。カメラ1−nが設置されている位置を示す情報は、例えば、カメラ1−nが設置されている緯度経度を示す情報である。
カメラ1−nが設置されている高さを示す情報は、例えば、カメラ1−nが設置されている高度を示す情報である。
カメラ1−nが設置されている角度を示す情報は、カメラ1−nのレンズが向いている方向である方位角及び地面に対する俯角などを示す情報である。
なお、カメラ1−nの設置情報は、カメラ1−1の撮影範囲を正確に算出するために必要な情報の一例であり、設置情報以外の情報を用いて、カメラ1−1の撮影範囲を算出するようにしてもよい。
この実施の形態1では、カメラ1−nの属性情報と設置情報を用いて、カメラ1−nの撮影範囲を算出することを想定しているが、道路及び建物の情報のほか、地面の起伏の情報などを含む地図情報を用いれば、カメラ1−nの撮影範囲を更に正確に算出することができる。
この実施の形態1では、カメラ1−nの撮影範囲を算出する処理自体は、公知の技術であるため、算出処理の詳細は省略する。
次に、解析結果分類部12は、カメラ1−1〜1−Nのそれぞれをノード接続グラフのノードに設定する(図10のステップST12)。
次に、解析結果分類部12は、カメラを識別する変数iを1に初期化してから(図10のステップST13)、カメラを識別する変数jにi+1を代入する(図10のステップST14)。
解析結果分類部12は、カメラ1−1〜1−Nの中のカメラ1−iとカメラ1−jに着目し、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲とに重なりが有るか否かを判定する(図10のステップST15)。
解析結果分類部12は、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲とに重なりが無いと判定すると(図10のステップST15:NOの場合)、地図情報を参照して、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲との間に行き来可能な道路が存在しているか否かを判定する(図10のステップST16)。
解析結果分類部12は、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲とに重なりが有ると判定した場合(図10のステップST15:YESの場合)、カメラ1−iに対応するノードと、カメラ1−jに対応するノードとをエッジで接続する(図10のステップST17)。
また、解析結果分類部12は、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲との間に行き来可能な道路が存在していると判定した場合(図10のステップST16:YESの場合)、カメラ1−iに対応するノードと、カメラ1−jに対応するノードとをエッジで接続する(図10のステップST17)。
解析結果分類部12は、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲とに重なりが無く(図10のステップST15:NOの場合)、かつ、行き来可能な道路が存在していないと判定した場合(図10のステップST16:NOの場合)、カメラ1−iに対応するノードと、カメラ1−jに対応するノードとをエッジで接続する処理を行わない。
次に、解析結果分類部12は、変数jと、設置されているカメラ1−1〜1−Nの台数であるNとを比較し(図10のステップST18)、変数jがN未満であれば(ステップST18:YESの場合)、変数jに1を加算し(図10のステップST19)、ステップST15の処理に戻る。これにより、ステップST15〜ST18の処理が繰り返される。
解析結果分類部12は、変数jがNと一致すれば(ステップST18:NOの場合)、変数iと、(N−1)とを比較し(図10のステップST20)、変数iが(N−1)未満であれば(ステップST20:YESの場合)、変数iに1を加算し(図10のステップST21)、ステップST14の処理に戻る。これにより、ステップST14〜ST20の処理が繰り返される。
解析結果分類部12は、変数iが(N−1)と一致すれば(ステップST20:NOの場合)、エッジで接続されているノードを示すノード接続グラフを統合解析部13に出力する(図10のステップST22)。
例えば、7台のカメラ1−1〜1−7が図5のように設置されている場合、解析結果分類部12から、図9に示すようなノード接続グラフ(1)及びノード接続グラフ(2)のそれぞれが統合解析部13に出力される。
ここでは、解析結果分類部12が、エッジで接続されているノードを示すノード接続グラフを統合解析部13に出力する例を示している。
解析結果分類部12から出力されるノード接続グラフは、エッジに重みが付加されておらず、エッジの向きも限定されていない無向グラフであるが、エッジに重みが付加されていてもよいし、エッジの向きが限定されていてもよい。
エッジへの重みとしては、例えば、カメラ間の距離、あるいは、カメラ間の撮影範囲の重なり度合いを利用することができる。
具体的には、カメラ1−iに対応するノードとカメラ1−jに対応するノードとを接続するエッジの重みEijは、以下の式(3)のように定義することができる。
Figure 2019021369
式(3)において、Dは、カメラ1−iとカメラ1−jとの距離である。
は、カメラ1−iの撮影範囲の面積、Aは、カメラ1−jの撮影範囲の面積である。
ijは、カメラ1−iの撮影範囲とカメラ1−jの撮影範囲とが重なっている領域の面積である。
a,bは、定数であり、a+b=1である。例えば、a=b=0.5が考えられる。
エッジの向きとしては、例えば、2つのノード間を接続するエッジに対応する道路が一方通行であれば、通行が可能な方向をエッジの向きとする態様が考えられる。
統合解析部13は、解析結果分類部12により生成されたノード接続グラフを参照して、解析結果分類部12により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークのモデルを構築する。
例えば、解析結果分類部12によって、図9に示すような2つのノード接続グラフ(1)(2)が生成されている場合、統合解析部13は、図11に示すような第1ニューラルネットワークのモデル(1)(2)を構築する。図11に示すニューラルネットワークについても、ディープニューラルネットワークである。
図11は、統合解析部13により構築されるニューラルネットワークのモデルの一例を示す説明図である。
図11の例では、説明の簡単化のため、各々のデータ解析部11−n(n=1,2,・・・,N)から出力される解析結果をy11−nで表している。y11−nは、スカラ値のような表現であるが、実際にはベクトルである。
図11の例では、統合解析部13は、ノード接続グラフ(1)に従ってデータ解析部11−1〜11−4の解析結果y11−1〜y11−4を入力して、解析結果y11−1〜y11−4を再解析する第1ニューラルネットワークのモデル(1)を構築している。
また、統合解析部13は、ノード接続グラフ(2)に従ってデータ解析部11−5〜11−7の解析結果y11−5〜y11−7を入力して、解析結果y11−5〜y11−7を再解析する第1ニューラルネットワークのモデル(2)を構築している。
さらに、統合解析部13は、2つの第1ニューラルネットワークの再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークのモデルを構築している。
次に、統合解析部13は、データ解析部11−1〜11−Nのそれぞれから出力される解析結果y11−1〜y11−Nを、解析結果y11−1〜y11−Nが属するグループ単位の第1ニューラルネットワークにそれぞれ入力し、複数の第1ニューラルネットワークの出力結果z,z,・・・,zを得る。
図11の例では、統合解析部13は、データ解析部11−1〜11−4の解析結果y11−1〜y11−4を第1ニューラルネットワークのモデル(1)に入力し、第1ニューラルネットワークのモデル(1)の再解析結果を得る。
また、統合解析部13は、データ解析部11−5〜11−7の解析結果y11−5〜y11−7を第1ニューラルネットワークのモデル(2)に入力し、第1ニューラルネットワークのモデル(2)の再解析結果を得る。
統合解析部13は、第1ニューラルネットワークのモデル(1)の再解析結果と、第1ニューラルネットワークのモデル(2)の再解析結果とを第2ニューラルネットワークのモデルに入力する。
この結果、最終的な解析結果z,z,・・・,zとして、第2ニューラルネットワークのモデルの出力が得られる。
統合解析部13から出力される解析結果z,z,・・・,zは、カメラ1−1〜1−Nの映像の特徴を表す特徴ベクトル、あるいは、映像に所定の事象が含まれている確率を示す確率ベクトルなどである。
この解析結果z,z,・・・,zには、例えば、カメラ1−2の撮影範囲1−2aと、カメラ1−3,1−4の撮影範囲1−3a,1−4aとの間の領域における特徴ベクトル、あるいは、確率ベクトルが含まれている。
この実施の形態1では、統合解析部13が、解析結果分類部12により同一のグループに分けられた1つ以上の解析結果を第1ニューラルネットワークに入力して、1つ以上の解析結果を再解析している。また、統合解析部13が、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を第2ニューラルネットワークに入力して、複数の再解析結果を再解析している。
これにより、第2ニューラルネットワークから最終的な解析結果z,z,・・・,zが得られるが、解析結果y11−1〜y11−Nを図12に示すようなニューラルネットワークに入力して、解析結果y11−1〜y11−Nを再解析することでも、解析結果を得ることができる。
しかし、解析結果y11−1〜y11−Nを図12に示すようなニューラルネットワークに入力する場合、以下に示す問題を生じる。
図12は、データ解析部11−1〜11−Nの解析結果y11−1〜y11−Nを再解析するニューラルネットワークのモデルを示す説明図である。
図12に示すニューラルネットワークのモデルは、あまり関連性がない解析結果同士の間でも演算が行われるため、図11に示すニューラルネットワークのモデルよりも、規模が大きなモデルになる。
規模が極端に巨大なニューラルネットワークは、学習時に決定しなければならない重みの数が膨大である。このため、膨大な学習データと学習時間を要することになる。また、膨大な学習時間を費やしても、適正な重みを獲得できない事態が頻発する問題を生じる。
仮に、適正な重みを獲得できても、膨大な回数の演算が行われるため、解析結果y11−1〜y11−Nがニューラルネットワークに入力されてから、ニューラルネットワークから解析結果z,z,・・・,zが得られるまでに、多大な時間を要する問題を生じる。
以上で明らかなように、この実施の形態1によれば、データ解析部11−1〜11−Nのそれぞれから出力される解析結果をグループ分けする解析結果分類部12を設け、統合解析部13が、解析結果分類部12により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有するように構成したので、データの解析結果に誤りが生じる状況を抑えることができる効果を奏する。
この実施の形態1では、複数の第1のニューラルネットワークの結果を再解析する第2のニューラルネットワークを設けている例を示しているが、これは一例に過ぎず、第1及び第2のニューラルネットワークだけで構成されるものに限るものではない。
このため、例えば、第3及び第4のニューラルネットワークを更に備えるなど、より多くのニューラルネットワークを備える構成であってもよい。
実施の形態2.
上記実施の形態1では、データ解析装置3が、複数のセンサにより観測されたデータを解析する例を示している。
この実施の形態2では、データ解析装置3が、入力データに含まれている複数のデータのそれぞれを抽出し、抽出した各々のデータを解析する例を説明する。
図13は、この発明の実施の形態2によるデータ解析装置3を示す構成図である。
図14は、この発明の実施の形態2によるデータ解析装置3を示すハードウェア構成図である。
図13及び図14において、図2及び図3と同一符号は同一または相当部分を示すので説明を省略する。
データ抽出部40は、例えば、図14に示すデータ抽出回路50で実現される。
データ抽出部40は、センサにより観測されたデータから、解析対象の複数のデータをそれぞれ抽出し、抽出したデータのそれぞれをデータ解析部11−1〜11−Nに出力する処理を実施する。
次に動作について説明する。
この実施の形態2では、センサがカメラであり、カメラにより撮影されたデータがデータ解析装置3に与えられる例を説明する。
データ抽出部40は、カメラから出力された撮影データを受けると、撮影データから、解析対象の複数のデータをそれぞれ抽出する。
例えば、データ抽出部40は、カメラの撮影データが示す映像に含まれている物体の検出処理を実施して、映像に含まれている物体の形状及び色をそれぞれ検出する。物体の検出処理自体は、公知の技術であるため詳細な説明を省略する。
また、データ抽出部40は、映像に含まれている物体の時間的な変化を監視して、物体の動きを検出する。
データ抽出部40は、解析対象のデータとして、例えば、物体の形状を示す形状データをデータ解析部11−1に出力し、物体の色を示す色データをデータ解析部11−2に出力し、物体の動きを示す動きデータをデータ解析部11−3に出力する。
ここでは、データ抽出部40が、解析対象のデータとして、形状データ、色データ及び動きデータのそれぞれをデータ解析部11−1〜11−3に出力する例を示しているが、これは一例であり、解析対象のデータとして、他のデータを出力するようにしてもよい。
他のデータとして、例えば、物体の速度を示す速度データ、あるいは、物体の温度を示す温度データが考えられる。
また、ここでは、データ抽出部40が、解析対象のデータとして、3つのデータを出力する例を示しているが、解析対象のデータの数は2つ以上であればよい。
データ解析部11−n(n=1,2,・・・,N)は、データ抽出部40から解析対象のデータを取得すると、上記実施の形態1と同様に、取得したデータを解析して、データの解析結果を統合解析部13に出力する。
解析結果分類部12は、上記実施の形態1と同様に、データ解析部11−1〜11−Nのそれぞれから出力される解析結果のグループ分けを実施する。
ただし、上記実施の形態1では、解析結果分類部12が、複数のセンサの属性情報、設置情報及び地図情報を参照して、解析結果のグループ分けを実施しているが、この実施の形態2では、解析結果分類部12が、事前に与えられる知識に基づいて、解析結果のグループ分けを実施する。
以下、解析結果分類部12による解析結果のグループ分け処理を具体的に説明する。
この実施の形態2では、データ解析装置3が、道路の交通標識を検知する例を説明する。
この実施の形態2では、データ抽出部40から、解析対象のデータとして、形状データ、色データ及び動きデータのそれぞれがデータ解析部11−1〜11−3に出力されるものとする。
交通標識における形状と色の組み合わせは、事前に知られており、交通標識の形状と色は、関係性が深いため、形状データの解析結果と、色データの解析結果との同一のグループに含めることは、交通標識を検知する上で有用である。
交通標識は、所定の場所に設置されており、一般的には移動することがない。このため、動きデータの解析結果が停止している旨を示していれば、交通標識である可能性があるが、動きデータの解析結果が動いている旨を示していれば、交通標識である可能性は極めて低い。よって、交通標識を検知する上で、動きデータの解析結果を用いることは有用である。
しかし、交通標識の動きは、交通標識の形状及び色との関係性が薄いため、動きデータの解析結果を、形状データの解析結果及び色データの解析結果を含むグループに含めることは、交通標識を検知する上で有用でない。
したがって、事前に与えられる知識として、例えば、「形状データの解析結果と、色データの解析結果とを同一のグループに含め、動きデータの解析結果を形状データの解析結果及び色データの解析結果を含むグループに含めない」という知識が与えられる。
この知識の例では、解析結果分類部12は、形状データの解析結果と、色データの解析結果とを同一のグループに含め、動きデータの解析結果を形状データの解析結果及び色データの解析結果を含むグループに含めないようにする。
統合解析部13は、上記実施の形態1と同様に、解析結果分類部12により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークを有している。
また、統合解析部13は、上記実施の形態1と同様に、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークを有している。
第2ニューラルネットワークの出力が、上記実施の形態1と同様に、データ解析装置3により得られる最終的な解析結果である。
以上で明らかなように、この実施の形態2によれば、センサにより観測されたデータから、解析対象の複数のデータをそれぞれ抽出するデータ抽出部40を備えるように構成したので、センサにより観測されたデータの中に、解析対象のデータが複数含まれている場合でも、上記実施の形態1と同様に、データの解析結果に誤りが生じる状況を抑えることができる効果を奏する。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明は、データを解析するデータ解析装置に適している。
1−1〜1−N カメラ、1−1a〜1−7a 撮影範囲、2 ネットワーク、3 データ解析装置、4 表示装置、11−1〜11−N データ解析部、12 解析結果分類部、13 統合解析部、21 データ解析回路、22 解析結果分類回路、23 統合解析回路、31 メモリ、32 プロセッサ、40 データ抽出部、50 データ抽出回路。
この発明に係るデータ解析装置は、互いに異なる複数のセンサのうち、いずれか1つ以上のセンサにより観測されたデータを解析して、データの解析結果を出力する複数のデータ解析部と、複数のデータ解析部のそれぞれから出力される解析結果をグループ分けする解析結果分類部と、解析結果分類部により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有する統合解析部とを備え、複数のセンサのそれぞれがカメラであり、解析結果分類部が、複数のセンサの属性情報及び設置情報を参照して、複数のカメラの撮影範囲をそれぞれ算出し、複数のカメラの中で、互いの撮影範囲に重なりが有る各々のカメラに対応するデータ解析部の解析結果を同一のグループに分類し、地図情報を参照して、複数のカメラのそれぞれの撮影範囲の間において、行き来可能な道路が存在しているか否かをそれぞれ判定し、互いの撮影範囲に重なりが無くても、互いの撮影範囲の間に行き来可能な道路が存在している各々のカメラに対応するデータ解析部の解析結果を同一のグループに分類するようにしたものである。

Claims (5)

  1. 互いに異なる複数のセンサのうち、いずれか1つ以上のセンサにより観測されたデータを解析して、前記データの解析結果を出力する複数のデータ解析部と、
    前記複数のデータ解析部のそれぞれから出力される解析結果をグループ分けする解析結果分類部と、
    前記解析結果分類部により同一のグループに分けられた1つ以上の解析結果を入力して、前記1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、前記複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有する統合解析部と
    を備えたデータ解析装置。
  2. 前記データ解析部は、いずれか1つ以上のセンサにより観測されたデータを入力して、前記データの解析結果を出力するニューラルネットワークを備えていることを特徴とする請求項1記載のデータ解析装置。
  3. 前記複数のセンサのそれぞれがカメラであり、
    前記解析結果分類部は、
    前記複数のセンサの属性情報及び設置情報を参照して、前記複数のカメラの撮影範囲をそれぞれ算出し、前記複数のカメラの中で、互いの撮影範囲に重なりが有る各々のカメラに対応するデータ解析部の解析結果を同一のグループに分類し、
    地図情報を参照して、前記複数のカメラのそれぞれの撮影範囲の間において、行き来可能な道路が存在しているか否かをそれぞれ判定し、互いの撮影範囲に重なりが無くても、互いの撮影範囲の間に行き来可能な道路が存在している各々のカメラに対応するデータ解析部の解析結果を同一のグループに分類することを特徴とする請求項1記載のデータ解析装置。
  4. 前記解析結果分類部は、各々のカメラをノードとして、互いの撮影範囲に重なりが有るカメラ同士、あるいは、互いの撮影範囲の間に行き来可能な道路が存在しているカメラ同士をエッジで結んでいるノード接続グラフを生成し、
    前記統合解析部は、前記解析結果分類部により生成されたノード接続グラフを参照して、前記複数の第1ニューラルネットワークを構築することを特徴とする請求項3記載のデータ解析装置。
  5. センサにより観測されたデータから、解析対象の複数のデータをそれぞれ抽出するデータ抽出部と、
    前記データ抽出部により抽出された複数のデータのうち、いずれか1つ以上のデータを解析して、前記データの解析結果を出力する複数のデータ解析部と、
    前記複数のデータ解析部のそれぞれから出力される解析結果をグループ分けする解析結果分類部と、
    前記解析結果分類部により同一のグループに分けられた1つ以上の解析結果を入力して、前記1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、前記複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有する統合解析部と
    を備えたデータ解析装置。
JP2019532249A 2017-07-25 2017-07-25 データ解析装置 Active JP6625289B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/026849 WO2019021369A1 (ja) 2017-07-25 2017-07-25 データ解析装置

Publications (2)

Publication Number Publication Date
JP6625289B2 JP6625289B2 (ja) 2019-12-25
JPWO2019021369A1 true JPWO2019021369A1 (ja) 2020-05-28

Family

ID=65040693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019532249A Active JP6625289B2 (ja) 2017-07-25 2017-07-25 データ解析装置

Country Status (3)

Country Link
JP (1) JP6625289B2 (ja)
TW (1) TW201909033A (ja)
WO (1) WO2019021369A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115053280B (zh) * 2020-02-17 2024-05-03 三菱电机株式会社 模型生成装置、车载装置和模型生成方法
JP7297712B2 (ja) * 2020-03-27 2023-06-26 Kddi株式会社 情報処理装置、情報処理方法、及びプログラム
KR102423844B1 (ko) * 2020-05-29 2022-07-22 (주)씽크포비엘 크라우드 검증 기반 다채널 이미지 학습 데이터 레이블링 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816788A (ja) * 1994-06-30 1996-01-19 Yuuseidaijin 個人固有の複数の身体的特徴を用いる個人認証方法
JPH0926948A (ja) * 1995-07-11 1997-01-28 Fujitsu Ltd ニューラルネットワークによる情報処理装置
JP2003085571A (ja) * 2001-09-07 2003-03-20 Tomy Co Ltd 塗り絵玩具
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816788A (ja) * 1994-06-30 1996-01-19 Yuuseidaijin 個人固有の複数の身体的特徴を用いる個人認証方法
JPH0926948A (ja) * 1995-07-11 1997-01-28 Fujitsu Ltd ニューラルネットワークによる情報処理装置
JP2003085571A (ja) * 2001-09-07 2003-03-20 Tomy Co Ltd 塗り絵玩具
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法

Also Published As

Publication number Publication date
WO2019021369A1 (ja) 2019-01-31
TW201909033A (zh) 2019-03-01
JP6625289B2 (ja) 2019-12-25

Similar Documents

Publication Publication Date Title
CN105335955B (zh) 对象检测方法和对象检测装置
JP6625289B2 (ja) データ解析装置
US20180285656A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JPWO2016114134A1 (ja) 移動状況推定装置、移動状況推定方法およびプログラム
WO2023030370A1 (zh) 内窥镜图像检测方法、装置、存储介质及电子设备
GB2575282A (en) Event entity monitoring network and method
KR20170066258A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP2011003180A (ja) 画像収集装置に用いる天空検出装置及び方法
JP6723079B2 (ja) 物体距離検出装置
KR102043366B1 (ko) 최대 공통 뷰를 이용한 공간참조 영상들간의 궤적 유사도 측정방법
CN114612835A (zh) 一种基于YOLOv5网络的无人机目标检测模型
US20230048497A1 (en) Apparatus and method with object detection
US11263773B2 (en) Object detection apparatus, object detection method, computer program product, and moving object
CN113012215A (zh) 一种空间定位的方法、系统及设备
JP7001149B2 (ja) データ提供システムおよびデータ収集システム
JP7001150B2 (ja) 識別システム、モデル再学習方法およびプログラム
JP2020154478A (ja) 物体検出装置、物体検出方法、プログラム、および移動体
JP7384158B2 (ja) 画像処理装置、移動装置、および方法、並びにプログラム
US20230125724A1 (en) Computer-implemented method and non-transitory computer-readable medium for generating a thumbnail from a video stream or file, and video surveillance system
US10979675B2 (en) Video monitoring apparatus for displaying event information
JP7238821B2 (ja) 地図生成システム及び地図生成プログラム
JP7136330B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020054058A1 (ja) 識別システム、パラメータ値更新方法およびプログラム
CN111488777A (zh) 对象识别方法、对象识别装置和电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190927

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R150 Certificate of patent or registration of utility model

Ref document number: 6625289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250