JPWO2019021369A1 - データ解析装置 - Google Patents
データ解析装置 Download PDFInfo
- Publication number
- JPWO2019021369A1 JPWO2019021369A1 JP2019532249A JP2019532249A JPWO2019021369A1 JP WO2019021369 A1 JPWO2019021369 A1 JP WO2019021369A1 JP 2019532249 A JP2019532249 A JP 2019532249A JP 2019532249 A JP2019532249 A JP 2019532249A JP WO2019021369 A1 JPWO2019021369 A1 JP WO2019021369A1
- Authority
- JP
- Japan
- Prior art keywords
- data
- analysis
- unit
- results
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007405 data analysis Methods 0.000 title claims abstract description 116
- 238000004458 analytical method Methods 0.000 claims abstract description 185
- 238000013528 artificial neural network Methods 0.000 claims abstract description 100
- 238000012351 Integrated analysis Methods 0.000 claims abstract description 41
- 238000012950 reanalysis Methods 0.000 claims abstract description 20
- 238000013075 data extraction Methods 0.000 claims description 17
- 238000009434 installation Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 19
- 238000000034 method Methods 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 13
- 230000004913 activation Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 7
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 1
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 1
- 101000661816 Homo sapiens Suppression of tumorigenicity 18 protein Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 101000585359 Homo sapiens Suppressor of tumorigenicity 20 protein Proteins 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
近年では、人が映像を見ることによって監視するだけでなく、映像を解析することで、不審物又は不審者を検知してアラートを出力する機能、あるいは、映像を解析することで、ある特定の事象が起きていることを検知し、検知した事象の記録を行う機能を備えるデータ解析装置が開発されている。
このデータ解析装置は、互いに異なるカメラから出力された撮影データが示す映像を解析して、映像内に存在している物体を検出する複数の検出部と、複数の検出部の検出結果を統合し、統合した検出結果から物体を追跡する統合追跡部とを備えている。
データ解析装置が備えている複数の検出部は、例えば、物体を学習しているニューラルネットワークを有する識別器を使用している。この識別器は、カメラの映像を示す撮影データをニューラルネットワークに入力することで、ニューラルネットワークから物体の検出結果を得ている。
しかし、統合追跡部は、あくまでも、複数の検出部の検出結果を統合するものであって、複数の検出部が有しているニューラルネットワークを統合するものではない。このため、物体の検出可能な領域は、複数のカメラの撮影範囲内に限られる。
仮に、複数の検出部が有しているニューラルネットワークを統合することが可能であるとすれば、それぞれのカメラで検出に至る過程の解析情報を統合することにより、或るカメラの撮影範囲と、或るカメラの撮影範囲との間の領域に存在している物体についても、検出できる可能性がある。
しかし、複数の検出部が有しているニューラルネットワークを単に統合する場合、あまり関連性がないカメラの撮影データを入力するニューラルネットワーク同士の統合も行われるため、ニューラルネットワークの規模が極めて大きくなるうえ、不要な情報が入力されることで検出精度が劣化する可能性がある。
規模が極めて大きいニューラルネットワークは、学習時に決定しなければならない重みの数が膨大である。このため、膨大な学習データと学習時間を要することになる。また、膨大な学習時間を費やしても、適正な重みを獲得できない事態が頻発して、物体の検出精度が劣化してしまうことがある。
したがって、複数の検出部が有しているニューラルネットワークを統合することが可能であるとしても、カメラから出力された撮影データの解析結果に誤りが生じてしまうことがあるという課題があった。
図1は、この発明の実施の形態1によるデータ解析装置が適用される解析システムを示す構成図である。
図1において、カメラ1−1〜1−Nは、例えば、道路の周辺に存在している構造物に設置されており、道路などを撮影して、道路などの映像を示す撮影データを出力するセンサである。Nは、2以上の整数である。
この実施の形態1では、センサがカメラである例を説明するが、センサは、観測データを出力するものであれば、カメラに限るものではなく、例えば、センサが振動計又は温度計であってもよい。センサが振動計であれば、観測データとして振動データが出力され、センサが温度計であれば、観測データとして温度データが出力される。
ただし、ネットワーク2は、カメラ1−1〜1−Nと、データ解析装置3と、表示装置4とを有線又は無線で接続することができればよく、インターネットに限るものではない。
したがって、ネットワーク2は、例えば、LAN(Local Area Network)であってもよい。また、カメラ1−1〜1−Nと、データ解析装置3と、表示装置4とが直接接続されていれば、ネットワーク2が設けられていなくてもよい。
表示装置4は、ネットワーク2と接続されており、データ解析装置3から出力された撮影データの解析結果を表示する装置である。
また、表示装置4は、カメラ1−1〜1−Nから出力された撮影データが示す映像を表示する。
なお、表示装置4がスピーカを備えている場合、スピーカを用いて、データ解析装置3から出力された撮影データの解析結果を音で出力するようにしてもよい。
図2及び図3において、データ解析部11−1〜11−Nは、カメラ1−1〜1−Nと一対一で対応付けられている。
データ解析部11−n(n=1,2,・・・,N)は、例えば図3に示すデータ解析回路21で実現される。
データ解析部11−nは、カメラ1−nから出力された撮影データを取得し、取得した撮影データを解析して、撮影データの解析結果を統合解析部13に出力する処理を実施する。データ解析回路21は、カメラ1−nから出力された撮影データを取得するためのネットワークインタフェースなどを備えている。
この実施の形態1では、データ解析部11−1〜11−Nと、カメラ1−1〜1−Nとが一対一で対応付けられている例を説明するが、データ解析部11−nが、複数のカメラと対応付けられており、複数のカメラから出力された撮影データを解析するようにしてもよい。
解析結果分類部12は、データ解析部11−1〜11−Nのそれぞれから出力される解析結果のグループ分けを実施する。
統合解析部13は、例えば図3に示す統合解析回路23で実現される。
統合解析部13は、解析結果分類部12により同一のグループに分けられた1つ以上の解析結果を入力して、1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークを有している。
また、統合解析部13は、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークを有している。
第2ニューラルネットワークの出力が、データ解析装置3により得られる最終的な解析結果である。
データ解析回路21、解析結果分類回路22及び統合解析回路23は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、または、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)が該当する。
データ解析装置3がソフトウェア又はファームウェアなどで実現される場合、データ解析部11−1〜11−N、解析結果分類部12及び統合解析部13の処理手順をコンピュータに実行させるためのプログラムをメモリ31に格納し、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行するようにすればよい。
また、図3では、データ解析装置3の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図4では、データ解析装置3がソフトウェアやファームウェアなどで実現される例を示しているが、データ解析装置3における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
この実施の形態1では、複数のセンサがカメラ1−1〜1−Nである例を説明する。
図5は、道路の周辺に存在している構造物などに設置されている7台のカメラ1−1〜1−7の撮影範囲の一例を示す説明図である。
カメラ1−1〜1−7の撮影範囲は、破線で囲まれている領域であり、1−1aは、カメラ1−1の撮影範囲、1−2aは、カメラ1−2の撮影範囲、1−3aは、カメラ1−3の撮影範囲である。
また、1−4aは、カメラ1−4の撮影範囲、1−5aは、カメラ1−5の撮影範囲、1−6aは、カメラ1−6の撮影範囲、1−7aは、カメラ1−7の撮影範囲である。
図中、実線は、道路を表している。
データ解析装置3のデータ解析部11−n(n=1,2,・・・,N)は、カメラ1−nから出力された撮影データを取得し、取得した撮影データを解析して、撮影データの解析結果を統合解析部13に出力する。
データ解析部11−nによる撮影データの解析手法として、例えば、多層のニューラルネットワークであるディープニューラルネットワークに基づく手法が考えられる。
図6において、x0,x1,・・・,xDは、ニューラルネットワークに入力されるデータである。
w0,w1,・・・,wDは、データx0,x1,・・・,xDに対する重みであり、例えば、学習用のデータを用いて事前に決定される。
yは、ニューラルネットワークから出力されるデータの解析結果である。
図7に示すディープニューラルネットワークは、データx0,x1,・・・,xDが入力されると、以下の式(1)に示すような演算を実施し、データの解析結果yを出力する。
式(1)において、x0は、常に1である。fは、ステップ関数、シグモイド関数、ランプ関数などの活性化関数である。
yは、活性化関数の演算結果であるy1,・・・,yMを有するデータの解析結果である。
以下、図8を参照しながら、データ解析部11−nの処理内容を具体的に説明する。
まず、データ解析部11−nは、カメラ1−nから出力された撮影データx0,x1,・・・,xDを取得する(図8のステップST1)。
撮影データx0,x1,・・・,xDは、例えば、カメラ1−nの映像を構成する画素の値が該当する。
撮影データx0,x1,・・・,xDが図7に示すディープニューラルネットワークに入力されることで、ディープニューラルネットワークから、カメラ1−nの映像の特徴を表す特徴ベクトル、あるいは、映像に所定の事象が含まれている確率を示す確率ベクトルを示す解析結果y1,y2,・・・,yMが得られる。
所定の事象の種類として、様々な種類が考えられ、アプリケーションに応じて適切な事象が選択される。例えば、図1に示す解析システムが、道路の監視を目的とする場合、道路の渋滞、道路の封鎖などの事象が含まれる。
また、撮影データx0,x1,・・・,xDに対する重みw0,w1,・・・,wDについても、事前に決定しておく必要がある。
この段階では、図7に示すディープニューラルネットワークの演算対象層は、最下位層であり、図7において、最も左側の層である。
データ解析部11−nは、重みw0,w1,・・・,wDと、撮影データx0,x1,・・・,xDとを入力した活性化関数f(・)を演算し、活性化関数f(・)の演算結果y1,y2,・・・,yMを演算対象層の次の層の入力データとして出力する(図8のステップST3)。
この段階では、演算対象層の次の層は、演算対象層よりも1つ上位の層である。演算対象層が最下位層であれば、演算対象層の次の層は、図7において、左から2番目の層である。
図7に示すディープニューラルネットワークの最上位層は、図7において、最も右側の層である。
データ解析部11−nは、次の層が最上位層でなければ(図8のステップST4:NOの場合)、次の層を演算対象層に設定する(図8のステップST5)。
データ解析部11−nは、事前に決定されている重みのうち、ステップST5の処理で設定した演算対象層に適用される重みw0,w1,・・・,wDと、ステップST3の処理で出力した演算対象層の入力データとを活性化関数f(・)に入力する(図8のステップST2)。
データ解析部11−nは、演算対象層に適用される重みw0,w1,・・・,wDと、演算対象層の入力データとを入力した活性化関数f(・)を演算し、活性化関数f(・)の演算結果y1,y2,・・・,yMを演算対象層の次の層の入力データとして出力する(図8のステップST3)。
データ解析部11−nは、演算対象層の次の層が最上位層でなければ(図8のステップST4:NOの場合)、演算対象層の次の層が最上位層になるまで、ステップST5,ST2,ST3の処理を繰り返し実施する。
カメラ1−1〜1−Nの撮影範囲における道路渋滞等の事象の発生は、カメラ1−1〜1−Nから出力された撮影データx0,x1,・・・,xDを解析することで、検知することができる。
また、2つのカメラの撮影範囲の間の領域における事象の発生は、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することで、検知できることがある。しかし、2つのカメラの撮影範囲の間で、車両等が行き来可能な道路が存在しない場合、2つのカメラの撮影範囲の間の領域において、道路渋滞等の事象が発生することはない。
したがって、車両等が行き来可能な道路が存在しない場合、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することは、事象の発生を検知する上で意味がない。
一方、車両等が行き来可能な道路が存在する場合、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することは、事象の発生を検知する上で有用である。
また、2つのカメラの撮影範囲の間に重なりがある場合、2つのカメラの撮影範囲における交通状況は、互いに関連している可能性が高い。このため、2つのカメラから出力された撮影データの解析結果をニューラルネットワークに入力して、2つの解析結果を再解析することは、事象の発生を検知する上で有用である。
また、カメラ1−2の撮影範囲1−2aと、カメラ1−3の撮影範囲1−3a及びカメラ1−4の撮影範囲1−4aとは、重なりが無いが、行き来可能な道路が存在している。
このため、データ解析部11−2,11−3,11−4の解析結果をニューラルネットワークに入力して、3つの解析結果を再解析することは、事象の発生を検知する上で有用である。
図9では、7台のカメラ1−1〜1−7のそれぞれをノードで表している。
また、図9では、互いの撮影範囲に重なりが有るカメラ同士、あるいは、互いの撮影範囲の間に行き来可能な道路が存在しているカメラ同士をエッジで結んでいるノード接続グラフを表している。
ノード接続グラフ(1)は、カメラ1−1〜1−4に対応するデータ解析部11−1〜11−4の解析結果を同一のグループに分類する旨を示し、ノード接続グラフ(2)は、カメラ1−5〜1−7に対応するデータ解析部11−5〜11−7の解析結果を同一のグループに分類する旨を示している。
以下、図10を参照しながら、解析結果分類部12の処理内容を具体的に説明する。
まず、解析結果分類部12は、カメラ1−1〜1−Nの撮影範囲をそれぞれ算出する(図10のステップST11)。
カメラ1−n(n=1,2,・・・,N)の撮影範囲は、カメラ1−nの属性情報及び設置情報を参照することで算出することが可能である。
αx=f・mx、αy=f・myであり、mx及びmyは、画素と距離の関係を表すスケールファクタ、fは、焦点距離である。
また、γは、カメラの製造過程で生じるx軸とy軸のひずみを表すパラメータであり、通常は0であるため問題ない。
u0及びv0は、主点と呼ばれ、画像平面とカメラの主軸が交わる点である。u0及びv0は、通常は画像中心とほぼ一致する。
なお、カメラ1−nの内部パラメータαx,αy,γ,u0,v0は、カメラ1−nの撮影範囲を正確に算出するために必要な情報の一例であり、内部パラメータαx,αy,γ,u0,v0以外の属性情報を用いて、カメラ1−nの撮影範囲を算出するようにしてもよい。
カメラ1−nが設置されている高さを示す情報は、例えば、カメラ1−nが設置されている高度を示す情報である。
カメラ1−nが設置されている角度を示す情報は、カメラ1−nのレンズが向いている方向である方位角及び地面に対する俯角などを示す情報である。
なお、カメラ1−nの設置情報は、カメラ1−1の撮影範囲を正確に算出するために必要な情報の一例であり、設置情報以外の情報を用いて、カメラ1−1の撮影範囲を算出するようにしてもよい。
この実施の形態1では、カメラ1−nの撮影範囲を算出する処理自体は、公知の技術であるため、算出処理の詳細は省略する。
次に、解析結果分類部12は、カメラを識別する変数iを1に初期化してから(図10のステップST13)、カメラを識別する変数jにi+1を代入する(図10のステップST14)。
解析結果分類部12は、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲とに重なりが無いと判定すると(図10のステップST15:NOの場合)、地図情報を参照して、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲との間に行き来可能な道路が存在しているか否かを判定する(図10のステップST16)。
また、解析結果分類部12は、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲との間に行き来可能な道路が存在していると判定した場合(図10のステップST16:YESの場合)、カメラ1−iに対応するノードと、カメラ1−jに対応するノードとをエッジで接続する(図10のステップST17)。
解析結果分類部12は、カメラ1−iの撮影範囲と、カメラ1−jの撮影範囲とに重なりが無く(図10のステップST15:NOの場合)、かつ、行き来可能な道路が存在していないと判定した場合(図10のステップST16:NOの場合)、カメラ1−iに対応するノードと、カメラ1−jに対応するノードとをエッジで接続する処理を行わない。
例えば、7台のカメラ1−1〜1−7が図5のように設置されている場合、解析結果分類部12から、図9に示すようなノード接続グラフ(1)及びノード接続グラフ(2)のそれぞれが統合解析部13に出力される。
解析結果分類部12から出力されるノード接続グラフは、エッジに重みが付加されておらず、エッジの向きも限定されていない無向グラフであるが、エッジに重みが付加されていてもよいし、エッジの向きが限定されていてもよい。
エッジへの重みとしては、例えば、カメラ間の距離、あるいは、カメラ間の撮影範囲の重なり度合いを利用することができる。
式(3)において、Dは、カメラ1−iとカメラ1−jとの距離である。
Aiは、カメラ1−iの撮影範囲の面積、Ajは、カメラ1−jの撮影範囲の面積である。
Aijは、カメラ1−iの撮影範囲とカメラ1−jの撮影範囲とが重なっている領域の面積である。
a,bは、定数であり、a+b=1である。例えば、a=b=0.5が考えられる。
エッジの向きとしては、例えば、2つのノード間を接続するエッジに対応する道路が一方通行であれば、通行が可能な方向をエッジの向きとする態様が考えられる。
例えば、解析結果分類部12によって、図9に示すような2つのノード接続グラフ(1)(2)が生成されている場合、統合解析部13は、図11に示すような第1ニューラルネットワークのモデル(1)(2)を構築する。図11に示すニューラルネットワークについても、ディープニューラルネットワークである。
図11の例では、説明の簡単化のため、各々のデータ解析部11−n(n=1,2,・・・,N)から出力される解析結果をy11−nで表している。y11−nは、スカラ値のような表現であるが、実際にはベクトルである。
図11の例では、統合解析部13は、ノード接続グラフ(1)に従ってデータ解析部11−1〜11−4の解析結果y11−1〜y11−4を入力して、解析結果y11−1〜y11−4を再解析する第1ニューラルネットワークのモデル(1)を構築している。
また、統合解析部13は、ノード接続グラフ(2)に従ってデータ解析部11−5〜11−7の解析結果y11−5〜y11−7を入力して、解析結果y11−5〜y11−7を再解析する第1ニューラルネットワークのモデル(2)を構築している。
さらに、統合解析部13は、2つの第1ニューラルネットワークの再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークのモデルを構築している。
図11の例では、統合解析部13は、データ解析部11−1〜11−4の解析結果y11−1〜y11−4を第1ニューラルネットワークのモデル(1)に入力し、第1ニューラルネットワークのモデル(1)の再解析結果を得る。
また、統合解析部13は、データ解析部11−5〜11−7の解析結果y11−5〜y11−7を第1ニューラルネットワークのモデル(2)に入力し、第1ニューラルネットワークのモデル(2)の再解析結果を得る。
統合解析部13は、第1ニューラルネットワークのモデル(1)の再解析結果と、第1ニューラルネットワークのモデル(2)の再解析結果とを第2ニューラルネットワークのモデルに入力する。
この結果、最終的な解析結果z1,z2,・・・,zMとして、第2ニューラルネットワークのモデルの出力が得られる。
この解析結果z1,z2,・・・,zMには、例えば、カメラ1−2の撮影範囲1−2aと、カメラ1−3,1−4の撮影範囲1−3a,1−4aとの間の領域における特徴ベクトル、あるいは、確率ベクトルが含まれている。
これにより、第2ニューラルネットワークから最終的な解析結果z1,z2,・・・,zMが得られるが、解析結果y11−1〜y11−Nを図12に示すようなニューラルネットワークに入力して、解析結果y11−1〜y11−Nを再解析することでも、解析結果を得ることができる。
しかし、解析結果y11−1〜y11−Nを図12に示すようなニューラルネットワークに入力する場合、以下に示す問題を生じる。
図12に示すニューラルネットワークのモデルは、あまり関連性がない解析結果同士の間でも演算が行われるため、図11に示すニューラルネットワークのモデルよりも、規模が大きなモデルになる。
規模が極端に巨大なニューラルネットワークは、学習時に決定しなければならない重みの数が膨大である。このため、膨大な学習データと学習時間を要することになる。また、膨大な学習時間を費やしても、適正な重みを獲得できない事態が頻発する問題を生じる。
仮に、適正な重みを獲得できても、膨大な回数の演算が行われるため、解析結果y11−1〜y11−Nがニューラルネットワークに入力されてから、ニューラルネットワークから解析結果z1,z2,・・・,zMが得られるまでに、多大な時間を要する問題を生じる。
このため、例えば、第3及び第4のニューラルネットワークを更に備えるなど、より多くのニューラルネットワークを備える構成であってもよい。
上記実施の形態1では、データ解析装置3が、複数のセンサにより観測されたデータを解析する例を示している。
この実施の形態2では、データ解析装置3が、入力データに含まれている複数のデータのそれぞれを抽出し、抽出した各々のデータを解析する例を説明する。
図14は、この発明の実施の形態2によるデータ解析装置3を示すハードウェア構成図である。
図13及び図14において、図2及び図3と同一符号は同一または相当部分を示すので説明を省略する。
データ抽出部40は、例えば、図14に示すデータ抽出回路50で実現される。
データ抽出部40は、センサにより観測されたデータから、解析対象の複数のデータをそれぞれ抽出し、抽出したデータのそれぞれをデータ解析部11−1〜11−Nに出力する処理を実施する。
この実施の形態2では、センサがカメラであり、カメラにより撮影されたデータがデータ解析装置3に与えられる例を説明する。
データ抽出部40は、カメラから出力された撮影データを受けると、撮影データから、解析対象の複数のデータをそれぞれ抽出する。
また、データ抽出部40は、映像に含まれている物体の時間的な変化を監視して、物体の動きを検出する。
データ抽出部40は、解析対象のデータとして、例えば、物体の形状を示す形状データをデータ解析部11−1に出力し、物体の色を示す色データをデータ解析部11−2に出力し、物体の動きを示す動きデータをデータ解析部11−3に出力する。
ここでは、データ抽出部40が、解析対象のデータとして、形状データ、色データ及び動きデータのそれぞれをデータ解析部11−1〜11−3に出力する例を示しているが、これは一例であり、解析対象のデータとして、他のデータを出力するようにしてもよい。
他のデータとして、例えば、物体の速度を示す速度データ、あるいは、物体の温度を示す温度データが考えられる。
また、ここでは、データ抽出部40が、解析対象のデータとして、3つのデータを出力する例を示しているが、解析対象のデータの数は2つ以上であればよい。
ただし、上記実施の形態1では、解析結果分類部12が、複数のセンサの属性情報、設置情報及び地図情報を参照して、解析結果のグループ分けを実施しているが、この実施の形態2では、解析結果分類部12が、事前に与えられる知識に基づいて、解析結果のグループ分けを実施する。
以下、解析結果分類部12による解析結果のグループ分け処理を具体的に説明する。
この実施の形態2では、データ抽出部40から、解析対象のデータとして、形状データ、色データ及び動きデータのそれぞれがデータ解析部11−1〜11−3に出力されるものとする。
交通標識は、所定の場所に設置されており、一般的には移動することがない。このため、動きデータの解析結果が停止している旨を示していれば、交通標識である可能性があるが、動きデータの解析結果が動いている旨を示していれば、交通標識である可能性は極めて低い。よって、交通標識を検知する上で、動きデータの解析結果を用いることは有用である。
しかし、交通標識の動きは、交通標識の形状及び色との関係性が薄いため、動きデータの解析結果を、形状データの解析結果及び色データの解析結果を含むグループに含めることは、交通標識を検知する上で有用でない。
この知識の例では、解析結果分類部12は、形状データの解析結果と、色データの解析結果とを同一のグループに含め、動きデータの解析結果を形状データの解析結果及び色データの解析結果を含むグループに含めないようにする。
また、統合解析部13は、上記実施の形態1と同様に、複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークを有している。
第2ニューラルネットワークの出力が、上記実施の形態1と同様に、データ解析装置3により得られる最終的な解析結果である。
Claims (5)
- 互いに異なる複数のセンサのうち、いずれか1つ以上のセンサにより観測されたデータを解析して、前記データの解析結果を出力する複数のデータ解析部と、
前記複数のデータ解析部のそれぞれから出力される解析結果をグループ分けする解析結果分類部と、
前記解析結果分類部により同一のグループに分けられた1つ以上の解析結果を入力して、前記1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、前記複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有する統合解析部と
を備えたデータ解析装置。 - 前記データ解析部は、いずれか1つ以上のセンサにより観測されたデータを入力して、前記データの解析結果を出力するニューラルネットワークを備えていることを特徴とする請求項1記載のデータ解析装置。
- 前記複数のセンサのそれぞれがカメラであり、
前記解析結果分類部は、
前記複数のセンサの属性情報及び設置情報を参照して、前記複数のカメラの撮影範囲をそれぞれ算出し、前記複数のカメラの中で、互いの撮影範囲に重なりが有る各々のカメラに対応するデータ解析部の解析結果を同一のグループに分類し、
地図情報を参照して、前記複数のカメラのそれぞれの撮影範囲の間において、行き来可能な道路が存在しているか否かをそれぞれ判定し、互いの撮影範囲に重なりが無くても、互いの撮影範囲の間に行き来可能な道路が存在している各々のカメラに対応するデータ解析部の解析結果を同一のグループに分類することを特徴とする請求項1記載のデータ解析装置。 - 前記解析結果分類部は、各々のカメラをノードとして、互いの撮影範囲に重なりが有るカメラ同士、あるいは、互いの撮影範囲の間に行き来可能な道路が存在しているカメラ同士をエッジで結んでいるノード接続グラフを生成し、
前記統合解析部は、前記解析結果分類部により生成されたノード接続グラフを参照して、前記複数の第1ニューラルネットワークを構築することを特徴とする請求項3記載のデータ解析装置。 - センサにより観測されたデータから、解析対象の複数のデータをそれぞれ抽出するデータ抽出部と、
前記データ抽出部により抽出された複数のデータのうち、いずれか1つ以上のデータを解析して、前記データの解析結果を出力する複数のデータ解析部と、
前記複数のデータ解析部のそれぞれから出力される解析結果をグループ分けする解析結果分類部と、
前記解析結果分類部により同一のグループに分けられた1つ以上の解析結果を入力して、前記1つ以上の解析結果を再解析するグループ単位の複数の第1ニューラルネットワークと、前記複数の第1ニューラルネットワークのそれぞれの出力である再解析結果を入力して、複数の再解析結果を再解析する第2ニューラルネットワークとを有する統合解析部と
を備えたデータ解析装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/026849 WO2019021369A1 (ja) | 2017-07-25 | 2017-07-25 | データ解析装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6625289B2 JP6625289B2 (ja) | 2019-12-25 |
JPWO2019021369A1 true JPWO2019021369A1 (ja) | 2020-05-28 |
Family
ID=65040693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019532249A Active JP6625289B2 (ja) | 2017-07-25 | 2017-07-25 | データ解析装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6625289B2 (ja) |
TW (1) | TW201909033A (ja) |
WO (1) | WO2019021369A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115053280B (zh) * | 2020-02-17 | 2024-05-03 | 三菱电机株式会社 | 模型生成装置、车载装置和模型生成方法 |
JP7297712B2 (ja) * | 2020-03-27 | 2023-06-26 | Kddi株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR102423844B1 (ko) * | 2020-05-29 | 2022-07-22 | (주)씽크포비엘 | 크라우드 검증 기반 다채널 이미지 학습 데이터 레이블링 방법 및 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0816788A (ja) * | 1994-06-30 | 1996-01-19 | Yuuseidaijin | 個人固有の複数の身体的特徴を用いる個人認証方法 |
JPH0926948A (ja) * | 1995-07-11 | 1997-01-28 | Fujitsu Ltd | ニューラルネットワークによる情報処理装置 |
JP2003085571A (ja) * | 2001-09-07 | 2003-03-20 | Tomy Co Ltd | 塗り絵玩具 |
WO2015098442A1 (ja) * | 2013-12-26 | 2015-07-02 | 株式会社日立国際電気 | 映像検索システム及び映像検索方法 |
-
2017
- 2017-07-25 WO PCT/JP2017/026849 patent/WO2019021369A1/ja active Application Filing
- 2017-07-25 JP JP2019532249A patent/JP6625289B2/ja active Active
- 2017-11-29 TW TW106141574A patent/TW201909033A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0816788A (ja) * | 1994-06-30 | 1996-01-19 | Yuuseidaijin | 個人固有の複数の身体的特徴を用いる個人認証方法 |
JPH0926948A (ja) * | 1995-07-11 | 1997-01-28 | Fujitsu Ltd | ニューラルネットワークによる情報処理装置 |
JP2003085571A (ja) * | 2001-09-07 | 2003-03-20 | Tomy Co Ltd | 塗り絵玩具 |
WO2015098442A1 (ja) * | 2013-12-26 | 2015-07-02 | 株式会社日立国際電気 | 映像検索システム及び映像検索方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019021369A1 (ja) | 2019-01-31 |
TW201909033A (zh) | 2019-03-01 |
JP6625289B2 (ja) | 2019-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105335955B (zh) | 对象检测方法和对象检测装置 | |
JP6625289B2 (ja) | データ解析装置 | |
US20180285656A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium, for estimating state of objects | |
JP5663352B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JPWO2016114134A1 (ja) | 移動状況推定装置、移動状況推定方法およびプログラム | |
WO2023030370A1 (zh) | 内窥镜图像检测方法、装置、存储介质及电子设备 | |
GB2575282A (en) | Event entity monitoring network and method | |
KR20170066258A (ko) | 정보 처리 장치, 정보 처리 방법 및 기록 매체 | |
JP2011003180A (ja) | 画像収集装置に用いる天空検出装置及び方法 | |
JP6723079B2 (ja) | 物体距離検出装置 | |
KR102043366B1 (ko) | 최대 공통 뷰를 이용한 공간참조 영상들간의 궤적 유사도 측정방법 | |
CN114612835A (zh) | 一种基于YOLOv5网络的无人机目标检测模型 | |
US20230048497A1 (en) | Apparatus and method with object detection | |
US11263773B2 (en) | Object detection apparatus, object detection method, computer program product, and moving object | |
CN113012215A (zh) | 一种空间定位的方法、系统及设备 | |
JP7001149B2 (ja) | データ提供システムおよびデータ収集システム | |
JP7001150B2 (ja) | 識別システム、モデル再学習方法およびプログラム | |
JP2020154478A (ja) | 物体検出装置、物体検出方法、プログラム、および移動体 | |
JP7384158B2 (ja) | 画像処理装置、移動装置、および方法、並びにプログラム | |
US20230125724A1 (en) | Computer-implemented method and non-transitory computer-readable medium for generating a thumbnail from a video stream or file, and video surveillance system | |
US10979675B2 (en) | Video monitoring apparatus for displaying event information | |
JP7238821B2 (ja) | 地図生成システム及び地図生成プログラム | |
JP7136330B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2020054058A1 (ja) | 識別システム、パラメータ値更新方法およびプログラム | |
CN111488777A (zh) | 对象识别方法、对象识别装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190927 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190927 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190927 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6625289 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |