JP7452095B2 - データ処理装置、データ処理方法およびプログラム - Google Patents

データ処理装置、データ処理方法およびプログラム Download PDF

Info

Publication number
JP7452095B2
JP7452095B2 JP2020032250A JP2020032250A JP7452095B2 JP 7452095 B2 JP7452095 B2 JP 7452095B2 JP 2020032250 A JP2020032250 A JP 2020032250A JP 2020032250 A JP2020032250 A JP 2020032250A JP 7452095 B2 JP7452095 B2 JP 7452095B2
Authority
JP
Japan
Prior art keywords
model
validity
vehicle
detection
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020032250A
Other languages
English (en)
Other versions
JP2021135816A (ja
Inventor
孝光 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2020032250A priority Critical patent/JP7452095B2/ja
Publication of JP2021135816A publication Critical patent/JP2021135816A/ja
Application granted granted Critical
Publication of JP7452095B2 publication Critical patent/JP7452095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、データ処理装置、データ処理方法およびプログラムに関する。
近年、機械学習によって学習済みのモデルを生成し、生成した学習済みモデルに推論を行わせる技術が知られている。かかる技術の一例として、ある環境に設置されたカメラによって得られた画像データに基づいて、学習済みモデルを用いて検知対象を検知する技術が開示されている(例えば、特許文献1参照)。
特開2019-106059号公報
しかし、対象となるデータに基づいて検知対象が検知される場合に当該対象となるデータが得られる環境が変動する場合があり得る。このとき、環境の変動に伴って検知対象の検知精度が低下してしまうおそれがある。そこで、検知対象の検知精度の低下を抑制することを可能とする技術が提供されることが望まれる。
上記問題を解決するために、本発明のある観点によれば、フレームに基づいて検知対象の検知を行う第1のモデルと、フレームに基づいて検知対象の検知を行う第2のモデルと、複数のフレームを取得し、フレームごとに前記第1のモデルまたは前記第2のモデルを利用モデルとして選択し、前記利用モデルによる検知が実行されるように前記複数のフレームを分配するフレーム分配部と、前記第1のモデルによる推論結果と前記第2のモデルによる推論結果とに基づいて、前記第1のモデルと前記第2のモデルとのうち、より正当性が高いモデルが前記利用モデルとして選択される頻度を高くする判断部と、を備える、データ処理装置が提供される。
前記第1のモデルと前記第2のモデルとは、互いに異なる環境において得られたデータに基づいて生成されてもよい。
前記環境は、天候、時間帯または場所であってもよい。
前記判断部は、前記第1のモデルによって検知対象が検知された第1の領域に検知対象が存在する第1の正解率を第1のモデルの正当性として算出するとともに、前記第2のモデルによって検知対象が検知された第2の領域に検知対象が存在する第2の正解率を前記第2のモデルの正当性として算出してもよい。
前記判断部は、前記第1のモデルによって得られた第1の検出スコアに基づいて前記第1のモデルの正当性を算出するとともに、前記第2のモデルによって得られた第2の検出スコアに基づいて前記第2のモデルの正当性を算出してもよい。
前記判断部は、第1の閾値よりも高い前記第1の検出スコアの数を前記第1のモデルの正当性として算出するとともに、第2の閾値よりも高い前記第2の検出スコアの数を前記第2のモデルの正当性として算出してもよい。
前記判断部は、前記第1の検出スコアの平均値を前記第1のモデルの正当性として算出するとともに、前記第2の検出スコアの平均値を前記第2のモデルの正当性として算出してもよい。
前記判断部は、所定のフレームごとに前記第1のモデルの正当性と前記第2のモデルの正当性との比較を行ってもよい。
前記判断部は、前記より正当性が高いモデルによって得られた検出スコアの平均値が所定の値よりも低くなった場合、または、前記より正当性が高いモデルによって得られた検出スコアが所定のスコアよりも高い数が所定の数よりも少なくなった場合に、前記第1のモデルの正当性と前記第2のモデルの正当性との比較を行ってもよい。
前記第1のモデルおよび前記第2のモデルそれぞれは、画像フレームに基づいて所定の物体または所定の事象を検知対象として検知してもよい。
前記第1のモデルによる物体検知の結果と前記第2のモデルによる物体検知の結果とに基づいて、前記複数のフレーム中の物体の軌跡を抽出する移動軌跡抽出部を備えてもよい。
前記第1のモデルおよび前記第2のモデルそれぞれは、音声フレームに基づいて所定の音または所定の事象を検知対象として検知してもよい。
また、本発明の別の観点によれば、複数のフレームを取得し、フレームごとに第1のモデルまたは第2のモデルを利用モデルとして選択し、前記利用モデルによる検知が実行されるように前記複数のフレームを分配することと、前記第1のモデルによる推論結果と前記第2のモデルによる推論結果とに基づいて、前記第1のモデルと前記第2のモデルとのうち、より正当性が高いモデルが前記利用モデルとして選択される頻度を高くすることと、を含む、コンピュータにより実行されるデータ処理方法が提供される。

また、本発明の別の観点によれば、コンピュータを、フレームに基づいて検知対象の検知を行う第1のモデルと、フレームに基づいて検知対象の検知を行う第2のモデルと、複数のフレームを取得し、フレームごとに前記第1のモデルまたは前記第2のモデルを利用モデルとして選択し、前記利用モデルによる検知が実行されるように前記複数のフレームを分配するフレーム分配部と、前記第1のモデルによる推論結果と前記第2のモデルによる推論結果とに基づいて、前記第1のモデルと前記第2のモデルとのうち、より正当性が高いモデルが前記利用モデルとして選択される頻度を高くする判断部と、を備えるデータ処理装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、検知対象の検知精度の低下を抑制することを可能とする技術が提供される。
本発明の実施形態に係るカメラによって撮像される画像フレームの例を示す図である。 本発明の実施形態に係る移動物体抽出システムの機能構成例を示すブロック図である。 同実施形態に係る移動物体抽出システムの動作の例を示すフローチャートである。 車両検出部による車両検出の例を示す図である。 1フレーム前の画像フレームでの車両検出の例を示す図である。 移動軌跡抽出部による車両追跡の例を示す図である。 計測線を跨いだ車両台数の計測の例を示す図である。 同実施形態に係る移動物体抽出システムにおける改善可能な点について説明するための図である。 画像フレーム分配部および判断部の具体的な機能について説明するための図である。 より正当性の高いモデルを判定する手法の例としての第1の判定例について説明するための図である。 より正当性の高いモデルを判定する手法の例としての第2の判定例について説明するための図である。 より正当性の高いモデルを判定する手法の例としての第3の判定例について説明するための図である。 同実施形態に係る移動物体抽出装置の例としての情報処理装置のハードウェア構成を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。
(0.概要)
本発明の実施形態は、対象となるデータに基づいて検知対象を検知する技術に関する。ここで、対象となるデータは、ある環境において時系列に沿って連続的に得られた複数のフレームである。以下の説明では、対象となるデータが動画像であり、複数のフレームが、ある環境に設置されたカメラによって時系列に沿って撮像される複数の画像フレームである場合を主に想定する。しかし、後にも説明するように、対象となるデータは、動画像に限定されないし、複数のフレームは、複数の画像フレームに限定されない。
さらに、以下の説明では、検知対象が画像フレームに写る物体である場合を主に想定する。しかし、検知対象は、画像フレームに写る物体に限定されない。また、以下では、検知対象としての物体の例として車両を例に挙げて説明する。しかし、検知対象としての物体は車両に限定されない。例えば、検知対象の例としての物体は、車両以外の乗り物であってもよいし、乗り物以外の物体(例えば、人など)であってもよい。以下では、単位時間あたりのフレームの数をフレームレートと言う。
本発明の実施形態では、検知対象を検知するモデルとして互いに異なる二つのモデル(すなわち、第1のモデルおよび第2のモデル)を利用する。第1のモデルと第2のモデルとは、互いに異なる環境において得られたデータに基づいて生成されたモデルである。したがって、第1のモデルと第2のモデルとは、それぞれに対応する環境において得られた動画像に基づいて検知対象を高精度に検知することが可能である。以下では、天候ごとに得られるフレームの特徴が変化し得ることが想定されるため、環境が天候である場合を主に想定する。
より詳細に、以下の説明では、第1のモデルが、晴れである天候の下にカメラによって撮像された画像データに基づいて生成された学習済みモデル(以下、「晴モデル」とも言う。)であり、第2のモデルが、雪である天候の下にカメラによって撮像された画像データに基づいて生成された学習済みモデル(以下、「雪モデル」とも言う。)である場合を主に想定する。しかし、天候は、晴れと雪とに限定されない。例えば、天候は、雨などであってもよい。さらに、後にも説明するように、環境は、天候に限定されない。
図1は、本発明の実施形態に係るカメラによって撮像される画像フレームの例を示す図である。図1を参照すると、本発明の実施形態に係るカメラによって撮像される動画像を構成する画像フレームG0が示されている。本発明の実施形態に係るカメラは、図1に示されるような道路平面を走行する車両を撮像可能な位置に設けられている。カメラは、イメージセンサを含んで構成されており、イメージセンサによって撮像範囲を撮像する。カメラの種類は特に限定されない。例えば、カメラは、可視光カメラであってもよいし、赤外光カメラであってもよい。
画像フレームG0には、車両の例として車両A1~A4およびその他の複数の車両が写っている。画像フレームG0には、あらかじめ車両の通過数を計測するための線(すなわち、計測線L0)が設定されている。本発明の実施形態では、計測線L0を跨いだ車両軌跡の数を計測する例について主に説明する。しかし、車両軌跡の数の計測は、車両軌跡の利用例の一例に過ぎない。すなわち、本発明の実施形態において抽出された車両軌跡の用途は特に限定されない。
また、本発明の実施形態では、計測線L0を跨いだ車両軌跡の数を、車両軌跡が計測線L0を跨いだ方向別に計測する例について主に説明する。すなわち、本発明の実施形態では、計測線L0を方向D1(計測線L0によって分割される二つの領域のうちの一方から他方)に跨いだ車両軌跡の数と計測線L0を方向D2(当該他方から当該一方)に跨いだ車両軌跡の数とを別々に計測する例について主に説明する。しかし、計測線L0を跨いだ車両軌跡の数は、車両軌跡が計測線L0を跨いだ方向の区別なく計測されてもよい。
以上、本発明の実施形態の概要について説明した。
(1.実施形態の詳細)
続いて、本発明の実施形態の詳細について説明する。
(1-1.システムの機能構成例)
まず、図2を参照しながら、本発明の実施形態に係る移動物体抽出システム(データ処理システム)の機能構成例について説明する。
図2は、本発明の実施形態に係る移動物体抽出システムの機能構成例を示すブロック図である。図2に示されるように、本発明の実施形態に係る移動物体抽出システム1は、移動物体抽出装置10(データ処理装置)およびカメラ20を備える。移動物体抽出装置10とカメラ20とは、有線または無線によって接続されており、カメラ20によって撮像された各画像フレームは、時系列に沿って連続的に移動物体抽出装置10に出力される。移動物体抽出装置10は、制御部110および記憶部130を備える。
制御部110は、プロセッサを含み、記憶部130により記憶されているプログラムがプロセッサによりRAM(Random Access Memory)に展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。あるいは、制御部110は、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
本発明の実施形態では、制御部110が、プロセッサの例として、2つのCPU(Central Processing Unit)およびAI(Artificial Intelligence)チップを含む場合を想定する。しかし、制御部110が含むプロセッサは、これらに限定されない。例えば、制御部110は、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)などのプロセッサを含んでもよい。本発明の実施形態では、このように互いに特性の異なる複数のプロセッサが並列化されており、当該複数のプロセッサによる分散処理が行われる場合を想定する。これによって高いパフォーマンスの演算が行われ得る。
制御部110は、車両検出部111と、移動軌跡抽出部115と、計測処理部116とを備える。車両検出部111は、画像フレーム分配部112と、晴モデルM1(第1のモデル)と、雪モデルM2(第2のモデル)とを備える。
晴モデルM1は、画像フレーム分配部112から入力される画像フレームから車両検知を行う。同様に、雪モデルM2は、画像フレーム分配部112から入力される画像フレームから車両検知を行う。
晴モデルM1および雪モデルM2それぞれは、画像フレーム分配部112から入力される画像フレームを構成する複数の矩形領域それぞれに車両が存在する確からしさを示す値を車両検出スコアとして出力する。一例として、車両検出スコアが所定のスコアよりも大きい矩形領域が、車両が存在する領域(車両領域)として検出される。
ここで、画像フレームを構成する矩形領域のサイズ、位置、数などは特に限定されない。また、矩形領域の代わりに他の形状の領域が用いられてもよい。また、晴モデルM1および雪モデルM2それぞれは、学習済みのニューラルネットワーク(例えば、学習済みのディープラーニングニューラルネットワーク)であってよい。学習済みのニューラルネットワークは、車両が写る画像フレームと当該画像フレームに写る車両位置(すなわち、車両が存在する矩形領域)との組み合わせを教師データとしてニューラルネットワークを学習させることによって生成され得る。
具体的な構成の例として、晴モデルM1および雪モデルM2それぞれは、畳み込み層とプーリング層との繰り返しおよび多段の全結合を含んだニューラルネットワークであってよい。すなわち、晴モデルM1および雪モデルM2それぞれは、CNN(Convolutional Neural Network)によって構成されてよい。しかし、晴モデルM1および雪モデルM2それぞれは、畳み込み層およびプーリング層を有していないニューラルネットワークによって構成されてもよい。また、晴モデルM1および雪モデルM2それぞれの全結合は多段に構成されていなくてもよい。
記憶部130は、制御部110を動作させるためのプログラムおよびデータを記憶することが可能な記憶装置である。また、記憶部130は、制御部110の動作の過程で必要となる各種データを一時的に記憶することもできる。例えば、記憶装置は、不揮発性の記憶装置であってよい。例えば、記憶部130は、各種データの例として、計測線L0の位置を記憶し得る。
以上、本発明の実施形態に係る移動物体抽出システム1の機能構成例について説明した。
(1-2.システムの動作例)
続いて、図3~図12を参照しながら、本発明の実施形態に係る移動物体抽出システム1の動作の例について説明する。
図3は、本発明の実施形態に係る移動物体抽出システム1の動作の例を示すフローチャートである。図3に示されるように、S11~S16が時系列に沿って連続的に入力される画像フレームごとに実行される。
(車両検出部111)
まず、移動物体抽出装置10において、車両検出部111は、カメラ20から時系列に沿って連続的に入力される画像フレームから車両位置(すなわち、車両領域)を検出する(S11)。
図4は、車両検出部111による車両検出の例を示す図である。図4を参照すると、カメラ20から移動物体抽出装置10に入力された直後の画像フレーム(現在の画像フレーム)の例として、現在の画像フレームG1が示されている。例えば、車両検出部111は、現在の画像フレームG1から車両A1が存在する領域として車両領域P11を検出する。同様に、車両検出部111は、現在の画像フレームG1から、車両A2が存在する領域として車両領域P21を検出し、車両A3が存在する領域として車両領域P31を検出し、車両A4が存在する領域として車両領域P41を検出する。
(移動軌跡抽出部115)
図3に戻って説明を続ける。続いて、移動軌跡抽出部115は、車両検出部111によって検出された車両(すなわち、車両領域の位置)を追跡する(S12)。ここでは、移動軌跡抽出部115が、同一車両が写る車両領域の中心点を追跡する場合を主に想定する。しかし、追跡される車両領域の位置は、車両領域の中心点以外の点(例えば、車両領域の左上隅など)であってもよい。
移動軌跡抽出部115は、現在の画像フレームと現在の画像フレームよりも過去にカメラ20から入力された画像フレーム(過去の画像フレーム)とのそれぞれから車両検出部111によって得られた複数の矩形領域それぞれから抽出された特徴量を算出する。また、移動軌跡抽出部115は、車両の特徴量同士の類似度が閾値よりも大きい場合に、その車両同士が同一車両であるとみなす。そして、移動軌跡抽出部115は、現在の画像フレームおよび過去の画像フレームそれぞれにおいて同一とみなした車両の位置同士を統合する(S13)。例えば、移動軌跡抽出部115は、現在の画像フレームおよび過去の画像フレームそれぞれにおいて同一とみなした車両の位置同士を対応付ける。
ここで、過去の画像フレームは、現在の画像フレームよりも1フレーム前の画像フレーム(以下、単に「1フレーム前の画像フレーム」とも言う。)であってよい。しかし、過去の画像フレームは、現在の画像フレームよりも2フレームまたは3フレーム以上前の画像フレームであってもよい。
図5は、1フレーム前の画像フレームでの車両検出の例を示す図である。図5を参照すると、現在の画像フレームG2が示されている。例えば、車両検出部111は、1フレーム前の画像フレームから車両A1が存在する領域として車両領域P10を検出する。同様に、車両検出部111は、1フレーム前の画像フレームから、車両A2が存在する領域として車両領域P20を検出し、車両A3が存在する領域として車両領域P30を検出し、車両A4が存在する領域として車両領域P40を検出する。
また、図5には、現在の画像フレームよりも1フレーム前までに抽出された車両の軌跡の例が示されている。例えば、現在の画像フレームよりも1フレーム前までに抽出された車両A1の軌跡の例として車両軌跡T10が示されている。同様に、現在の画像フレームよりも1フレーム前までに抽出された車両A2の軌跡の例として車両軌跡T20が示されており、現在の画像フレームよりも1フレーム前までに抽出された車両A3の軌跡の例として車両軌跡T30が示されており、現在の画像フレームよりも1フレーム前までに抽出された車両A4の軌跡の例として車両軌跡T40が示されている。
図6は、移動軌跡抽出部115による車両追跡の例を示す図である。図6には、現在の画像フレームG3が示されており、現在の画像フレームG3から検出された車両領域P11~P41の他、現在の画像フレームよりも1フレーム前の画像フレームから検出された車両領域P10~P40が示されている。また、現在の画像フレームよりも1フレーム前までに抽出された車両軌跡T10~T40が示されている。
例えば、移動軌跡抽出部115は、現在の画像フレームから車両検出部111によって得られた車両A1の特徴量と、1フレーム前の画像フレームから車両検出部111によって得られた車両A1の特徴量とを比較する。移動軌跡抽出部115は、特徴量同士の類似度が閾値よりも大きい場合に、現在の画像フレームにおける車両の位置(車両領域P11)と、1フレーム前の画像フレームにおける車両の位置(車両領域P10)とを対応付ける。
これによって、現在の画像フレームG4に示されるように、車両A1の軌跡が、現在の画像フレームよりも1フレーム前までに抽出された車両軌跡T10から、現在の画像フレームまでに抽出された車両軌跡T11に更新される。
なお、ここでは、現在の画像フレームおよび1フレーム前の画像フレームの双方から車両が検出される場合を主に想定する。しかし、現在の画像フレームおよび1フレーム前の画像フレームの少なくとも一方から車両の位置が検出されない場合も想定される。かかる場合であっても、車両の追跡および車両の位置同士の統合は継続されてよい(すなわち、2フレームまたは3フレーム以上離れた画像フレーム同士の対応付けが行われてもよい)。
同様にして、車両A2の軌跡は、現在の画像フレームよりも1フレーム前までに抽出された車両軌跡T20から、現在の画像フレームまでに抽出された車両軌跡T21に更新される。車両A3の軌跡は、現在の画像フレームよりも1フレーム前までに抽出された車両軌跡T30から、現在の画像フレームまでに抽出された車両軌跡T31に更新される。車両A4の軌跡は、現在の画像フレームよりも1フレーム前までに抽出された車両軌跡T40から、現在の画像フレームまでに抽出された車両軌跡T41に更新される。
(計測処理部116)
図3に戻って説明を続ける。続いて、計測処理部116は、移動軌跡抽出部115によって同一とみなされた車両の速度を計測する(S14)。車両の速度は、どのようにして計測されてもよい。さらに、計測処理部116は、計測した速度に基づいて停止車両を検知する(S15)。例えば、計測処理部116は、速度がゼロの車両を停止車両として検知する。続いて、計測処理部116は、既に説明したように、カメラ20から入力される動画像に設定された計測線L0(図7)を跨いだ車両台数(すなわち、車両軌跡の数)を計測する(S16)。例えば、計測処理部116は、計測線L0(図7)を跨いだ車両台数(すなわち、車両軌跡の数)を、車両軌跡が跨いだ方向別に計測する。
図7は、計測線を跨いだ車両台数の計測の例を示す図である。図7には、現在の画像フレームG5が示されており、現在の画像フレームまでに抽出された車両軌跡T11~T41が示されている。図7を参照すると、車両軌跡T11、T21、T41は、計測線L0を跨いでいない。一方、車両軌跡T31は、計測線L0を方向D1に跨いだところである。したがって、計測処理部116は、計測線L0を方向D1に跨いだ車両台数に1を加算させればよい。
(改善可能な点)
以上、本発明の実施形態に係る移動物体抽出システム1の動作の例について説明してきたが、以上に説明した移動物体抽出システム1には改善可能な点がある。そこで、以下では、改善可能な点について説明する。
図8は、本発明の実施形態に係る移動物体抽出システム1における改善可能な点について説明するための図である。上記では、各画像フレームから車両を検知する処理について説明した。具体的には、各画像フレームから車両を検知する処理は、晴モデルM1または雪モデルM2によって行われ得る。
ここで、晴モデルM1は、上記したように、晴れである天候の下に撮像された画像データに基づいて生成された学習済みモデルである。したがって、晴モデルM1は、晴れである天候の下にカメラ20によって撮像された画像フレームに基づいて推論を行う場合には、推論精度(検知精度)が高くなる(図8に示された例では、90%)。しかし、晴モデルM1は、雪である天候の下にカメラ20によって撮像された画像フレームに基づいて推論を行う場合には、推論精度は低くなってしまう(図8に示された例では、10%)。すなわち、晴モデルM1は、天候が雪である場合よりも天候が晴れである場合に、より高精度に推論を行い得る。
一方、雪モデルM2は、上記したように、雪である天候の下に撮像された画像データに基づいて生成された学習済みモデルである。したがって、雪モデルM2は、雪である天候の下にカメラ20によって撮像された画像フレームに基づいて推論を行う場合には、推論精度(検知精度)が高くなる(図8に示された例では、90%)。しかし、雪モデルM2は、晴れである天候の下にカメラ20によって撮像された画像フレームに基づいて推論を行う場合には、推論精度は低くなってしまう(図8に示された例では、10%)。すなわち、雪モデルM2は、天候が晴れである場合よりも天候が雪である場合に、より高精度に推論を行い得る。
そこで、晴れである天候の下に撮像された画像データと、雪である天候の下に撮像された画像データとの双方に基づいて学習済みモデル(混合モデルM3)を生成することも考えられる。しかし、混合モデルM3は、天候が晴れである場合には、晴モデルM1ほどには高精度には推論を行うことができず、天候が雪である場合には、雪モデルM2ほどには高精度には推論を行うことができない(図8に示された例では、両方とも50%)。この例のように、様々な環境の下に撮像された画像データに基づいて生成された学習済みモデルは、特定の環境下では高精度に推論しない。
したがって、以下では、混合モデルM3によって車両を検知する場合ではなく、それぞれが特定の環境の下に撮像された画像データに基づいて生成された、晴モデルM1および雪モデルM2によって、車両を検知する場合を想定する。これによって推論精度の低下が抑制される。このとき、移動物体抽出装置10は、晴モデルM1および雪モデルM2のどちらのモデルに画像フレームに基づく車両検知を実行させるかを制御する。以下では、移動物体抽出装置10によって行われる、かかる制御についてより具体的に説明する。
(本実施形態による改善案)
本発明の実施形態に係る移動物体抽出装置10において、画像フレーム分配部112は、カメラ20から時系列に沿って連続的に入力される複数の画像フレーム(動画像)を取得する。そして、画像フレーム分配部112は、画像フレームごとに晴モデルM1または雪モデルM2を利用モデルとして選択し、利用モデルによる車両検知が実行されるように複数の画像フレームを分配する。このとき、判断部113は、晴モデルM1による推論結果と雪モデルM2による推論結果とに基づいて、晴モデルM1と雪モデルM2とのうち、より正当性が高いモデルが利用モデルとして選択される頻度を高くする。
かかる構成によれば、晴モデルM1と雪モデルM2のうち、より正当性が高いモデルの利用頻度が高くなるため、カメラ20によって撮像された動画像に基づく車両の検知精度の低下が抑制され得る。例えば、環境が変動してしまう場合であっても、変動後の環境に基づいて、より正当性が高いモデルの利用頻度が高くなるため、車両の検知精度の低下が抑制され得る。一例として、天候が晴れから雪に変動した場合に、この変動に伴って雪モデルM2の利用頻度が高くなる例が想定される。かかる例について以下に説明する。
図9は、画像フレーム分配部112および判断部113の具体的な機能について説明するための図である。図9には、カメラ20から画像フレーム分配部112に入力される動画像(複数の画像フレーム)の例として、時刻の古いほうから順に、画像フレームG11~G19が示されている。車両検知が開始された直後は、晴モデルM1および雪モデルM2それぞれの正当性のいずれが高いかが不明である(カメラ20によって画像フレームが撮像される環境が不明である)。そのため、晴モデルM1と雪モデルM2とが交互に利用モデルとして選択される。
具体的に、画像フレーム分配部112は、カメラ20から1番目の画像フレームG11が入力されると、雪モデルM2を利用モデルとして選択し、選択した雪モデルM2に1番目の画像フレームG11を出力することによって、雪モデルM2に車両の検出を実行させる。続いて、画像フレーム分配部112は、カメラ20から2番目の画像フレームG12が入力されると、晴モデルM1を利用モデルとして選択し、選択した晴モデルM1に2番目の画像フレームG12を出力することによって、晴モデルM1に車両の検出を実行させる。
同様に、画像フレーム分配部112は、3番目の画像フレームG13を雪モデルM2に出力し、4番目の画像フレームG14を晴モデルM1に出力し、5番目の画像フレームG15を雪モデルM2に出力する。所定のタイミングが到来すると、判断部113は、晴モデルM1による直前の画像フレームG14に基づく推論結果と、雪モデルM2による直前の画像フレームG15に基づく推論結果とに基づいて、晴モデルM1と雪モデルM2とのうち、より正当性が高いモデルを判定する。そして、判断部113は、判定結果に基づいて、晴モデルM1と雪モデルM2の利用頻度を変更する(S21)。
より正当性の高いモデルを判定する手法の例については、後に詳細に説明する。ここでは、(画像フレームG13から画像フレームG14にかけて)天候が晴れから雪に変動しているため、判断部113は、晴モデルM1よりも雪モデルM2の正当性がより高いと判断する。そして、判断部113は、雪モデルM2が利用モデルとして選択される頻度を高くするとともに、晴モデルM1が利用モデルとして選択される頻度を低くする。
より詳細に、判断部113によって利用頻度が変更される前は、画像フレーム分配部112によって、晴モデルM1と雪モデルM2とが交互に利用モデルとして選択される。しかし、判断部113によって利用頻度が変更された後は、画像フレーム分配部112によって、5フレームに4フレームの頻度で(図9では、画像フレームG15~G18が)雪モデルM2が利用モデルとして選択され、5フレームに1フレームの頻度で(図9では、画像フレームG19が)晴モデルM1が利用モデルとして選択される。
しかし、1つの繰り返し単位(所定の単位)は、5フレームに4フレームの頻度で雪モデルM2が利用モデルとして選択され、5フレームに1フレームの頻度で晴モデルM1が利用モデルとして選択される場合に限定されない。例えば、1つの繰り返し単位は、雪モデルM2の利用頻度が晴モデルM1の利用頻度よりも多くなるように構成されればよい。画像フレーム分配部112は、かかる繰り返し単位が繰り返し実行されるように動画像を晴モデルM1および雪モデルM2に分配する。
所定のタイミングが到来すると、判断部113は、晴モデルM1の正当性と雪モデルM2の正当性との比較を行う。そして、判断部113は、比較結果に基づいて、雪モデルM2の利用頻度と晴モデルM1の利用頻度とを制御する。ここでは、判断部113が、所定のフレームごとに晴モデルM1の正当性と雪モデルM2の正当性との比較を行う場合を想定する。特に、判断部113が、1つの繰り返し単位(図9では、5フレーム)が終わるごとに、晴モデルM1の正当性と雪モデルM2の正当性との比較を行う場合を想定する。しかし、正当性同士の比較を行うタイミングは限定されない。
例えば、環境が再び変動して、(より正当性が高いと前回判断された)雪モデルM2の正当性が下がる場合が想定される。例えば、雪モデルM2の正当性が下がる例としては、雪モデルM2によって得られた車両検出スコア(検出スコア)の平均値が所定の値よりも低くなった場合、または、雪モデルM2によって得られた車両検出スコアが所定のスコアよりも高い数が所定の数よりも少なくなった場合などが想定される。判断部113は、かかる場合に、晴モデルM1の正当性と雪モデルM2の正当性との比較を再度行ってもよい。
図9に示された例では、(判断部113による2回目の判断に用いられる)画像フレームG18および画像フレームG19が得られる場合においても、天候が雪のままである。かかる場合には、判断部113は、依然として晴モデルM1の正当性よりも雪モデルM2の正当性がより高いと判断する。したがって、判断部113は、晴モデルM1および雪モデルM2の利用頻度を維持する(すなわち、雪モデルM2が利用モデルとして選択される頻度を高くしたままにする)(S22)。
なお、判断部113は、晴モデルM1よりも雪モデルM2の正当性がより高いと判断した場合に、雪モデルM2が利用モデルとして常に画像フレーム分配部112によって選択されるようにすることも考えられる(すなわち、晴モデルM1が利用モデルとして画像フレーム分配部112によって選択されないようにすることも考えられる)。しかし、上記のように、所定のフレームごとの正当性同士の比較に、雪モデルM2の推論結果が利用されるのであれば、雪モデルM2も所定のフレームごとに利用モデルとして選択されることによって、限られた演算デバイスが有効に活用され得る。
また、図9に示された例では、天候が晴れから雪に変動する場合が想定されている。しかし、天候が雪から晴れに変動する場合に対しても、本発明の実施形態は、天候が晴れから雪に変動する場合と同様に適用され得る。すなわち、判断部113は、天候が雪から晴れに変動すると、雪モデルM2よりも晴モデルM1の正当性がより高いと判断する。そして、判断部113は、晴モデルM1が利用モデルとして選択される頻度を高くするとともに、雪モデルM2が利用モデルとして選択される頻度を低くする。
以下では、より正当性の高いモデルを判定する手法の例として、第1の判定例から第3の判定例について詳細に説明する。
(第1の判定例)
まず、より正当性の高いモデルを判定する手法の例として第1の判定例について説明する。図10は、より正当性の高いモデルを判定する手法の例としての第1の判定例について説明するための図である。ここでも、図9と同様に、雪である天候の下に撮像された画像フレームG14が、晴モデルM1に入力され、画像フレームG14に続く(雪である天候の下に撮像された)画像フレームG15が、雪モデルM2に入力される。
図10を参照すると、画像フレームG14に基づく晴モデルM1による推論結果が画像フレームG14の上に重ねて示されている。より詳細に、画像フレームG14に基づく晴モデルM1による推論によって得られた車両検出スコアが所定のスコア(この例では、「0.5」)よりも大きい矩形領域が、車両領域P14、P24、P34、B14として検出されている。また、車両領域P14、P24、P34、B14に対応する車両検出スコアが「0.8」「0.6」「0.5」「0.5」として、各車両領域の上に記載されている。
車両領域P14、P24、P34、B14を参照すると、車両領域P14には車両A1が実際に存在しており、車両領域P24には車両A2が実際に存在しており、車両領域P34には車両A3が実際に存在している。しかし、車両領域B14には車両が実際に存在しておらず、車両の代わりに人Q14が存在している。すなわち、晴モデルM1によって人Q14が車両として誤って検出されている。
また、画像フレームG15に基づく雪モデルM2による推論結果が画像フレームG15の上に重ねて示されている。より詳細に、画像フレームG15に基づく雪モデルM2による推論によって得られた車両検出スコアが所定のスコア(この例では、「0.5」)よりも大きい矩形領域が、車両領域P15、P25、P35、P45として検出されている。また、車両領域P15、P25、P35、P45に対応する車両検出スコアが「1.0」「0.9」「0.6」「0.5」として、各車両領域の上に記載されている。
車両領域P15、P25、P35、P45を参照すると、車両領域P15にも車両A1が実際に存在しており、車両領域P25にも車両A2が実際に存在しており、車両領域P35にも車両A3が実際に存在しており、車両領域P45にも車両A4が実際に存在している。すなわち、雪モデルM2によって誤りなく車両が検出されている。
判断部113は、晴モデルM1によって車両が検知された車両領域P14、P24、P34、B14(第1の領域)に車両が実際に存在する正解率(第1の正解率)を晴モデルM1の正当性として算出する。さらに、判断部113は、雪モデルM2によって車両が検知された車両領域P15、P25、P35、P45(第2の領域)に車両が実際に存在する正解率(第2の正解率)を雪モデルM2の正当性として算出する。
例えば、判断部113は、学習済みのニューラルネットワーク(例えば、学習済みのディープラーニングニューラルネットワーク)を含んでよい。学習済みのニューラルネットワークは、車両が写る画像データと当該画像データに車両が存在するか否かを示す値との組み合わせを教師データとしてニューラルネットワークを学習させることによって生成され得る。
具体的な構成の例として、判断部113に含まれる学習済みのニューラルネットワークは、晴モデルM1および雪モデルM2と同様に、畳み込み層とプーリング層との繰り返しおよび多段の全結合を含んだニューラルネットワークであってよい。すなわち、判断部113に含まれる学習済みのニューラルネットワークは、CNNによって構成されてよい。しかし、判断部113に含まれる学習済みのニューラルネットワークは、畳み込み層およびプーリング層を有していないニューラルネットワークによって構成されてもよい。また、判断部113に含まれる学習済みのニューラルネットワークの全結合は多段に構成されていなくてもよい。
ここで、晴モデルM1によって車両が検知された車両領域P14、P24、P34、B14(第1の領域)に車両が実際に存在する正解率(第1の正解率)は、「3/4」である。したがって、晴モデルM1の正当性は、「3/4」である。一方、雪モデルM2によって車両が検知された車両領域P15、P25、P35、P45(第2の領域)に車両が実際に存在する正解率(第2の正解率)は、「4/4」である。したがって、雪モデルM2の正当性は、「4/4」である。一例として、判断部113は、これらの正当性に基づいて、雪モデルM2の正当性が晴モデルM1の正当性よりも高いと判断する。
(第2の判定例)
続いて、より正当性の高いモデルを判定する手法の例として第2の判定例について説明する。図11は、より正当性の高いモデルを判定する手法の例としての第2の判定例について説明するための図である。図10に示された例と同様にして、画像フレームG14が、晴モデルM1に入力され、画像フレームG14に続く画像フレームG15が、雪モデルM2に入力される。図10に示された例と同様にして、画像フレームG14に基づく晴モデルM1による推論結果と、画像フレームG15に基づく雪モデルM2による推論結果とが得られる。
ここで、車両検出スコアは、モデルの正当性を決めるための指標として用いられ得る。例えば、高い車両検出スコアが多く得られているほど、モデルの正当性が高いと考えられる。そこで、判断部113は、晴モデルM1によって得られた車両領域P14、P24、P34、B14それぞれに対応する車両検出スコア(第1の検出スコア)に基づいて晴モデルM1の正当性を算出する。さらに、判断部113は、雪モデルM2によって得られた車両領域P15、P25、P35、P45それぞれに対応する車両検出スコア(第2の検出スコア)に基づいて雪モデルM2の正当性を算出する。
図11に示された例では、判断部113は、晴モデルM1によって得られた車両領域P14、P24、P34、B14それぞれに対応する車両検出スコアのうち、第1の閾値(この例では、「0.9」)よりも高い車両検出スコアの数「0個」を晴モデルM1の正当性として算出する。また、判断部113は、雪モデルM2によって得られた車両領域P15、P25、P35、P45それぞれに対応する車両検出スコアのうち、第2の閾値(この例では、「0.9」)よりも高い車両検出スコアの数「2個」を雪モデルM2の正当性として算出する。
ここでは、第1の閾値と第2の閾値とが、同じ値である場合を想定する。しかし、第1の閾値と第2の閾値とは、異なる値であってもよい。一例として、判断部113は、これらの正当性に基づいて、雪モデルM2の正当性が晴モデルM1の正当性よりも高いと判断する。
(第3の判定例)
続いて、より正当性の高いモデルを判定する手法の例として第3の判定例について説明する。図12は、より正当性の高いモデルを判定する手法の例としての第3の判定例について説明するための図である。図10に示された例と同様にして、画像フレームG14が、晴モデルM1に入力され、画像フレームG14に続く画像フレームG15が、雪モデルM2に入力される。図10に示された例と同様にして、画像フレームG14に基づく晴モデルM1による推論結果と、画像フレームG15に基づく雪モデルM2による推論結果とが得られる。
図12に示された例では、判断部113は、晴モデルM1によって得られた車両領域P14、P24、P34、B14それぞれに対応する車両検出スコアの平均値「0.6」を晴モデルM1の正当性として算出する。また、判断部113は、雪モデルM2によって得られた車両領域P15、P25、P35、P45それぞれに対応する車両検出スコアの平均値「0.75」を雪モデルM2の正当性として算出する。一例として、判断部113は、これらの正当性に基づいて、雪モデルM2の正当性が晴モデルM1の正当性よりも高いと判断する。
(検知結果の利用)
以上に説明したように、画像フレーム分配部112から晴モデルM1に入力された画像フレームに基づいて晴モデルM1によって車両が検知される。また、画像フレーム分配部112から雪モデルM2に入力された画像フレームに基づいて雪モデルM2によって車両が検知される。移動軌跡抽出部115は、晴モデルM1による車両検知の結果と、雪モデルM2による車両検知の結果とに基づいて、動画像中の車両の軌跡を抽出する。
例えば、移動軌跡抽出部115は、(晴モデルM1および雪モデルM2を区別なく)現在の画像フレームおよび過去の画像フレームそれぞれにおいて同一とみなした車両の位置同士を対応付ける処理を繰り返し実行することによって、車両の軌跡を抽出する。例えば、移動軌跡抽出部115によって抽出された車両の軌跡は、既に説明したように、計測処理部116によって、計測線L0(図7)を跨いだ車両台数(すなわち、車両軌跡の数)の計測に利用され得る。
以上、本発明の実施形態に係る移動物体抽出システム1の動作の例について説明した。
(2.ハードウェア構成例)
続いて、本発明の実施形態に係る移動物体抽出装置10のハードウェア構成例について説明する。以下では、本発明の実施形態に係る移動物体抽出装置10のハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、移動物体抽出装置10のハードウェア構成の一例に過ぎない。したがって、移動物体抽出装置10のハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。
図13は、本発明の実施形態に係る移動物体抽出装置10の例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)♯1(901-1)と、CPU♯2(901-2)と、AIチップ901-3と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
CPU♯1(901-1)、CPU♯2(901-2)、AIチップ(901-3)は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU♯1(901-1)、CPU♯2(901-2)、AIチップ(901-3)は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
以上、本発明の実施形態に係る移動物体抽出装置10のハードウェア構成例について説明した。
(3.まとめ)
以上に説明したように、本発明の実施形態によれば、フレームに基づいて検知対象の検知を行う第1のモデルと、フレームに基づいて検知対象の検知を行う第2のモデルと、を備える、移動物体抽出装置10が提供される。
移動物体抽出装置10は、複数のフレームを取得し、フレームごとに第1のモデルまたは第2のモデルを利用モデルとして選択し、利用モデルによる検知が実行されるように複数のフレームを分配する。そして、移動物体抽出装置10は、第1のモデルによる推論結果と第2のモデルによる推論結果とに基づいて、第1のモデルと第2のモデルとのうち、より正当性が高いモデルが利用モデルとして選択される頻度を高くする。
かかる構成によれば、第1のモデルと第2のモデルとのうち、より正当性が高いモデルの利用頻度が高くなるため、検知対象の検知精度の低下が抑制され得る。例えば、環境が変動してしまう場合であっても、変動後の環境に基づいて、より正当性が高いモデルの利用頻度が高くなるため、環境が変動してしまう場合であっても検知対象の検知精度の低下が抑制され得る。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
上記したように、第1のモデルと第2のモデルとは、互いに異なる環境において得られたデータに基づいて生成された学習済みモデルである。例えば、天候ごとに得られるフレームの特徴が変化し得ることが想定されるため、上記では、第1のモデルと第2のモデルとが、互いに異なる天候において得られたデータに基づいて生成された学習済みモデルである場合を想定した。しかし、第1のモデルと第2のモデルとは、互いに異なる天候以外の環境において得られたデータに基づいて生成された学習済みモデルであってもよい。
例えば、時間帯ごとに得られるフレームの特徴が変化し得ることも想定される。例えば、昼間の時間帯と夜間の時間帯とにおいて得られるフレームの特徴は変化し得ることも想定される。そのため、第1のモデルと第2のモデルとは、互いに異なる時間帯において得られたデータに基づいて生成された学習済みモデルであってもよい(環境は時間帯であってもよい)。
あるいは、場所ごとに得られるフレームの特徴が変化し得ることも想定される。例えば、高速道路と一般道路とにおいて得られるフレームの特徴は変化し得ることも想定される。そのため、第1のモデルと第2のモデルとは、互いに異なる場所において得られたデータに基づいて生成された学習済みモデルであってもよい(環境は場所であってもよい)。
ただし、本発明の実施形態では、そのときの環境から得られたフレームに基づいて、第1のモデルおよび第2のモデルによって実際に行われた推論に基づいて、第1のモデルおよび第2のモデルの利用頻度が制御される。したがって、環境の変動が、偶発的かつ可逆的に変動する場合に対して、本発明の実施形態がより好ましく適用され得ると考えられる。
また、上記では、第1のモデルおよび第2のモデルそれぞれは、画像フレームに基づいて所定の物体を検知する場合を主に想定した。しかし、第1のモデルおよび第2のモデルそれぞれは、画像フレームに基づいて所定の事象を検知対象として検知してもよい。ここで、検知対象として検知される事象は特に限定されない。例えば、検知対象として検知される事象は、画像フレームに写る道路の車両走行状態が、自由流であるといった事象であってもよいし、画像フレームに写る道路の車両走行状態が、渋滞流であるといった事象であってもよい。
さらに、第1のモデルおよび第2のモデルそれぞれは、音声フレームに基づいて所定の音を検知対象として検知してもよい。このとき、マイクロフォンによって時系列に沿って連続的に音が収集され、マイクロフォンによって収集された音に基づいて時系列に沿って連続的に音声フレームがフレーム分配部に入力される。ここで、検知対象として検知される所定の音は、特に限定されない。例えば、所定の音は、所定の物(例えば、機械、機器など)から発生する異音(通常とは異なる音)であってもよい。かかる構成によれば、所定の音が検知されるか否かによって、物の状態が判断され得る。
あるいは、第1のモデルおよび第2のモデルそれぞれは、音声フレームに基づいて所定の事象を検知対象として検知してもよい。検知対象として検知される所定の事象は、特に限定されない。例えば、所定の音は、所定の物(例えば、機械、機器など)の故障であってもよい。かかる構成によれば、所定の音が検知されるか否かによって、物の故障が判断され得る。
また、例えば、上記では、移動物体抽出装置10とカメラ20とが別体として構成されている場合を主に説明した。しかし、移動物体抽出装置10とカメラ20とは、一体化されて構成されていてもよい。
1 移動物体抽出システム
10 移動物体抽出装置
110 制御部
111 車両検出部
112 画像フレーム分配部
113 判断部
115 移動軌跡抽出部
116 計測処理部
130 記憶部
20 カメラ

Claims (14)

  1. フレームに基づいて検知対象の検知を行う第1のモデルと、
    フレームに基づいて検知対象の検知を行う第2のモデルと、
    複数のフレームを取得し、フレームごとに前記第1のモデルまたは前記第2のモデルを利用モデルとして選択し、前記利用モデルによる検知が実行されるように前記複数のフレームを分配するフレーム分配部と、
    前記第1のモデルによる推論結果と前記第2のモデルによる推論結果とに基づいて、前記第1のモデルと前記第2のモデルとのうち、より正当性が高いモデルが前記利用モデルとして選択される頻度を高くする判断部と、
    を備える、データ処理装置。
  2. 前記第1のモデルと前記第2のモデルとは、互いに異なる環境において得られたデータに基づいて生成される、
    請求項1に記載のデータ処理装置。
  3. 前記環境は、天候、時間帯または場所である、
    請求項2に記載のデータ処理装置。
  4. 前記判断部は、前記第1のモデルによって検知対象が検知された第1の領域に検知対象が存在する第1の正解率を第1のモデルの正当性として算出するとともに、前記第2のモデルによって検知対象が検知された第2の領域に検知対象が存在する第2の正解率を前記第2のモデルの正当性として算出する、
    請求項1~3のいずれか一項に記載のデータ処理装置。
  5. 前記判断部は、前記第1のモデルによって得られた第1の検出スコアに基づいて前記第1のモデルの正当性を算出するとともに、前記第2のモデルによって得られた第2の検出スコアに基づいて前記第2のモデルの正当性を算出する、
    請求項1~3のいずれか一項に記載のデータ処理装置。
  6. 前記判断部は、第1の閾値よりも高い前記第1の検出スコアの数を前記第1のモデルの正当性として算出するとともに、第2の閾値よりも高い前記第2の検出スコアの数を前記第2のモデルの正当性として算出する、
    請求項5に記載のデータ処理装置。
  7. 前記判断部は、前記第1の検出スコアの平均値を前記第1のモデルの正当性として算出するとともに、前記第2の検出スコアの平均値を前記第2のモデルの正当性として算出する、
    請求項5に記載のデータ処理装置。
  8. 前記判断部は、所定のフレームごとに前記第1のモデルの正当性と前記第2のモデルの正当性との比較を行う、
    請求項1~7のいずれか一項に記載のデータ処理装置。
  9. 前記判断部は、前記より正当性が高いモデルによって得られた検出スコアの平均値が所定の値よりも低くなった場合、または、前記より正当性が高いモデルによって得られた検出スコアが所定のスコアよりも高い数が所定の数よりも少なくなった場合に、前記第1のモデルの正当性と前記第2のモデルの正当性との比較を行う、
    請求項1~7のいずれか一項に記載のデータ処理装置。
  10. 前記第1のモデルおよび前記第2のモデルそれぞれは、画像フレームに基づいて所定の物体または所定の事象を検知対象として検知する、
    請求項1~9のいずれか一項に記載のデータ処理装置。
  11. 前記第1のモデルによる物体検知の結果と前記第2のモデルによる物体検知の結果とに基づいて、前記複数のフレーム中の物体の軌跡を抽出する移動軌跡抽出部を備える、
    請求項10に記載のデータ処理装置。
  12. 前記第1のモデルおよび前記第2のモデルそれぞれは、音声フレームに基づいて所定の音または所定の事象を検知対象として検知する、
    請求項1~9のいずれか一項に記載のデータ処理装置。
  13. 複数のフレームを取得し、フレームごとに第1のモデルまたは第2のモデルを利用モデルとして選択し、前記利用モデルによる検知が実行されるように前記複数のフレームを分配することと、
    前記第1のモデルによる推論結果と前記第2のモデルによる推論結果とに基づいて、前記第1のモデルと前記第2のモデルとのうち、より正当性が高いモデルが前記利用モデルとして選択される頻度を高くすることと、
    を含む、コンピュータにより実行されるデータ処理方法。
  14. コンピュータを、
    フレームに基づいて検知対象の検知を行う第1のモデルと、
    フレームに基づいて検知対象の検知を行う第2のモデルと、
    複数のフレームを取得し、フレームごとに前記第1のモデルまたは前記第2のモデルを利用モデルとして選択し、前記利用モデルによる検知が実行されるように前記複数のフレームを分配するフレーム分配部と、
    前記第1のモデルによる推論結果と前記第2のモデルによる推論結果とに基づいて、前記第1のモデルと前記第2のモデルとのうち、より正当性が高いモデルが前記利用モデルとして選択される頻度を高くする判断部と、
    を備えるデータ処理装置として機能させるためのプログラム。
JP2020032250A 2020-02-27 2020-02-27 データ処理装置、データ処理方法およびプログラム Active JP7452095B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020032250A JP7452095B2 (ja) 2020-02-27 2020-02-27 データ処理装置、データ処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020032250A JP7452095B2 (ja) 2020-02-27 2020-02-27 データ処理装置、データ処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021135816A JP2021135816A (ja) 2021-09-13
JP7452095B2 true JP7452095B2 (ja) 2024-03-19

Family

ID=77661333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020032250A Active JP7452095B2 (ja) 2020-02-27 2020-02-27 データ処理装置、データ処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7452095B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013543A (ja) 2009-07-03 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> 音声認識装置とその方法と、プログラム
JP6224857B1 (ja) 2017-03-10 2017-11-01 ヤフー株式会社 分類装置、分類方法および分類プログラム
JP2018081404A (ja) 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013543A (ja) 2009-07-03 2011-01-20 Nippon Telegr & Teleph Corp <Ntt> 音声認識装置とその方法と、プログラム
JP2018081404A (ja) 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置
JP6224857B1 (ja) 2017-03-10 2017-11-01 ヤフー株式会社 分類装置、分類方法および分類プログラム

Also Published As

Publication number Publication date
JP2021135816A (ja) 2021-09-13

Similar Documents

Publication Publication Date Title
WO2021232229A1 (zh) 虚拟场景生成方法、装置、计算机设备和存储介质
US9702729B2 (en) Sensor output change detection
KR101922956B1 (ko) 저 차원 수의 엔트로피 카운트 맵 기반 악성코드 탐지 방법
CN112530202B (zh) 一种车辆变道的预测方法、装置、设备及车辆
JP7105383B2 (ja) 画像処理方法、装置、記憶媒体及び電子機器
US11899787B2 (en) Information processing system, inference method, attack detection method, inference execution program and attack detection program
JP6693321B2 (ja) 能力評価システム
JP2021528757A (ja) 機械学習モデルの出力から推論されるインスタンスセグメンテーション
CN110969200A (zh) 基于一致性负样本的图像目标检测模型训练方法及装置
CN111461145A (zh) 一种基于卷积神经网络进行目标检测的方法
CN116964588A (zh) 一种目标检测方法、目标检测模型训练方法及装置
JP7452095B2 (ja) データ処理装置、データ処理方法およびプログラム
JP7491308B2 (ja) 物体検出装置、物体検出方法、プログラムおよび記録媒体
US20230368397A1 (en) Method and system for detecting moving object
WO2018107748A1 (zh) 一种路径检测方法及装置
CN115527083B (zh) 图像标注方法、装置和电子设备
JP7452094B2 (ja) 移動物体抽出装置、移動物体抽出方法およびプログラム
US11620812B2 (en) Online distillation using frame cache
WO2022162844A1 (ja) 作業推定装置、作業推定方法、及び、作業推定プログラム
CN115315711A (zh) 机器学习装置、学习模型的生成方法及程序
WO2020101036A1 (ja) 教師信号生成装置、モデル生成装置、物体検出装置、教師信号生成方法、モデル生成方法、およびプログラム
WO2021214861A1 (ja) 学習装置、学習済みモデル生成方法、分類装置、分類方法、及びコンピュータ読み取り可能な記録媒体
WO2023161993A1 (ja) 訓練データ生成プログラム、訓練データ生成方法、および情報処理装置
JP7382859B2 (ja) 災害規模推定装置
KR102236802B1 (ko) 진단 모델용 데이터의 특징 추출 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7452095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150