JP2021140383A - 推定プログラム、推定方法、および情報処理装置 - Google Patents

推定プログラム、推定方法、および情報処理装置 Download PDF

Info

Publication number
JP2021140383A
JP2021140383A JP2020036573A JP2020036573A JP2021140383A JP 2021140383 A JP2021140383 A JP 2021140383A JP 2020036573 A JP2020036573 A JP 2020036573A JP 2020036573 A JP2020036573 A JP 2020036573A JP 2021140383 A JP2021140383 A JP 2021140383A
Authority
JP
Japan
Prior art keywords
region
captured
frame
area
detection object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020036573A
Other languages
English (en)
Inventor
亮 水谷
Akira Mizutani
亮 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020036573A priority Critical patent/JP2021140383A/ja
Publication of JP2021140383A publication Critical patent/JP2021140383A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影データからの物体検出の処理負荷を低減する。【解決手段】一実施形態に係る情報処理装置は、第1の時刻に撮影された第1のフレームの撮影画像において検出対象物が写る第1の領域と、第1の時刻よりも後の第2の時刻に撮影された第2のフレームの撮影画像において検出対象物が写る第2の領域とを特定する特定部と、第1の領域の面積と、第2の領域の面積とから、第1のフレームと、第2のフレームとの間の撮影時刻に撮影された複数の中間フレームのそれぞれについて線形補間により推定される検出対象物が写る領域の面積を決定する決定部と、複数の中間フレームのそれぞれについて線形補間により推定される面積の比に基づいて、複数の中間フレームの少なくとも1つの中間フレームにおいて検出対象物が写る領域を推定する推定部と、を含む。【選択図】図7

Description

本発明は、推定プログラム、推定方法、および情報処理装置に関する。
近年、監視カメラおよび車載カメラなどの多くの撮影装置が様々なところに設置されており、撮影装置により撮影された大量の撮影データを利用する試みがなされている。例えば、車載カメラで撮影された撮影データは、データセンターなどに蓄積され、これらの撮影データはトラフィックの分析や、車両の自動運転のアルゴリズム研究などに利用されている。
また、こうした撮影データを効率よく利用するために、撮影データに写る物体を検出する処理が行われている。例えば、深層学習やサポートベクターマシンなどの機械学習アルゴリズムで得られた学習済みモデルなどを用いて、車載カメラで撮影された撮影データから人物や車両などの検出対象物の検出が行われている。撮影データに含まれる連続する複数のフレームにおいて検出対象物を検出することで、例えば、検出対象物の動きを捉えることができ、事故の発生の監視や、事故原因の追究などに利用することができる。
これに関し、撮影データからの物体の検出に関連する技術が知られている(例えば、特許文献1から特許文献4)。
特開2014−050100号公報 特開2017−046023号公報 特開2015−032133号公報 特開2009−055410号公報
しかしながら、撮影データからの物体の検出は処理負荷が高く、大量の撮影データを取り扱う場合に、処理することが難しかったり、処理時間が確保できなかったりすることがある。そのため、撮影データからの物体検出の処理負荷を低減することのできる技術の提供が望まれている。
1つの側面では、本発明は、撮影データからの物体検出の処理負荷を低減することのできる技術を提供することを目的とする。
本発明の一つの態様の情報処理装置は、第1の時刻に撮影された第1のフレームの撮影画像において検出対象物が写る第1の領域と、第1の時刻よりも後の第2の時刻に撮影された第2のフレームの撮影画像において検出対象物が写る第2の領域とを特定する特定部と、第1の領域の面積と、第2の領域の面積とから、第1のフレームと、第2のフレームとの間の撮影時刻に撮影された複数の中間フレームのそれぞれについて線形補間により推定される検出対象物が写る領域の面積を決定する決定部と、複数の中間フレームのそれぞれについて線形補間により推定される面積の比に基づいて、複数の中間フレームの少なくとも1つの中間フレームにおいて検出対象物が写る領域を推定する推定部と、を含む。
撮影データからの物体検出の処理負荷を低減することができる。
撮影データにおいて検出対象の物体の写る領域を特定する例を示す図である。 線形補間による中間フレームでの検出対象物が写る領域の推定を例示する図である。 実施形態に係る情報処理装置のブロック構成を例示する図である。 実施形態に係る検出対象物が写る領域を示す長さの実測値の時間に応じた変化を例示する図である。 検出対象物が写る領域を示す長さの実測値と、線形補間により得られた長さの比較を例示する図である。 実施形態に係る時間経過に応じた矩形領域の辺の長さの変化と面積の変化との対応関係を例示する図である。 実施形態に係る面積比に基づく検出対象物が写る領域の推定について説明する図である。 実施形態に係る面積比に基づく検出対象物が写る領域の推定の精度を例示する図である。 実施形態に係る面積比に基づく検出対象物が写る領域の撮影画像上での表示位置を例示する図である。 実施形態に係る検出対象物が写る領域の推定処理の動作フローを例示する図である。 実施形態に係る検出対象物が写る領域の推定処理の流れを例示する図である。 実施形態に係る検出対象物のトラッキングを例示する図である。 実施形態に係る情報処理装置を実現するためのコンピュータのハードウェア構成を例示する図である。
以下、図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、複数の図面において対応する要素には同一の符号を付す。
図1は、撮影データにおいて検出対象の物体の写る領域を特定する例を示す図である。なお、検出対象の物体を、以下では検出対象物と呼ぶことがある。図1(a)は、撮影環境を例示しており、撮影装置110を備える車両101が示されている。また、図1(a)の例では、検出対象物102として人物と車両が示されており、撮影装置110を備える車両101の進行方向に対して、人物と車両は対向する方向に進行している。
また、図1(b)は、第1の時刻において撮影装置110により撮影された撮影画像120を例示している。図1(b)において、撮影画像120には検出対象物102として人物と車両とが写っている。そして、例えば、人物や車両などの検出対象物102を検出するように機械学習された学習済みモデルなどを用いて、撮影画像120から人物や車両などの検出対象物102が写る領域150を特定することができる。図1(b)では、検出対象物102である人物と車両の周囲に領域150が検出されている。なお、検出対象物102は、人物と車両に限定されるものではなく、用途に応じて様々な対象に設定されてよい。
また、図1(c)は、第2の時刻において撮影装置110により撮影された撮影画像120を例示している。第2の時刻は、図1(b)の撮影画像120が撮影された第1の時刻よりも後の時刻であり、時間の経過に応じて検出対象物102である人物と車両は、図1(c)ではより近くに写っている。
このように、例えば、撮影データの連続するフレームにおいて、検出対象物102の写る領域150を特定することで、検出対象物102の動きを捉えることが可能である。しかしながら、撮影データからの検出対象物102の検出は、処理負荷が高く、大量の撮影データを処理することが難しいことがある。或いは、処理にかかる時間が長くなるため、十分な処理時間を確保できないことがある。特に、撮影データが日々蓄積されるデータセンターなどで処理を行う場合には、処理対象の撮影データが次々に送られてくるため、検出対象物102の検出にかかる処理負荷が高いと処理できないことがある。そのため、検出対象物102の写る領域150の特定にかかる処理負荷を低減することのできる技術の提供が望まれている。
検出対象物102が写る領域150の特定にかかる処理負荷を低減する一つの手法として、一部のフレームで検出した検出対象物102の写る領域150の情報を用いて他のフレームでの検出対象物102の写る領域150を推定することが考えられる。例えば、連続する複数のフレームの最初および最後のフレームで検出された検出対象物102の写る領域150から、その間に撮影された中間フレームにおける検出対象物102の写る領域150を推定することができれば、処理の負荷を低減することができる。そして、こうした2点の間の値を推定する手法の1つに線形補間がある。
図2は、線形補間による中間フレームでの検出対象物102が写る領域150の推定を例示する図である。図2には、フレーム1からフレーム7の7つのフレームの撮影画像120が示されている。フレーム1の撮影画像120は、最も早い第1の時刻に撮影されており、フレーム1からフレーム7に向かって順次、撮影画像120が撮影されているものとする。フレーム7の撮影画像120は、最も遅い第2の時刻に撮影されている。
ここで、図2の複数のフレームの撮影画像120のそれぞれで、検出対象物102が写る領域150を検出したとする。図2では、検出対象物102が写る領域150として実際に検出された領域が、実線四角の枠201で示されている。
また、複数のフレームの最初のフレーム1と、最後のフレーム7の撮影画像120で検出した検出対象物102が写る領域150から、その間にあるフレーム2〜フレーム6での検出対象物102が写る領域150を線形補間により推定したとする。図2では、フレーム2〜フレーム6において線形補間で推定された検出対象物102が写る領域150が破線四角の枠202で示されている。
図2に示すように、枠202で示す線形補間で推定された検出対象物102が写る領域150の位置や大きさは、枠201で示す実際に検出された検出対象物102が写る領域150と大きく異なっている。この様に、検出対象物102の写る領域150を線形補間で推定しても高い精度が得られず、線形補間による推定は適さないことが分かる。そのため、よりも高い精度で検出対象物102の写る領域150を推定できる技術の提供が望まれている。
なお、検出対象物102の写る領域150の推定に利用可能な別の技術としてトラッキングがある。しかしながら、トラッキングは予測のための十分なデータがない状況では機能せず、例えば、車載カメラで撮影される対向車とのすれ違いの撮影データなどのように、検出対象物102がすぐに撮影範囲から外れてしまうような状況では利用に適さないことがある。また、別な例として、撮影装置110の画角内の位置と距離とを対応づけた奥行の情報を予め用意して、奥行の情報を利用して推定精度を高めることも考えられる。しかしながら、奥行きの情報は事前に撮影装置110の撮影画像内の点と、距離とを対応づけるキャリブレーション等の作業を行わないと利用できず、また、衝撃などで撮影装置110の向きが変わると再度キャリブレーションの作業が発生する。従って、検出対象物102の写る領域150を推定することのできるより適用のしやすい技術の提供も望まれている。
以下で述べる実施形態では、複数の中間フレームにおける検出対象物102の写る領域150の面積を線形補間により推定し、得られた複数の中間フレームのそれぞれについての面積の比に基づいて、検出対象物102の写る領域150を推定する。それにより、高い精度で検出対象物102の写る領域150を推定することができる。以下、実施形態を更に詳細に説明する。
図3は、実施形態に係る検出対象物102が写る領域150の推定処理を実行する情報処理装置300のブロック構成を例示する図である。情報処理装置300は、例えば、撮影装置110で撮影された撮影データを処理するコンピュータであってよい。例えば、情報処理装置300は、データセンターに蓄積された撮影データを処理するコンピュータであってよく、或いは、データセンターに蓄積される前の撮影データを事前に処理するコンピュータであってもよい。更には、情報処理装置300は、撮影装置110と接続されるカーナビゲーションシステムなどの車載器、モバイルコンピュータ、スマートフォン、タブレット端末、携帯電話機などであってもよい。情報処理装置300は、撮影装置110と通信接続して撮影データを収集してよく、或いは、撮影装置110で撮影された撮影データを保持する別の通信装置から撮影データを収集してもよい。
情報処理装置300は、例えば、制御部301、記憶部302、および通信部303を含む。制御部301は、例えば特定部311、決定部312、および推定部313などを含み、またその他の機能部を含んでもよい。情報処理装置300の記憶部302は、例えば、撮影データなどの情報を記憶している。通信部303は、例えば、制御部301の指示に従って、車載カメラおよび監視カメラなどの撮影装置110、または撮影データを記憶する通信装置と通信し、撮影データを収集してよい。これらの各部の更なる詳細については後述する。
図4は、実施形態に係る検出対象物102が写る領域150を示す長さの実測値の時間に応じた変化を例示する図である。なお、図4では、検出対象物102が写る領域150を示す長さとして、検出対象物102が写る領域150の起点のX座標およびY座標、領域150の幅、並びに領域150の高さが例示されている。起点は、例えば、検出対象物102の左上の点など所定箇所に定められていてよく、また、座標系の原点は、撮影画像の左上の点など撮影画像の所定の位置に定められていてよい。X軸とY軸は、一例では、撮影画像120の縦方向とX軸とが一致していてよく、また、撮影画像120の横方向とY軸とが一致していてよい。なお、実施形態はこれに限定されるものではない。例えば、軸の方向は画像上の任意の方向に定められてよく、検出対象物102が写る領域150を示す長さに用いられる座標は、撮影画像上の所定の軸方向における原点から起点までの長さで表されてよい。また、検出対象物102が写る領域150を示す長さは、これらに限定されるものではない。別の実施形態では、検出対象物102が写る領域150の枠や形状を示すことができれば、その他の長さの組み合わせが用いられてもよい。例えば、検出対象物102が写る領域150の枠が円で表される場合、検出対象物102が写る領域150を示す長さは、撮影画像上の所定の点を原点とする円の中心の座標と、半径とであってもよい。
そして、図4(a)は、検出対象物102が写る領域150の起点のX座標の時間変化を例示している。図4(a)の縦軸は各フレームにおける起点のX座標を示しており、横軸は各フレームの撮影時間を示している。また、図4(b)は、検出対象物102が写る領域150の起点のY座標の時間変化を示す図である。同様に、図4(c)および図4(d)は、それぞれ、検出対象物102が写る領域150の幅、および検出対象物102が写る領域150の高さの時間変化を示している。図4(a)から図4(d)において、各フレームでの実測値は「〇」で示されている。
また、図5は、検出対象物102が写る領域150を示す長さの実測値と、線形補間により得られた長さの比較を例示する図である。図4で述べた検出対象物102が写る領域150を示す長さの実測値を示す「〇」が図5でも示されている。また、図5では、複数のフレームの最初のフレームと最後のフレームの値から線形補間により推定された中間フレームでの推定値が「△」で示されている。
図5に示すように、検出対象物102が写る領域150の起点のX座標(図5(a))およびY座標(図5(b))、領域150の幅(図5(c))および高さ(図5(d))のいずれでも、実測値「〇」と推定値「△」との差が大きくでている。そのため、線形補間は検出対象物102の写る領域150の推定に適していないことが分かる。
ここで、図4の検出対象物102が写る領域150を示す長さの実測値「〇」の波形を解析すると、ほぼ2次曲線に従って変化していることが分かる。また、更に詳細に波形を解析すると、この2次曲線に従う変化は、撮影装置110と検出対象物102との相対速度が一定であり、かつ、撮影画像120において検出対象物102の縦横比の変化が所定の誤差範囲内である場合によく成り立つという結果が得られる。
そこで、本願の発明者は、検出対象物102が写る領域150を示す長さが、2次曲線に従って変化するように検出対象物102が写る領域150の位置を推定することを考えた。そして、本願の発明者は、例えば、時間に応じて辺の長さが所定の倍率で変化する矩形領域があった場合、その矩形領域の面積は時間に応じた辺の長さの変化の倍率の二乗で変化することに着目した。
図6は、実施形態に係る時間経過に応じた矩形領域600の辺の長さの変化と、面積の変化との対応関係を例示する図である。図6に示すように、時間に応じて矩形領域600の縦辺および横辺の長さが2倍および4倍に変化したとする。この場合に、面積は4倍、16倍と、辺の長さの変化に対して2乗で変化する。
そこで、本願の発明者は、まず各中間フレームと対応する検出対象物102が写る領域150の面積を、線形補間による推定を用いて決定し、得られた面積の比に基づいて、各中間フレームで検出対象物102が写る領域150を高精度に推定できないかと考えた。
以下、実施形態に係る線形補間で決定した面積の比に基づく検出対象物102が写る領域150の推定について説明する。
例えば、フレームの時刻nにおける、検出対象物102の写る領域150の起点のX座標、Y座標、検出対象物102の写る領域150の幅、検出対象物102の写る領域150の高さをそれぞれ、X,Y,W,Hで表すものとする。
この場合に、時刻0から時刻m+1までの期間において、中間フレーム1,2,…,mにおける検出対象物102の写る領域150の面積A(i=0,1,2,…,m+1)を、線形補間により以下の式1で決定することができる。
Figure 2021140383
なお、式1において、W×Hは、時刻0において検出された検出対象物102が写る領域150の面積Aである。また、Wm+1×Hm+1は、時刻m+1において検出された検出対象物102が写る領域150の面積Am+1である。A(i=1,2,…,m)は線形補間により決定された各中間フレームiと対応する検出対象物102が写る領域150の面積である。
そして、実施形態では線形補間により求めた各中間フレームiと対応する面積の比に基づいて、各中間フレームにおける検出対象物102が写る領域150を示す長さを推定するための係数d(i=1,2,…,m)を以下の式2で求める。
Figure 2021140383
式2において、係数dは、1フレームからmフレームまでの中間フレームのそれぞれについて決定した面積の総和に対して、1フレームからi番目までの中間フレームについて決定した面積の和が占める割合の面積比で表されている。なお、係数dは、式変形すると、d=α×i+β×iの形になり、i=0〜m+1の範囲で0〜1の値をとる2次曲線を表す。
そして、係数dを用いてi番目の中間フレームの検出対象物102が写る領域150の起点のX座標:X,Y座標:Y,領域150の幅:W,領域150の高さ:H(i=1,2,…,m)を以下の式3から式6でそれぞれ求めることができる。
=X+(Xm+1−X)×d …式3
=Y+(Ym+1−Y)×d …式4
=W+(Wm+1−W)×d …式5
=H+(Hm+1−H)×d …式6
以上の式3から式6で求められたX,Y,W,Hの各値は、XからXm+1、からYm+1、からWm+1、からHm+1の範囲においてそれぞれ2次曲線に従って変化する値をとる。
図7は、以上で述べた実施形態に係る面積比に基づく検出対象物102が写る領域150の推定について説明する図である。図7では、線形補間により推定された検出対象物102が写る領域150が点線の枠701で示されている。また、上述の式1〜式6により面積比に基づいて推定された検出対象物102が写る領域150が網掛けの点線の枠702で示されている。図7に示すように、枠701は、線形補間で推定されているため、距離が等間隔で並んでおり、また、枠701の辺の長さも時間の経過に対して均等な倍率で増加している。
一方、図7において、面積比に基づいて推定された枠702は、式3〜式6で表されるように、0フレームとm+1フレームとの差分に係数dを乗じて、0フレームの値に加算することで求められている。係数dは、時間の経過に対して2次曲線に従って変化する値をとるため、係数dを乗じることで枠702の位置や辺の長さも2次曲線に従って変化している。
図8は、以上で述べた実施形態に係る面積比に基づく検出対象物102が写る領域150の推定の精度を例示する図である。図8では、係数dを用いて求めた検出対象物102が写る領域150を示す長さの値が「●」で示されている。また、図5と同様に、検出対象物102が写る領域150を示す長さの実測値が「〇」、線形補間による推定値が「△」で示されている。図8に示すように、検出対象物102が写る領域150の起点のX座標およびY座標、領域150の幅、領域150の高さのいずれでも、係数dを用いて求めた値「●」は、線形補間による推定値「△」よりも実測値「〇」に近い値を取っている。従って、係数diを用いて面積比に基づいて検出対象物102が写る領域150を推定することで、2次曲線に従って高い精度で検出対象物102が写る領域150を推定することができる。
また、図9は、以上で述べた実施形態に係る面積比に基づく検出対象物102が写る領域150の撮影画像上での表示位置を例示する図である。図9では、実際に検出対象物102が写る領域150が実線四角の枠901で示されている。また、線形補間で得られた面積比に基づいて推定された検出対象物102が写る領域150が網掛けの破線四角の枠902で示されている。図9に示すように、枠901と枠902とは重なりがよく表示されており、高い精度で推定できていることが分かる。
以上のように、線形補間により決定した検出対象物102の写る領域150の面積の比に基づき、中間フレームにおける検出対象物102の写る領域150を推定することで、推定精度を向上させることができる。
図10は、実施形態に係る検出対象物102の写る領域150の推定処理を例示する図である。制御部301は、例えば、検出対象物102の写る領域150の推定処理の実行指示が入力されると、図10の動作フローを開始する。
ステップ1001(以降、ステップを“S”と記載し、例えばS1001と表記する)において制御部301は、処理対象の複数のフレームを読み込む。制御部301は、一例では、記憶部302に記憶されている連続する複数のフレームを読み込む。
S1002において制御部301は、検出対象物102の写る領域150を特定する。例えば、制御部301は、処理対象の複数のフレームうちの第1のフレームと、第1のフレームよりも後の時刻に撮影された第2のフレームとから検出対象物102の写る領域150を特定する。なお、第1のフレームの撮影時刻と第2のフレームの撮影時刻との間には、少なくとも1つの中間フレームの撮影時刻が含まれていてよく、一例では、複数の中間フレームの撮影時刻が含まれている。また、第1のフレームは、例えば、複数のフレームの最初のフレームであり、第2のフレームは複数のフレームの最後のフレームである。
S1003において制御部301は、第1のフレームと第2のフレームの撮影時刻の間の時刻に撮影されている中間フレームと対応する検出対象物の写る領域の面積を線形補間により決定する。例えば、制御部301は、上述の式1により中間フレームと対応する検出対象物の写る領域の面積を決定する。
S1004において制御部301は、決定した中間フレームと対応する検出対象物の写る領域の面積の比に基づいて2次曲線に従う補正係数を求める。例えば、制御部301は、第1のフレームおよび第2のフレームにおいて検出された検出対象物102の写る領域150の面積と、S1003で決定した中間フレームと対応する検出対象物の写る領域の面積を用いて、上述の式2により補正係数dを求める。
S1005において制御部301は、補正係数dを用いて中間フレームにおける検出対象物102の写る領域150を推定する。例えば、制御部301は、上述の式3から式6により検出対象物102の写る領域150を示す長さをそれぞれ推定し、それによって、検出対象物102の写る領域150を推定する。検出対象物102が写る領域150を示す長さは、一例では、検出対象物102が写る領域150の所定箇所に定められた起点のX座標およびY座標、領域150の幅、並びに領域150の高さである。
S1006において制御部301は、中間フレームに対して推定した検出対象物102の写る領域150を設定する。S1007において制御部301は、検出対象物102の写る領域150の情報と対応づけられた複数のフレームを出力し、本動作フローは終了する。例えば、制御部301は、各フレームの画像のデータに検出対象物102の写る領域150の情報が付された複数のフレームを、記憶部302に記憶する。
図11は、図10で述べた実施形態に係る検出対象物102の写る領域150の推定処理の流れを例示する図である。制御部301は、例えば、図11(a)に示すように、連続する複数のフレームを読み出す。そして、制御部301は、複数のフレームを所定の間隔で間引き、残りのフレームに対して検出対象物102の写る領域150の検出を実行する(図11(b))。例えば、図11(b)では、連続の複数のフレームの3個おきに検出対象物102の写る領域150の検出が実行されている。
続いて、制御部301は、検出した検出対象物102の写る領域150の情報を用いて、その間の間引いた中間フレームに上述の面積の比に基づく検出対象物102が写る領域150の推定を実行する。それによって、制御部301は、中間フレームにおける検出対象物102の写る領域150を面積の比に基づいて2次曲線に従うように推定する(図11(c))。その結果、図11(d)に示すように、全てのフレームで検出対象物102が写る領域150の検出処理を実行しなくても、中間フレームにおいて検出対象物102が写る領域150を補間することができる。従って、検出対象物102が写る領域150の特定にかかる処理負荷を削減することができる。また、処理負荷を低減できるため、情報処理装置300の消費電力を削減することもできる。また更に、上述の実施形態によれば、各フレームにおいて検出対象物102が写る領域150を高い精度で設定することができる。
また更に、例えば、制御部301が、面積の比に基づき推定した検出対象物102が写る領域150の周辺領域をテンプレートマッチングなどの技術を用いて探索し、より正確に検出対象物102が写る領域150を特定することも考えられる。この場合にも、面積の比に基づき推定した検出対象物102が写る領域150は、実際に検出対象物102が写る領域150を高精度に推定したものであるため、探索範囲を狭く設定することが可能である。その結果、検出対象物102が写る領域150の特定にかかる処理負荷を削減することができる。
また、上述の実施形態では、2つのフレームで検出した検出対象物102が写る領域150の面積から、中間フレームと対応する検出対象物の写る領域の面積を線形補間により推定し、その推定した面積の比に基づいて、検出対象物102が写る領域150を推定している。数理的には、2次曲線の係数は、2次曲線上の点を3つ以上特定すれば決定することができる。しかしながら、3つの点を特定するために、少なくとも3つのフレームで検出対象物102が写る領域150の検出を行うことになる。一方、上述の実施形態では、2つのフレームで検出した検出対象物102が写る領域150の面積から、中間フレームにおける検出対象物102が写る領域150を2次曲線に従うように推定している。換言すると、2つのフレームで検出対象物102が写る領域150の検出を行えば、その間にある中間フレームにおける検出対象物102が写る領域150を推定することができる。そのため、2次曲線上の点を3つ以上特定して係数を決定し、中間フレームにおける検出対象物102が写る領域150を推定する場合と比較して、処理負荷を低減することができる。
なお、別な実施形態では、制御部301は、少なくとも1つの中間フレームで検出対象物102が写る領域150を検出してよい。そして、制御部301は、第1のフレームと、第2のフレームと、中間フレームとの3点における検出対象物102が写る領域150を示す長さの値から2次曲線の係数を求めてもよい。そして、制御部301は、得られた2次曲線に従って、中間フレームにおける検出対象物102が写る領域150を推定してもよい。
また、実施形態は、検出対象物102のトラッキング等の技術に利用することもできる。図12は、実施形態に係る検出対象物102のトラッキングを例示する図である。トラッキングでは、例えば、予め検出された複数のフレームでの検出対象物102が写る領域150に基づいて、後続の予測フレームにおける検出対象物102が写る領域150の推定を行う。そのため、実施形態では制御部301は、例えば、上述の面積比に基づいて推定した検出対象物102が写る領域150の情報を用いて、予測フレームにおける検出対象物102が写る領域150の推定を行ってもよい。例えば、制御部301は、図12のフレーム1と、フレーム5とにおいて検出対象物102の写る領域150を検出する。そして、制御部301は、フレーム1と、フレーム5の検出対象物102が写る領域150に基づいて、中間フレーム2から中間フレーム4における検出対象物102が写る領域150を推定する。続いて、制御部301は、中間フレーム2から中間フレーム4を含むフレーム1からフレーム5の検出対象物102が写る領域150を用いて、予測フレーム1および予測フレーム2で検出対象物102が写る領域150を予測してもよい。
例えば、以上のようにトラッキングに実施形態に係る検出対象物102が写る領域150の推定を利用することができ、検出対象物102が写る領域150の検出にかかる処理負荷を抑えつつも、高い精度で検出対象物102の動きを予測することが可能である。
以上において、実施形態を例示したが、実施形態はこれに限定されるものではない。例えば、上述の動作フローは例示であり、実施形態はこれに限定されるものではない。可能な場合には、動作フローは、処理の順番を変更して実行されてもよく、別に更なる処理を含んでもよく、または、一部の処理が省略されてもよい。
また、上述の実施形態では、撮影装置110が車両101に取り付けられている場合を例に説明を行っているが、実施形態はこれに限定されるものではない。例えば、撮影装置110は、バイク、電車、飛行機などのその他の移動体に取り付けられていてもよく、或いは、監視カメラなどのように、所定の箇所に設置された撮影装置であってもよい。
また、上述の実施形態において、例えば、撮影装置110が移動体に設置されている場合に、移動体の速度、加速度、回転角などの情報を移動体に設置されたセンサで取得することができる。そして、例えば、移動体の加速、減速、転回などがセンサにより検知された場合に、制御部301は、上述の実施形態とは異なる処理や、更なる処理を実行してもよい。例えば、制御部301は、移動体の加速、減速、転回などがセンサにより検知された場合、検知された時刻周辺の全てのフレームで検出対象物102の検出を実行してもよい。また、別の実施形態では、制御部301は、移動体の加速、減速、転回などがセンサにより検知された場合、移動体の速度、加速度、回転角などの情報を用いて、検出対象物102が写る領域150の推定の際に更なる補正を行ってもよい。
また、上述の実施形態では、撮影データの連続する複数のフレームのうちから、検出対象物102の写る領域150の検出処理を間引く例を述べているが、実施形態はこれに限定されるものではない。別の実施形態では、撮影装置110による撮影間隔を長くし、撮影間隔の間の撮影画像の撮影をしていない時刻における検出対象物102の写る領域150を、上述の実施形態により推定してもよい。それにより、検出対象物102の位置を高精度に推定しつつも、撮影間隔を延ばすことができる。
なお、上述の実施形態において、例えば、S1002の処理では制御部301は、特定部311として動作する。また、例えば、S1003の処理では制御部301は、決定部312として動作する。例えば、S1004〜S1007の処理では制御部301は、推定部313として動作する。
図13は、実施形態に係る情報処理装置300を実現するためのコンピュータ1300のハードウェア構成を例示する図である。図13の情報処理装置300を実現するためのハードウェア構成は、例えば、プロセッサ1301、メモリ1302、記憶装置1303、読取装置1304、通信インタフェース1306、および入出力インタフェース1307を備える。なお、プロセッサ1301、メモリ1302、記憶装置1303、読取装置1304、通信インタフェース1306、入出力インタフェース1307は、例えば、バス1308を介して互いに接続されている。
プロセッサ1301は、例えば、シングルプロセッサであっても、マルチプロセッサやマルチコアであってもよい。プロセッサ1301は、メモリ1302を利用して例えば上述の動作フローの手順を記述したプログラムを実行することにより、上述した制御部301の一部または全部の機能を提供する。例えば、プロセッサ1301は、記憶装置1303に格納されているプログラムを読み出して実行することで、特定部311、決定部312、および推定部313として動作する。
メモリ1302は、例えば半導体メモリであり、RAM領域およびROM領域を含んでいてよい。記憶装置1303は、例えばハードディスク、フラッシュメモリ等の半導体メモリ、または外部記憶装置である。なお、RAMは、Random Access Memoryの略称である。また、ROMは、Read Only Memoryの略称である。
読取装置1304は、プロセッサ1301の指示に従って着脱可能記憶媒体1305にアクセスする。着脱可能記憶媒体1305は、例えば、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体などにより実現される。なお、半導体デバイスは、例えば、USB(Universal Serial Bus)メモリである。また、磁気的作用により情報が入出力される媒体は、例えば、磁気ディスクである。光学的作用により情報が入出力される媒体は、例えば、CD−ROM、DVD、Blu-ray Disc等(Blu-rayは登録商標)である。CDは、Compact Discの略称である。DVDは、Digital Versatile Diskの略称である。
記憶部302は、例えばメモリ1302、記憶装置1303、および着脱可能記憶媒体1305を含んでよい。例えば、情報処理装置300の記憶装置1303には、撮影データなどの情報が格納されている。
通信インタフェース1306は、プロセッサ1301の指示に従って、他の装置と通信する。一例では、通信インタフェース1306は、有線または無線通信で他の装置とデータを送受信してよい。例えば、情報処理装置300は、車載カメラおよび監視カメラなどの撮影装置110、或いは他の通信装置と、通信インタフェース1306を介して通信し、撮影データを収集してよい。通信インタフェース1306は、上述の通信部303の一例である。
入出力インタフェース1307は、例えば、入力装置および出力装置との間のインタフェースであってよい。入力装置は、例えばユーザからの指示を受け付けるキーボード、マウス、タッチパネルなどのデバイスである。出力装置は、例えばディスプレーなどの表示装置、およびスピーカなどの音声装置である。
実施形態に係る各プログラムは、例えば、下記の形態で情報処理装置300に提供される。
(1)記憶装置1303に予めインストールされている。
(2)着脱可能記憶媒体1305により提供される。
(3)プログラムサーバなどのサーバから提供される。
なお、図13を参照して述べた情報処理装置300を実現するためのコンピュータ1300のハードウェア構成は、例示であり、実施形態はこれに限定されるものではない。例えば、上述の構成の一部が、削除されてもよく、また、新たな構成が追加されてもよい。また、別の実施形態では、例えば、上述の制御部301の一部または全部の機能がFPGA、SoC、ASIC、およびPLDなどによるハードウェアとして実装されてもよい。なお、FPGAは、Field Programmable Gate Arrayの略称である。SoCは、System-on-a-chipの略称である。ASICは、Application Specific Integrated Circuitの略称である。PLDは、Programmable Logic Deviceの略称である。
以上において、いくつかの実施形態が説明される。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態および代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態が実施され得ることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して、または実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。
101 車両
102 検出対象物
110 撮影装置
120 撮影画像
150 領域
300 情報処理装置
301 制御部
302 記憶部
303 通信部
311 特定部
312 決定部
313 推定部
1300 コンピュータ
1301 プロセッサ
1302 メモリ
1303 記憶装置
1304 読取装置
1305 着脱可能記憶媒体
1306 通信インタフェース
1307 入出力インタフェース
1308 バス

Claims (8)

  1. 第1の時刻に撮影された第1のフレームの撮影画像において検出対象物が写る第1の領域と、前記第1の時刻よりも後の第2の時刻に撮影された第2のフレームの撮影画像において前記検出対象物が写る第2の領域とを特定し、
    前記第1の領域の面積と、前記第2の領域の面積とから、前記第1のフレームと、前記第2のフレームとの間の撮影時刻に撮影された複数の中間フレームのそれぞれについて線形補間により推定される前記検出対象物が写る領域の面積を決定し、
    前記複数の中間フレームのそれぞれについて線形補間により推定される前記面積の比に基づいて、前記複数の中間フレームの少なくとも1つの中間フレームにおいて前記検出対象物が写る領域を推定する、
    処理をコンピュータに実行させる推定プログラム。
  2. 前記推定する処理は、前記複数の中間フレームのそれぞれについて線形補間により推定された前記面積の総和に対して、前記第1のフレームから前記少なくとも1つの中間フレームまでに含まれる中間フレームについて線形補間により推定された前記面積の和が占める割合に基づいて、前記少なくとも1つの中間フレームにおいて前記検出対象物が写る領域を推定する、
    請求項1に記載の推定プログラム。
  3. 前記検出対象物が写る領域は、フレームの撮影画像内において前記検出対象物が写る領域を示す長さを用いて表され、
    前記推定する処理は、前記第1の領域を示す前記長さと前記第2の領域を示す前記長さとの差分に前記割合を乗じた値に、前記第1の領域を示す前記長さを加算することで前記少なくとも1つの中間フレームにおいて前記検出対象物が写る領域を示す前記長さを推定する、請求項2に記載の推定プログラム。
  4. 前記検出対象物が写る領域を示す長さは、前記検出対象物が写る領域の幅および高さの少なくとも1つを含む、請求項3に記載の推定プログラム。
  5. 前記検出対象物が写る領域を示す長さは、前記検出対象物が写る領域の半径を含む、請求項3に記載の推定プログラム。
  6. 前記推定する処理は、撮影画像を撮影する撮影装置と前記検出対象物との相対速度が一定であり、かつ、撮影画像において前記検出対象物の縦横比の変化が所定の誤差範囲内である場合に実行される、請求項1から5のいずれか1項に記載の推定プログラム。
  7. 第1の時刻に撮影された第1のフレームの撮影画像において検出対象物が写る第1の領域と、前記第1の時刻よりも後の第2の時刻に撮影された第2のフレームの撮影画像において前記検出対象物が写る第2の領域とを特定し、
    前記第1の領域の面積と、前記第2の領域の面積とから、前記第1のフレームと、前記第2のフレームとの間の撮影時刻に撮影された複数の中間フレームのそれぞれについて線形補間により推定される前記検出対象物が写る領域の面積を決定し、
    前記複数の中間フレームのそれぞれについて線形補間により推定される前記面積の比に基づいて、前記複数の中間フレームの少なくとも1つの中間フレームにおいて前記検出対象物が写る領域を推定する、
    ことを含む、コンピュータが実行する推定方法。
  8. 第1の時刻に撮影された第1のフレームの撮影画像において検出対象物が写る第1の領域と、前記第1の時刻よりも後の第2の時刻に撮影された第2のフレームの撮影画像において前記検出対象物が写る第2の領域とを特定する特定部と、
    前記第1の領域の面積と、前記第2の領域の面積とから、前記第1のフレームと、前記第2のフレームとの間の撮影時刻に撮影された複数の中間フレームのそれぞれについて線形補間により推定される前記検出対象物が写る領域の面積を決定する決定部と、
    前記複数の中間フレームのそれぞれについて線形補間により推定される前記面積の比に基づいて、前記複数の中間フレームの少なくとも1つの中間フレームにおいて前記検出対象物が写る領域を推定する推定部と、
    を含む、情報処理装置。

JP2020036573A 2020-03-04 2020-03-04 推定プログラム、推定方法、および情報処理装置 Pending JP2021140383A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020036573A JP2021140383A (ja) 2020-03-04 2020-03-04 推定プログラム、推定方法、および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020036573A JP2021140383A (ja) 2020-03-04 2020-03-04 推定プログラム、推定方法、および情報処理装置

Publications (1)

Publication Number Publication Date
JP2021140383A true JP2021140383A (ja) 2021-09-16

Family

ID=77668655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020036573A Pending JP2021140383A (ja) 2020-03-04 2020-03-04 推定プログラム、推定方法、および情報処理装置

Country Status (1)

Country Link
JP (1) JP2021140383A (ja)

Similar Documents

Publication Publication Date Title
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN103119623B (zh) 瞳孔检测装置及瞳孔检测方法
JP4943034B2 (ja) ステレオ画像処理装置
JP2005128619A (ja) 物体計測装置、物体計測方法、およびプログラム
JP4899647B2 (ja) 距離測定プログラム、距離測定装置、距離測定方法
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2006071471A (ja) 移動体高さ判別装置
JP4660569B2 (ja) 物体検出装置及び物体検出方法
JP6116765B1 (ja) 物体検出装置及び物体検出方法
JP2006245677A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN108122245B (zh) 一种目标行为描述方法、装置和监控设备
TW201433774A (zh) 車輛規格測量處理裝置、車輛規格測量方法及記錄媒體
JP2018205950A (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
US11138759B2 (en) Image processing apparatus and image processing method
CN110008802B (zh) 从多个脸部中选择目标脸部及脸部识别比对方法、装置
JP2021052293A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP5082955B2 (ja) 車両検出装置および方法、並びに、プログラム
JP2017167974A (ja) 推定装置、方法及びプログラム
EP3009983A1 (en) Obstacle detection apparatus and method
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
JP2021140383A (ja) 推定プログラム、推定方法、および情報処理装置
JP7347644B2 (ja) 物体測距装置、方法、及びプログラム
JP2018151940A (ja) 障害物検出装置および障害物検出方法
JP2000331169A (ja) 画像の動きベクトル計測方法及び装置
JP2006078261A (ja) 物体検出装置