JP2022082904A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2022082904A
JP2022082904A JP2020194069A JP2020194069A JP2022082904A JP 2022082904 A JP2022082904 A JP 2022082904A JP 2020194069 A JP2020194069 A JP 2020194069A JP 2020194069 A JP2020194069 A JP 2020194069A JP 2022082904 A JP2022082904 A JP 2022082904A
Authority
JP
Japan
Prior art keywords
image
data
learning
superimposed
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020194069A
Other languages
English (en)
Other versions
JP7515378B2 (ja
Inventor
重男 安藤
Shigeo Ando
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020194069A priority Critical patent/JP7515378B2/ja
Publication of JP2022082904A publication Critical patent/JP2022082904A/ja
Application granted granted Critical
Publication of JP7515378B2 publication Critical patent/JP7515378B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 2022082904000001
【課題】物体の検出において、カメラとミリ波センサのそれぞれの装置の特性に基づく信頼度のみを考慮して検出結果を選択的に用いる技術しか存在しなかった。
【解決手段】対象物との距離および対象物の速度の情報を有する画像情報を、対象物を撮像した画像上に重畳した重畳画像に基づいて、前記対象物の種別を、ニューラルネットワークを使用して推測することにより、物体検出の精度を向上させることができる。
【選択図】図1

Description

本願は、物体検出装置に関するものである。
従来、カメラ画像を入力とした物体検出の技術としては、カメラ画像に対して、対象物に応じて適正化された個別のアルゴリズムで画像処理を施すことにより物体検出する手法が主であった。
カメラ画像を用いた物体検出の場合、耐環境性の問題がある。具体的には、照明がない、もしくは、不十分である夜間、屋外における雨または雪の天候の影響により、カメラ画像上、物体が認識しづらい状況が発生しうる。このため、耐環境性をあげるために、カメラ画像以外のセンサを併用する例としてミリ波レーダの併用がある(例えば、特許文献1参照)。ミリ波は、高い周波数帯(30GHz~300GHz)の電磁波であり、直線性が強く、レーザのように扱うことができるため、耐環境性にすぐれ、雨または雪などの天候、また、夜間の照明などの影響をあまり受けない。ミリ波レーダは、対象物の位置(方向と距離)を検出できるとともに、ドップラー効果の結果として対象物の速度も検出できる。
国際公開第2017/057058号
しかし、特許文献1の技術は、ミリ波レーダとステレオカメラの両者の信頼度を比較し、信頼度の高い方の出力を優先させる。具体的には、画面を4つの領域に分離できるとした場合、第1の領域と第4の領域はミリ波レーダの検出結果を、第2の領域と第3の領域はステレオカメラの検出結果を優先させる処理である。従って、第1の領域の物体検出において、両装置の情報を用いることができる技術ではない。また、ミリ波レーダもステレオカメラも、距離の測定に基づく検出装置であり、両装置の特性に基づく信頼度のみを考慮して検出結果を選択的に用いる技術にすぎず、それぞれの装置の検出精度以上の精度を得ることはできない。
本願は、上述のような問題を解決するためになされたもので、物体検出の精度を向上させることができる物体検出装置を提供することを目的とする。
本願に開示される物体検出装置は、
対象物との距離および対象物の速度の情報を有する第1の画像情報を、対象物を撮像した第1の画像上に重畳する重畳処理手段、重畳処理手段により処理された重畳画像に基づいて、対象物の種別を推測するニューラルネットワーク手段を備えたものである。
本願に開示される物体検出装置によれば、第1の画像情報を第1の画像上に重畳した重畳画像を用いて対象物の種別を推測することにより、物体検出の精度を向上させることができる。
実施の形態1に係る物体検出装置の機能構成図である。 実施の形態1に係る重畳処理部の機能構成図である。 実施の形態に係る物体検出装置のハードウエア構成の一例を示す図である。 実施の形態1に係る物体検出装置の動作を説明するフローチャートである。 実施の形態1に係る重畳画像を説明する図である。 実施の形態1に係る学習データと教師ラベルを説明する図である。 実施の形態2に係る重畳画像を説明する図である。 実施の形態3に係る重畳画像を説明する図である。 実施の形態4に係る学習データと教師ラベルを説明する図である。 実施の形態5に係る重畳画像を説明する図である。 実施の形態6に係る物体検出装置のデータの保存を説明する図である。 実施の形態6に係る重畳処理部の機能構成図である。
以下、本願に係る物体検出装置の好適な実施の形態について、図面を参照して説明する。なお、同一内容および相当部については同一符号を配し、その詳しい説明は省略する。以降の実施形態も同様に、同一符号を付した構成について重複した説明は省略する。
実施の形態1.
以下、実施の形態1に係る物体検出装置1を図1の機能構成図に基づいて説明する。
本実施の形態の物体検出装置1は、機械学習の一手法である深層学習(以下ディープラーニングと称す)を用いる。ディープラーニングは、入力部と出力部の間に、畳込み層、全結合層などのいくつもの処理のための層がネットワーク状に構成されたニューラルネットワーク部4に、学習データを入力して学習させる。この学習の過程で、各層に個別に設けられたノード間の伝搬処理にかける重み(以下学習パラメータと称す)を調整するものである。これにより、学習により得られた学習パラメータを用いて、新たに入力されるデータに対しても正しい出力を推論することができるようにするものである。
従って、ディープラーニングを用いた物体検出装置1は、新たに入力されるデータに対し、物体およびその種別を推論して検出する処理を行う推論処理実行装置2と、この推論を行うための学習パラメータPを決定する学習処理実行装置3から構成される。学習した学習パラメータPを有するニューラルネットワーク部4を使用して推論処理実行装置2により物体を検出するため、推論処理実行装置2と学習処理実行装置3に使用するニューラルネットワーク部4は同じ機能を有するが、推論処理実行装置2のニューラルネットワーク部4は演算量を抑制する必要があるため、構成を簡略化してもよい。
学習処理実行装置3は、学習データ作成部12、物体検出学習処理部13により構成される。予め作成された学習データAを入力したときの出力と予め作成された正解ラベル(以下教師ラベルと称す)Bとを比較し、その差が小さくなるように、ニューラルネットワーク部4内の学習パラメータPを調整する。これにより、入力に対する出力の誤差を小さくするように学習パラメータPは調整されるため、学習により得られた調整後の学習パラメータPを用いて、新たな入力に対して推論処理実行装置2において精度の高い推論を行うことが可能となる。
学習データ作成部12では、重畳画像の学習データAと教師ラベルBを作成する。重畳画像データについては後述する。教師ラベルBは、画像内に存在する物体を囲む矩形領域の座標データと、その物体が何であるかの種別を示すラベルの情報データを対にしたデータである。物体検出学習処理部13は、ニューラルネットワーク部4、検出エラー評価部14を有し、学習パラメータPを学習により更新する。学習データAと教師ラベルBは対になっている。画像データ内に複数の物体がある場合は、この対の情報が複数組存在することになる。
推論処理実行装置2は、ミリ波センサ5からのミリ波データを入力として一次加工することで対象物を検出するミリ波物体検出処理部6、カメラ7からの画像データCと、ミリ波物体検出処理部6からの出力データDを入力し、重畳画像データEに処理する重畳処理部8、重畳処理部8で処理された重畳画像データEを保存するために処理する重畳画像データ保存処理部9、重畳画像データEを保存するための記憶部10、重畳処理部8で処理された重畳画像データEから、検出する物体を推論する物体検出推論処理部11からなる。
重畳処理部8は、図2に示すように、画像データとミリ波物体検出処理部6からの出力データDとの同期をとる時刻同期処理部81、出力データDの画角を調整する画角調整処理部82、画像データCと重畳するために、出力データDをマーカ画像として画像化するミリ波検出結果画像化処理部83、画像データCとマーカ画像の出力データDとを重畳する画像重畳処理部84からなる。学習用データの重畳画像も同様に作成する。
重畳画像データ保存処理部9は、重畳処理部8で作成され、物体検出推論処理部11に入力される重畳画像データEを記憶部10に保存する。保存された重畳画像データEは、システム運用時の検出結果の評価および分析に有用である。特に本実施の形態の場合、未検出および過検出などの検出誤りが発生した場合の原因分析を行うのに必要となる。重畳画像データEは、一般の動画ファイルとして記憶部10に保存されるため、特別な仕組みを必要とせずに再生できる。仮に重畳されていない、元の画像データと、ミリ波の検出結果を別々に保存した場合、一般的な動画ファイル以外の形式で保存した場合には、それを再生する手段の準備が必要となる。また、別々に保存した場合には、各々のデータの再生時の同期など、運用時と同様の物体検出推論処理部に入力される重畳画像データを生成することが容易でない場合が多い。これらの重畳画像データEは学習用データとしても使用できる。
ニューラルネットワーク部4は、前述した通り、多層のネットワークであり、畳み込み層、および全結合層などから構成される。畳み込み層は、注目画素に対して、例えば、その周囲1画素、計3×3画素の情報を用いて値を抽出するなどの処理を行う層であり、通常、ニューラルネットワーク部4に入力された画像は、最初にこの畳み込み層で処理を行う。全結合層とは、通常、畳み込み層の後段に配される層であり、前層と後層のニューロンが全て接続されている層のことであり、この層を経て、最後に、検出結果が出力される。ディープラーニングにおける学習パラメータ数は、一般に、数百万を超える場合も多くあり、非常に大量なものである。
図3は、物体検出装置1のハードウエア構成の一例を示す図である。プロセッサ301と記憶装置302から構成され、図示していないが、記憶装置はランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ301は、記憶装置302から入力されたプログラムを実行することにより、推論処理実行装置2、または学習処理実行装置3の動作を行う。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ301にプログラムが入力される。また、プロセッサ301は、演算結果等のデータを記憶装置302の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
次に本実施の形態の物体検出装置1の動作について、推論処理実行装置2が車両の検出を行うまでの動作を図4のフローチャートを用いてまず説明する。
カメラ7からの画像データCは、図5(a)で示される(図4中、ステップS1)。図5(c)は、画像データCのうち、物体として検出されているものを枠502~504で示している。枠502または枠503は正しく物体の種別を車両と検出しているが、枠504は、路面の汚れ、あるいは他の通過車両により路面上にできた影などであり、これらを車両として誤って検出している。
図5(d)は、ミリ波センサ5からの検知信号(ステップS2)をミリ波物体検出処理部6で加工した出力データDを示す。出力データDには、検出した対象物の位置(方向および距離、座標情報としてデータを格納)、およびミリ波センサ5のドップラー効果により検出された対象物の速度情報が含まれる。これにより、図5(d)には、順行(+の表示)および逆行(黒点の表示)がマーカ画像501として表示されている。ただし、継続的に静止している物は除外されている。すなわち、路面自体、あるいは、路側に常駐された構造物からもミリ波の反射した結果は検知するが、ミリ波物体検出処理部6により除外される。
画像データCと出力データDを重畳処理部8において重畳する。この際、時刻同期処理部81にて、画像データCと出力データDの同期をとり、出力データDの画角を画角調整処理部82で調整した後、画像データCと重畳するために、ミリ波検出結果画像化処理部83により、出力データDを、検出位置、あるいは順行および逆行を視覚化できるようなマーカ画像として画像化する(ステップS3)。画像データCと画像化した出力データDとを重畳する画像重畳処理部84にて重畳した重畳画像データEが、図5(b)に示される(ステップS4)。ニューラルネットワーク部4は、後述する学習処理実行装置3における学習により、学習パラメータPが調整されており、画像データCに出力データDが重畳された重畳画像データEから、車両を検出結果Fとして正しく検出する(ステップS5)。検出結果Fは、表示装置15に表示してもよい。
このような物体検出装置1は、道路の路側に配置して、車の交通量および車の速度から車の挙動を検出することができ、道路監視に用いることができる。また、物体検出装置1を車載すれば、対向車、順行車、あるいは人を検出することができ、自動運転を含む運転支援に活用できる。以下の実施の形態についても同様である。
次に、ニューラルネットワーク部4内の学習パラメータPを調整するための学習処理実行装置3の動作につき説明する。図1に示す通り、学習処理実行装置3は、学習データ作成部12、物体検出学習処理部13により構成される。予め作成された学習データAをニューラルネットワーク部4に入力し、検出結果Fと、予め作成された、学習データAと対になる教師ラベルBとを検出エラー評価部14で比較し、その差が小さくなるように、ニューラルネットワーク部4内の学習パラメータPを調整する。これにより、入力に対する出力の誤差を小さくするように学習パラメータPは調整される
図6は、画像及び画像以外の入力を用いた物体検出装置において、検出対象を「車両」とした場合の学習データAと教師ラベルBの例である。ここでの学習データAは、ミリ波の検出結果によるマーカ画像を重畳した画像と、マーカ画像が重畳されていない画像の両者を車両の教師ラベルBとして用いている。マーカ画像は、物体までの距離および物体の速度の情報を有していてもよいし、距離または速度のいずれかの情報のみでもよい。
図6では、学習データAと教師ラベルBとの組合せの少数の例のみを示しているが、実際に学習に用いるデータは、比較的多数のデータである。1,000組程度以上の学習データを用いることが多い。大量のデータを用いて学習パラメータPが学習することにより、学習に用いた画像以外の、未知の画像に対しても、物体を正しく検出できるようになる。なお、学習は、大量のデータを、ただ一度学習するのではなく、何度も、繰り返し学習することにより、学習パラメータPの正しい調整が実現される。
図6において、マーカ画像が重畳された(a)及び(e)などに示された画像は、これらのマーカ画像が、実写の画像でないため、規則正しい形状をしており、ニューラルネットワーク部4で、車両として容易に学習しうる。また、ミリ波による検出が不調の場合のために、マーカ画像が重畳されていない(b)及び(c)の画像も車両として学習させる。
尚、学習データAは、カメラおよびミリ波センサによる実際の車両を撮影、検出したデータだけではなく、画像加工により作成したデータでもよい。更に、利用者が見て自然にみえるような画像でなくても良い。また、データ増大(データオーグメンテーション)という技術、すなわち、単一の画像を、少し加工し、別の入力として用いる技術を使用してもよい。具体的には、学習データAの画像位置を少しずらしたり、左右反転させたり、少し回転させたり、色を少し変更したりして学習データを増大し、学習パラメータに入力する。なお、データ増大の効果および弊害の有無は、学習データ以外のデータで検証することにより確認できるので、検証結果を確認しながら、実施する。
ここでのオーグメンテーションとは、学習データを本質的に増やすわけではなく、ニューラルネットワークが特定の処理で画像をとらえるため、そのとらえ方が偏らないように、入力側に変化をもたせる技術である。ニューラルネットワーク側での過学習対策のひとつともいえ、ニューラルネットワーク側自体に組み込まれるドロップアウトほかの技術などと合わせて用いる。
以上、述べたように、本実施の形態1において、学習データとして、ミリ波センサからの検出データをマーカ画像に加工した出力データを、カメラで撮像した画像データと重畳した重畳画像を用いることにより、ニューラルネットワーク部での学習が容易になる。さらに、車両を検出する画像としても重畳画像を用いることにより、画像単体またはミリ波データ単体からの物体検出よりも推論処理実行装置での推論が容易となる。
本実施の形態では、検出した物体の種別を車両として説明したが、車両に限るものではなく、センサに対して位置が相対的に移動する物体であれば、どのような物体にも適用可能である。
実施の形態2.
図7を用いて実施の形態2のカメラ7からの画像とミリ波センサ5の出力の別の重畳画像を説明する。
(a)は、実施の形態1で説明した重畳画像でありミリ波センサからの出力データを、マーカ画像としてカメラ画像に重畳的に表示している。これに対し、(b)は、カメラ画像に対して、マーカ画像を重畳させるのではなく、ミリ波センサの検出結果を反映した重畳画像を作成する。すなわち、ミリ波センサ5の検出出力が得られていない領域701の画像を抑制し、該当領域をグレーダウンさせる処理を施している。なお、グレーダウンしている領域701の画像を、完全に削除しても良いことはいうまでもない。
このように、本実施の形態では、ミリ波センサ5の検出出力が得られていない領域701の画像を抑制することにより、ミリ波センサの検出のない領域で誤って、車両を検出する恐れが大幅に抑制される。
実施の形態3.
図8を用いて実施の形態3のカメラ7からの画像とミリ波センサ5の出力の別の重畳画像を説明する。
(a)は、実施の形態1で説明した重畳画像でありミリ波センサからの出力データを、マーカ画像としてカメラ画像に重畳的に表示している。ただし、順行および逆行の表示は記載していない。(b)が、本実施の形態のカメラ画像に対して、ミリ波センサからの出力データを重畳させた表示である。実施の形態1と実施の形態3の違いは、ミリ波の検出結果を示すマーカ画像801が、カメラ画像に対して、上書きされているのではなく、カメラ画像を残したまま、マーカ画像802が重畳(ブレンド)されている。これにより、カメラ画像の情報は残された状態になっている。ディープラーニングにおいては、それぞれの画像に情報の欠落がないため、このような重畳画像は、推論処理で有効に作用する。
実施の形態4.
図9を用いて実施の形態4の学習データAと教師ラベルBを説明する。図6で説明した実施の形態1と同様の部分は、説明を省略する。
図9において、ミリ波の検出結果によるマーカ画像が重畳された(a)及び(e)は、
教師ラベルBは単なる「車両」ではなく、「車両_ミリ波逆行」、「車両_ミリ波順行」としている。一方、マーカ画像が重畳されていない(b)及び(c)の画像は、「車両_ミリ波なし」としている。このようにラベルを分けることにより、別の種別の物体として学習され、各々の種別の学習内容が、より純化され、高い精度が学習できることになる。また、検出結果をラベルで区別した情報としているため、カメラ画像では車両として検出されているが、ミリ波センサでは検出できていない、もしくは、その逆で、カメラ画像により車両として検出され、かつ、ミリ波センサでも検出されているなど、図6の教師ラベルに比較して詳細な情報を得ることができる。
実施の形態5.
図10を用いて実施の形態5のカメラ7からの画像とミリ波センサ5の出力の別の重畳画像を説明する。(a)に示すように、カメラ画像がYZ平面に撮像されるのに比して、ミリ波センサは、(d)に示すように、XY平面102内で、位置または速度を検出している。すなわち、2次元のカメラ画像に対してミリ波センサ5の出力は、このカメラ画像の平面上で1次元の情報として表され、画面内の高さ方向は、ミリ波センサは検出しない。ミリ波センサの検出結果を図示すると、101のようにXY平面102内の点の移動として表現される。なお、ミリ波センサ5でどの方向の検出が可能となるかは、ミリ波センサの送受信部の構成、または信号処理方法などによる。
図10(c)は、カメラ画像による物体検出結果を示しており、ここでは、検出対象の物体の種別は、「人」としている。検出結果は、枠103で表示されている。(b)は、カメラ画像に対して、ミリ波センサ5の検出結果を重畳させた例である。ミリ波センサ5は高さ方向の情報を持たないため、画像に重畳させるために、例えば、Z方向の線104としてカメラ画像の人114に重畳する。このような重畳画像を用いて、実施の形態1と同様に学習パラメータPの処理を実施することで、「人」に対しても高精度な検出が実現できる。
図11を用いて、実施の形態5に係る物体検出装置のデータ保存を説明する。特にミリ波センサ5の出力データの保存に関する。
上述した通り、2次元のカメラ画像に対して、ミリ波センサ5の検出結果は、1次元であり、全体の画面に影響のない、画面の一部、例えば画面の上端などに情報を保存しておくことが可能である。このデータは、図11に示すように、カメラ画像と干渉することなく、画面の一部を使って情報を保存しておくことができる。すなわち、画像の上部1120の領域のみを使って、ミリ波センサ5で「人」が検出されたことを、領域1111、1112、1113のように記録することができる。これは、カメラ画像における、「人」の画像の領域1101、1102、および1103の検出結果に相当する。
このように保存された映像情報を用いて物体の検出処理を行う場合には、図10(b)に示したZ方向の線104の表示に変換して、推論処理を実施してもよい。なお、このような画面の一部に情報を保存しておくためのデータは、図12に示すように、画像重畳処理部84内の保存用重畳データ作成処理部811にて生成する。
尚、この保存形式の場合には、その保存された情報をもとに、物体検出推論処理部11に入力する際は、画像を加工する必要がある。ただし、このような加工は比較的容易に実現できる。このように画面の上端等のみに、情報を保存する利点は、ほぼ画像の全域がカメラ画像そのものとなり、特別なマーカ等がない通常の画像としての利用が可能となることである。
このように、ミリ波センサの画像を1次元上に重畳して保存することにより、他の重畳画像と同様の効果を得ることができるとともに、表示領域のほぼ全域がカメラ画像となり、実施の形態1で説明したマーカ画像のない通常の画像として利用することが可能となる。これにより、システムの運用時の検出結果の評価、分析に有用である。また、学習データとしても活用できる。
本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1:物体検出装置、2:推論処理実行装置、3:学習処理実行装置、4:ニューラルネットワーク部、5:ミリ波センサ、6:ミリ波物体検出処理部、7:カメラ、8:重畳処理部、9:重畳画像データ保存処理部、10:記憶部、11:物体検出推論処理部、12:学習データ作成部、13:物体検出学習処理部、301:プロセッサ、302:記憶装置。

Claims (6)

  1. 対象物との距離および前記対象物の速度の情報を有する第1の画像情報を、前記対象物を撮像した第1の画像上に重畳する重畳処理手段、前記重畳処理手段により処理された重畳画像に基づいて、前記対象物の種別を推測するニューラルネットワーク手段を備えた物体検出装置。
  2. 前記ニューラルネットワーク手段は、前記対象物と同じ種別の物体の画像に、前記物体との距離および/または前記物体の速度の情報を有する画像情報を重畳した重畳画像を用いて機械学習した学習パラメータを有し、前記学習パラメータを使用して前記対象物の種別を推測することを特徴とする請求項1に記載の物体検出装置。
  3. 前記第1の画像情報を、前記第1の画像上にマーカ画像として上書きして重畳することを特徴とする請求項1または2に記載の物体検出装置。
  4. 前記第1の画像情報を、前記第1の画像に上書きすることなく、前記第1の画像を残したまま重畳したことを特徴とする請求項1または2に記載の物体検出装置。
  5. 前記第1の画像情報を取得できない領域の画像を前記第1の画像上から削除することを特徴とする請求項1から4のいずれか一項に記載の物体検出装置。
  6. 前記第1の画像情報は、前記第1の画像が撮像された撮像領域の端部にデータとして保存することを特徴とする請求項1または2に記載の物体検出装置。
JP2020194069A 2020-11-24 2020-11-24 物体検出装置 Active JP7515378B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020194069A JP7515378B2 (ja) 2020-11-24 2020-11-24 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020194069A JP7515378B2 (ja) 2020-11-24 2020-11-24 物体検出装置

Publications (2)

Publication Number Publication Date
JP2022082904A true JP2022082904A (ja) 2022-06-03
JP7515378B2 JP7515378B2 (ja) 2024-07-12

Family

ID=81811368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020194069A Active JP7515378B2 (ja) 2020-11-24 2020-11-24 物体検出装置

Country Status (1)

Country Link
JP (1) JP7515378B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3438872A1 (en) * 2017-08-04 2019-02-06 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
WO2020116195A1 (ja) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3438872A1 (en) * 2017-08-04 2019-02-06 Bayerische Motoren Werke Aktiengesellschaft Method, apparatus and computer program for a vehicle
WO2020116195A1 (ja) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体

Also Published As

Publication number Publication date
JP7515378B2 (ja) 2024-07-12

Similar Documents

Publication Publication Date Title
JP7665256B2 (ja) 交通道路路面情報用のマルチタスク共同知覚ネットワークモデル及び検出方法
Mostafavi et al. Learning to reconstruct hdr images from events, with applications to depth and flow prediction
US8331652B2 (en) Simultaneous localization and map building method and medium for moving robot
KR20210107570A (ko) 어떤 대상의 자기 동작 추정을 위한 방법
JP7036610B2 (ja) 学習方法およびプログラム
Brunner et al. Selective combination of visual and thermal imaging for resilient localization in adverse conditions: Day and night, smoke and fire
US20220180475A1 (en) Panoramic image synthesis device, panoramic image synthesis method and panoramic image synthesis program
US20090136092A1 (en) Object boundary accurate motion detection using hierarchical block splitting and motion segmentation
CN112731436A (zh) 基于点云上采样的多模态数据融合可行驶区域检测方法
WO2005010820A2 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications
KR20220111203A (ko) 스티칭된 이미지들의 정렬을 평가하기 위한 방법 및 이미지 프로세싱 디바이스
CN110889403A (zh) 文本检测方法以及相关装置
Lo et al. Depth map super-resolution via Markov random fields without texture-copying artifacts
KR101699014B1 (ko) 스테레오 카메라를 이용한 객체 검출 방법 및 장치
JP4394487B2 (ja) ステレオ画像処理装置
US20220254008A1 (en) Multi-view interactive digital media representation capture
CN119625263A (zh) 基于多模态融合的目标检测方法、装置、电子设备及介质
CN119295326A (zh) 一种基于伪噪声和卷积神经网络的红外图像增强方法
JP2022153272A (ja) ビデオストリームを扱うための方法と監視カメラ
CN119417876A (zh) 一种单双目融合的海上目标深度估计方法
JP2022082904A (ja) 物体検出装置
CN109657729B (zh) 图像特征融合、特征图处理及姿态识别方法、装置及系统
CN115830064B (zh) 一种基于红外脉冲信号的弱小目标跟踪方法及装置
Xu et al. Features based spatial and temporal blotch detection for archive video restoration
US20220375109A1 (en) Method and electronic device for obtaining reconstructed image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240702

R150 Certificate of patent or registration of utility model

Ref document number: 7515378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150