JP2022082904A - 物体検出装置 - Google Patents
物体検出装置 Download PDFInfo
- Publication number
- JP2022082904A JP2022082904A JP2020194069A JP2020194069A JP2022082904A JP 2022082904 A JP2022082904 A JP 2022082904A JP 2020194069 A JP2020194069 A JP 2020194069A JP 2020194069 A JP2020194069 A JP 2020194069A JP 2022082904 A JP2022082904 A JP 2022082904A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- learning
- superimposed
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Image Analysis (AREA)
Abstract
Description
対象物との距離および対象物の速度の情報を有する第1の画像情報を、対象物を撮像した第1の画像上に重畳する重畳処理手段、重畳処理手段により処理された重畳画像に基づいて、対象物の種別を推測するニューラルネットワーク手段を備えたものである。
以下、実施の形態1に係る物体検出装置1を図1の機能構成図に基づいて説明する。
本実施の形態の物体検出装置1は、機械学習の一手法である深層学習(以下ディープラーニングと称す)を用いる。ディープラーニングは、入力部と出力部の間に、畳込み層、全結合層などのいくつもの処理のための層がネットワーク状に構成されたニューラルネットワーク部4に、学習データを入力して学習させる。この学習の過程で、各層に個別に設けられたノード間の伝搬処理にかける重み(以下学習パラメータと称す)を調整するものである。これにより、学習により得られた学習パラメータを用いて、新たに入力されるデータに対しても正しい出力を推論することができるようにするものである。
カメラ7からの画像データCは、図5(a)で示される(図4中、ステップS1)。図5(c)は、画像データCのうち、物体として検出されているものを枠502~504で示している。枠502または枠503は正しく物体の種別を車両と検出しているが、枠504は、路面の汚れ、あるいは他の通過車両により路面上にできた影などであり、これらを車両として誤って検出している。
図7を用いて実施の形態2のカメラ7からの画像とミリ波センサ5の出力の別の重畳画像を説明する。
(a)は、実施の形態1で説明した重畳画像でありミリ波センサからの出力データを、マーカ画像としてカメラ画像に重畳的に表示している。これに対し、(b)は、カメラ画像に対して、マーカ画像を重畳させるのではなく、ミリ波センサの検出結果を反映した重畳画像を作成する。すなわち、ミリ波センサ5の検出出力が得られていない領域701の画像を抑制し、該当領域をグレーダウンさせる処理を施している。なお、グレーダウンしている領域701の画像を、完全に削除しても良いことはいうまでもない。
このように、本実施の形態では、ミリ波センサ5の検出出力が得られていない領域701の画像を抑制することにより、ミリ波センサの検出のない領域で誤って、車両を検出する恐れが大幅に抑制される。
図8を用いて実施の形態3のカメラ7からの画像とミリ波センサ5の出力の別の重畳画像を説明する。
(a)は、実施の形態1で説明した重畳画像でありミリ波センサからの出力データを、マーカ画像としてカメラ画像に重畳的に表示している。ただし、順行および逆行の表示は記載していない。(b)が、本実施の形態のカメラ画像に対して、ミリ波センサからの出力データを重畳させた表示である。実施の形態1と実施の形態3の違いは、ミリ波の検出結果を示すマーカ画像801が、カメラ画像に対して、上書きされているのではなく、カメラ画像を残したまま、マーカ画像802が重畳(ブレンド)されている。これにより、カメラ画像の情報は残された状態になっている。ディープラーニングにおいては、それぞれの画像に情報の欠落がないため、このような重畳画像は、推論処理で有効に作用する。
図9を用いて実施の形態4の学習データAと教師ラベルBを説明する。図6で説明した実施の形態1と同様の部分は、説明を省略する。
図9において、ミリ波の検出結果によるマーカ画像が重畳された(a)及び(e)は、
教師ラベルBは単なる「車両」ではなく、「車両_ミリ波逆行」、「車両_ミリ波順行」としている。一方、マーカ画像が重畳されていない(b)及び(c)の画像は、「車両_ミリ波なし」としている。このようにラベルを分けることにより、別の種別の物体として学習され、各々の種別の学習内容が、より純化され、高い精度が学習できることになる。また、検出結果をラベルで区別した情報としているため、カメラ画像では車両として検出されているが、ミリ波センサでは検出できていない、もしくは、その逆で、カメラ画像により車両として検出され、かつ、ミリ波センサでも検出されているなど、図6の教師ラベルに比較して詳細な情報を得ることができる。
図10を用いて実施の形態5のカメラ7からの画像とミリ波センサ5の出力の別の重畳画像を説明する。(a)に示すように、カメラ画像がYZ平面に撮像されるのに比して、ミリ波センサは、(d)に示すように、XY平面102内で、位置または速度を検出している。すなわち、2次元のカメラ画像に対してミリ波センサ5の出力は、このカメラ画像の平面上で1次元の情報として表され、画面内の高さ方向は、ミリ波センサは検出しない。ミリ波センサの検出結果を図示すると、101のようにXY平面102内の点の移動として表現される。なお、ミリ波センサ5でどの方向の検出が可能となるかは、ミリ波センサの送受信部の構成、または信号処理方法などによる。
上述した通り、2次元のカメラ画像に対して、ミリ波センサ5の検出結果は、1次元であり、全体の画面に影響のない、画面の一部、例えば画面の上端などに情報を保存しておくことが可能である。このデータは、図11に示すように、カメラ画像と干渉することなく、画面の一部を使って情報を保存しておくことができる。すなわち、画像の上部1120の領域のみを使って、ミリ波センサ5で「人」が検出されたことを、領域1111、1112、1113のように記録することができる。これは、カメラ画像における、「人」の画像の領域1101、1102、および1103の検出結果に相当する。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
Claims (6)
- 対象物との距離および前記対象物の速度の情報を有する第1の画像情報を、前記対象物を撮像した第1の画像上に重畳する重畳処理手段、前記重畳処理手段により処理された重畳画像に基づいて、前記対象物の種別を推測するニューラルネットワーク手段を備えた物体検出装置。
- 前記ニューラルネットワーク手段は、前記対象物と同じ種別の物体の画像に、前記物体との距離および/または前記物体の速度の情報を有する画像情報を重畳した重畳画像を用いて機械学習した学習パラメータを有し、前記学習パラメータを使用して前記対象物の種別を推測することを特徴とする請求項1に記載の物体検出装置。
- 前記第1の画像情報を、前記第1の画像上にマーカ画像として上書きして重畳することを特徴とする請求項1または2に記載の物体検出装置。
- 前記第1の画像情報を、前記第1の画像に上書きすることなく、前記第1の画像を残したまま重畳したことを特徴とする請求項1または2に記載の物体検出装置。
- 前記第1の画像情報を取得できない領域の画像を前記第1の画像上から削除することを特徴とする請求項1から4のいずれか一項に記載の物体検出装置。
- 前記第1の画像情報は、前記第1の画像が撮像された撮像領域の端部にデータとして保存することを特徴とする請求項1または2に記載の物体検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020194069A JP7515378B2 (ja) | 2020-11-24 | 2020-11-24 | 物体検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020194069A JP7515378B2 (ja) | 2020-11-24 | 2020-11-24 | 物体検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022082904A true JP2022082904A (ja) | 2022-06-03 |
JP7515378B2 JP7515378B2 (ja) | 2024-07-12 |
Family
ID=81811368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020194069A Active JP7515378B2 (ja) | 2020-11-24 | 2020-11-24 | 物体検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7515378B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3438872A1 (en) * | 2017-08-04 | 2019-02-06 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
WO2020116195A1 (ja) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
-
2020
- 2020-11-24 JP JP2020194069A patent/JP7515378B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3438872A1 (en) * | 2017-08-04 | 2019-02-06 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
WO2020116195A1 (ja) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
Also Published As
Publication number | Publication date |
---|---|
JP7515378B2 (ja) | 2024-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7665256B2 (ja) | 交通道路路面情報用のマルチタスク共同知覚ネットワークモデル及び検出方法 | |
Mostafavi et al. | Learning to reconstruct hdr images from events, with applications to depth and flow prediction | |
US8331652B2 (en) | Simultaneous localization and map building method and medium for moving robot | |
KR20210107570A (ko) | 어떤 대상의 자기 동작 추정을 위한 방법 | |
JP7036610B2 (ja) | 学習方法およびプログラム | |
Brunner et al. | Selective combination of visual and thermal imaging for resilient localization in adverse conditions: Day and night, smoke and fire | |
US20220180475A1 (en) | Panoramic image synthesis device, panoramic image synthesis method and panoramic image synthesis program | |
US20090136092A1 (en) | Object boundary accurate motion detection using hierarchical block splitting and motion segmentation | |
CN112731436A (zh) | 基于点云上采样的多模态数据融合可行驶区域检测方法 | |
WO2005010820A2 (fr) | Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications | |
KR20220111203A (ko) | 스티칭된 이미지들의 정렬을 평가하기 위한 방법 및 이미지 프로세싱 디바이스 | |
CN110889403A (zh) | 文本检测方法以及相关装置 | |
Lo et al. | Depth map super-resolution via Markov random fields without texture-copying artifacts | |
KR101699014B1 (ko) | 스테레오 카메라를 이용한 객체 검출 방법 및 장치 | |
JP4394487B2 (ja) | ステレオ画像処理装置 | |
US20220254008A1 (en) | Multi-view interactive digital media representation capture | |
CN119625263A (zh) | 基于多模态融合的目标检测方法、装置、电子设备及介质 | |
CN119295326A (zh) | 一种基于伪噪声和卷积神经网络的红外图像增强方法 | |
JP2022153272A (ja) | ビデオストリームを扱うための方法と監視カメラ | |
CN119417876A (zh) | 一种单双目融合的海上目标深度估计方法 | |
JP2022082904A (ja) | 物体検出装置 | |
CN109657729B (zh) | 图像特征融合、特征图处理及姿态识别方法、装置及系统 | |
CN115830064B (zh) | 一种基于红外脉冲信号的弱小目标跟踪方法及装置 | |
Xu et al. | Features based spatial and temporal blotch detection for archive video restoration | |
US20220375109A1 (en) | Method and electronic device for obtaining reconstructed image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231128 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240702 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7515378 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |