JP2019204338A - 認識装置及び認識方法 - Google Patents
認識装置及び認識方法 Download PDFInfo
- Publication number
- JP2019204338A JP2019204338A JP2018099724A JP2018099724A JP2019204338A JP 2019204338 A JP2019204338 A JP 2019204338A JP 2018099724 A JP2018099724 A JP 2018099724A JP 2018099724 A JP2018099724 A JP 2018099724A JP 2019204338 A JP2019204338 A JP 2019204338A
- Authority
- JP
- Japan
- Prior art keywords
- feature map
- image
- region
- unit
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000011218 segmentation Effects 0.000 claims abstract description 81
- 238000013528 artificial neural network Methods 0.000 claims abstract description 25
- 238000000605 extraction Methods 0.000 claims description 42
- 239000000284 extract Substances 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 17
- 238000011176 pooling Methods 0.000 description 12
- 230000000052 comparative effect Effects 0.000 description 8
- 238000011144 upstream manufacturing Methods 0.000 description 8
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
図1に示すように、本実施形態では、認識装置100は、車両10に搭載されている。なお、認識装置100は、例えば、船舶やドローンなどの車両以外の物体に搭載されていてもよい。
図11に示す変形例の認識装置100Aは、上述の認識装置100と比較して、さらに、カラー画像をニューラルネットワークに入力するカラー画像入力部102Aと、カラー画像の特徴マップを抽出するカラー画像特徴マップ抽出部105Aと、歩行者のセグメンテーションに用いる特徴マップを生成する歩行者セグメンテーション部108Aと、画像と歩行者とを関連付けるセマンティックセグメンテーションを行う歩行者出力部110Aと、を備える点で異なる。さらに、変形例の認識装置100Aは、上述の認識装置100と比較して、(i)カラー画像特徴マップ抽出部105Aにより抽出された特徴マップが、特徴マップ連結部106、領域セグメンテーション部107、及び物体セグメンテーション部108へ出力されるとともに、(ii)撮像画像特徴マップ抽出部104、距離画像特徴マップ抽出部105、及び特徴マップ連結部106により抽出された特徴マップが歩行者セグメンテーション部108Aへ出力される点が異なる。
Claims (5)
- 学習済みのニューラルネットワークを用いて、領域と物体とを認識する認識装置(100)であって、
前記領域と前記物体とが画像中に含まれる撮像画像の特徴マップを抽出する撮像画像特徴マップ抽出部(104)と、
前記領域と前記物体とが画像中に含まれる距離画像の特徴マップを抽出する距離画像特徴マップ抽出部(105)と、
前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを連結する特徴マップ連結部(106)と、
前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記領域のセグメンテーションに用いる特徴マップを生成する領域セグメンテーション部(107)と、
前記領域のセグメンテーションに用いる特徴マップを用いて、前記画像と前記領域とを関連付けるセマンティックセグメンテーションを行う領域出力部(109)と、
前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記物体のセグメンテーションに用いる特徴マップを生成する物体セグメンテーション部(108)と、
前記物体のセグメンテーションに用いる特徴マップを用いて、前記画像と前記物体とを関連付けるセマンティックセグメンテーションを行う物体出力部(110)と、を備え、
前記撮像画像特徴マップ抽出部と、前記距離画像特徴マップ抽出部と、前記特徴マップ連結部と、前記領域セグメンテーション部と、前記物体セグメンテーション部とは、前記ニューラルネットワークにより構成されている、認識装置。 - 請求項1に記載の認識装置であって、
前記ニューラルネットワークは、畳込みニューラルネットワークである、認識装置。 - 請求項1又は請求項2に記載の認識装置であって、
前記撮像画像は、輝度画像である、認識装置。 - 請求項1から請求項3のいずれか1項に記載の認識装置であって、
前記距離画像は、視差画像である、認識装置。 - 学習済みニューラルネットワークを用いて、領域と物体とを認識する認識方法であって、
前記領域と前記物体とが画像中に含まれる撮像画像の特徴マップを抽出する工程と、
前記領域と前記物体とが画像中に含まれる距離画像の特徴マップを抽出する工程と、
前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを連結する工程と、
前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記領域のセグメンテーションに用いる特徴マップを生成する工程と、
前記領域のセグメンテーションに用いる特徴マップを用いて、前記画像と前記領域とを関連付けるセマンティックセグメンテーションを行う工程と、
前記連結された特徴マップと、前記撮像画像から抽出された特徴マップと、前記距離画像から抽出された特徴マップとを用いて、前記物体のセグメンテーションに用いる特徴マップを生成する工程と、
前記物体のセグメンテーションに用いる特徴マップを用いて、前記画像と前記物体とを関連付けるセマンティックセグメンテーションを行う工程と、を備える、認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099724A JP7071215B2 (ja) | 2018-05-24 | 2018-05-24 | 認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018099724A JP7071215B2 (ja) | 2018-05-24 | 2018-05-24 | 認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019204338A true JP2019204338A (ja) | 2019-11-28 |
JP7071215B2 JP7071215B2 (ja) | 2022-05-18 |
Family
ID=68726999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018099724A Active JP7071215B2 (ja) | 2018-05-24 | 2018-05-24 | 認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7071215B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023242891A1 (ja) * | 2022-06-13 | 2023-12-21 | 日本電気株式会社 | オブジェクト検出装置、学習装置、オブジェクト検出方法、学習方法、オブジェクト検出プログラム及び学習プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133078A (ja) * | 2014-01-15 | 2015-07-23 | 株式会社リコー | 制御用対象物認識装置、移動体機器制御システム及び制御用対象物認識用プログラム |
US20170124415A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Subcategory-aware convolutional neural networks for object detection |
-
2018
- 2018-05-24 JP JP2018099724A patent/JP7071215B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133078A (ja) * | 2014-01-15 | 2015-07-23 | 株式会社リコー | 制御用対象物認識装置、移動体機器制御システム及び制御用対象物認識用プログラム |
US20170124415A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Subcategory-aware convolutional neural networks for object detection |
Non-Patent Citations (3)
Title |
---|
CANER HAZIRBAS ET AL.: ""FuseNet: Incorporating Depth into Semantic Segmentation via Fusion-based CNN Architecture"", ASIAN CONFERENCE ON COMPUTER VISION (ACCV), JPN7022000365, 30 November 2016 (2016-11-30), DE, pages 1 - 15, ISSN: 0004747680 * |
KAIMING HE ET AL.: ""Mask R-CNN"", 2017 IEEE INTERNATIONAL CONFERENCE ONCOMPUTER VISION (ICCV), JPN6022003264, 11 October 2017 (2017-10-11), US, pages 2980 - 2988, XP033283165, ISSN: 0004747681, DOI: 10.1109/ICCV.2017.322 * |
藤吉 弘亘、山下 隆義: ""深層学習による画像認識"", 日本ロボット学会誌, vol. 35, no. 3, JPN6022003260, 15 April 2017 (2017-04-15), JP, pages 8 - 13, ISSN: 0004747679 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023242891A1 (ja) * | 2022-06-13 | 2023-12-21 | 日本電気株式会社 | オブジェクト検出装置、学習装置、オブジェクト検出方法、学習方法、オブジェクト検出プログラム及び学習プログラム |
WO2023243595A1 (ja) * | 2022-06-13 | 2023-12-21 | 日本電気株式会社 | オブジェクト検出装置、学習装置、オブジェクト検出方法、学習方法、オブジェクト検出プログラム及び学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7071215B2 (ja) | 2022-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hou et al. | Learning lightweight lane detection cnns by self attention distillation | |
US10891715B2 (en) | Deep neural network for image enhancement | |
US11113546B2 (en) | Lane line processing method and device | |
US11755889B2 (en) | Method, system and apparatus for pattern recognition | |
US11100341B2 (en) | Lane line tracking method and device | |
CN111291650B (zh) | 自动泊车辅助的方法及装置 | |
CN110765890B (zh) | 基于胶囊网络深度学习架构的车道及车道标识检测方法 | |
EP3537348A1 (en) | Heterogeneous convolutional neural network for multi-problem solving | |
CN110799996A (zh) | 在不同的深度学习架构之间的知识转移 | |
KR102655999B1 (ko) | 스테레오 카메라를 이용한 인스턴스 객체별 거리값 검출 장치 및 방법 | |
CN110705412A (zh) | 一种基于运动历史图像的视频目标检测方法 | |
JP2015203992A (ja) | レーンマーク認識装置 | |
WO2023207778A1 (zh) | 数据修复方法、装置、计算机及可读存储介质 | |
Tran et al. | Enhancement of robustness in object detection module for advanced driver assistance systems | |
CN113723170A (zh) | 危险检测整合架构系统和方法 | |
JP7104611B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20190318456A1 (en) | Images for perception modules of autonomous vehicles | |
JP2019204338A (ja) | 認識装置及び認識方法 | |
CN111095295B (zh) | 物体检测方法和装置 | |
EP3561726A1 (en) | A device and a method for processing data sequences using a convolutional neural network | |
JP6683245B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム | |
JP6992099B2 (ja) | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 | |
US20230267572A1 (en) | View extrapolation method using epipolar plane image | |
KR101592087B1 (ko) | 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체 | |
US20220350995A1 (en) | Data driven dynamically reconfigured disparity map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220506 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7071215 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |