JP7481810B2 - 車両の三次元画像再構成方法 - Google Patents
車両の三次元画像再構成方法 Download PDFInfo
- Publication number
- JP7481810B2 JP7481810B2 JP2019131614A JP2019131614A JP7481810B2 JP 7481810 B2 JP7481810 B2 JP 7481810B2 JP 2019131614 A JP2019131614 A JP 2019131614A JP 2019131614 A JP2019131614 A JP 2019131614A JP 7481810 B2 JP7481810 B2 JP 7481810B2
- Authority
- JP
- Japan
- Prior art keywords
- rectangle
- vehicle
- area
- determining
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000001514 detection method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
-カメラを用いて、少なくとも1つの車両の画像を撮影するステップと、
-第1矩形を得るために、画像上の車両全体の第1矩形エッジを認識するステップと、
-第2矩形を得るために、画像上の、車両のサイド、例えば、カメラの視野からみて車両の前方サイドもしくは後方サイドまたは側方領域、の第2矩形エッジを認識するステップと、
-第1矩形と第2矩形が、同一車両に関するエッジであるかどうかを決定するステップと、
-第1矩形と第2矩形が、同一車両に関するエッジである場合、両方の矩形から車両のサイド方向を割り当てることができるどうかを決定するステップと、
-サイド方向を割り当てることができる場合、サイド方向を決定するステップと、
-第1矩形、第2矩形およびサイド方向から車両の三次元再構成を実施するステップと、を備える方法が提供される。
-アノテーションコストが必要最小限であり、
-3Dビュー再構成用の2つのボックスの数が最小限であり、
-画像内に属するバウンディングボックスを結合するために、いわゆる「IoA」指標および「IoU」指標が導入され、
-車両方向の評価が3D再構成に基づいて可能になるからである。
この方法は、サイドボックスの検出により拡張可能である:
サイドボックスの検出は、例えば、サイドビューが前方/後方よりも画像内において可視良好である場合、演算代替として前方/後方の代わりに用いることができ、または演算精度を向上させるための追加評価として用いることができる。
最初のステップ101において、画像101内の全体ボックスと前方ボックスまたは後方ボックス(後方_/前方_ボックス)を検出する2つの検出器がトレーニングされる。このために、車両により占められる画像102内の領域全体をバウンディングボックスを用いて縁取り(全体_ボックス106)、そしてまた車両の前方または/および後方の可視領域をバウンディングボックスを用いて縁取る(画像103内の後方_前方_ボックス107)、トレーニングデータのアノテーションが必要とされる。
IoA=(領域_前方_後方_ボックス202かつ領域_全体_ボックス203)201/領域_後方_前方_ボックス204。
IoU=(領域_後方_前方_ボックス302かつ領域_全体_ボックス303)301/(領域_後方_前方_ボックス302または領域_全体_ボックス303)304。
(領域_後方_前方_ボックス302および領域_全体_ボックス303)304
-画像103内の前方-後方-ボックス-検出器107
-画像102内の全体-ボックス-検出器106
-領域_後方_前方_ボックスかつ領域_全体_ボックス201、301
-画像104内の再構成3Dボックス108
Wcar…車両幅[m]
Wr…車両の前方サイドの可視幅[m]
Wtot…車両の可視幅および長さ[m]
Lcar…車両長さ[m]
Hcar…車両高さ[m]
L1…前方矩形と後方矩形の距離
L2…回転に基づく変位を含む、前方矩形と後方矩形の距離
H(0)、H(L1)、H(L2)はz=0、z=L1、z=L2のときの車両高さを表す。
Wcar=2m
Lcar=5m
Hcar=1.8m
Hcar=H(0)=H(L1)=H(L2)
sin(β)=Wr/Wcar→βまたは
Wtot-Wr=Lcar cos(β)
の関係から決定することができる。これにより、L1およびL2が次により算出される
L1=Lcar sin(β)
L2=L1+Wcar cos(β)
D/H(0)=lfoc/hr(0)からDが決定する。
hr(l1)はD+L1/H(L1)=lfoc/hr(l1)から得られる。
hr(l2)はD+L1/H(L2)=lfoc/hr(l2)から得られる。
なお、本発明は、以下の態様も包含し得る:
1.車両(600)の三次元画像再構成方法において、
-カメラ(501)を用いて、少なくとも1つの車両の画像を撮影するステップ(401)と、
-第1矩形を得る(203)ために、前記画像上の前記車両全体の第1矩形エッジを認識するステップ(402)と、
-第2矩形を得る(202)ために、前記画像上の、車両(600)のサイドの第2矩形エッジを認識するステップ(403)と、
-前記第1矩形と前記第2矩形が、前記同一車両に関するエッジであるかどうかを決定するステップ(404)と、
-前記第1矩形と前記第2矩形が、前記同一車両に関するエッジである場合、両方の前記矩形から前記車両(600)のサイド方向を割り当てることができるかどうかを決定するステップ(405)と、
-サイド方向を割り当てることができる場合、前記サイド方向を決定するステップ(406)と、
-前記第1矩形、前記第2矩形および前記サイド方向から前記車両の三次元再構成を実施するステップ(407)と、を備える方法。
2.前記第1矩形(203)と前記第2矩形(202)が、前記同一車両(600)に関するエッジであるかどうかを決定することは、前記第1矩形(203)および前記第2矩形(202)の共通領域(201)の、前記第2矩形の領域(204)に対する比率を示す第1値であって、前記第1値が第1閾値を超える場合、前記第1矩形と前記第2矩形が前記同一車両に関するエッジとして決定される、第1値を算出することを含む、上記1.に記載の方法。
3.両方の前記矩形(202、203)から前記車両のサイドを割り当てることができるかどうかを決定することは、前記第1矩形および前記第2矩形の共通領域(301)の、前記第1矩形(302)および前記第2矩形(302)の合計(304)に対する比率を示す第2値であって、前記第2値が第2閾値を下回る場合にサイド方向が決定可能とみなされる、第2値を算出することを含む、上記1.または2.に記載の方法。
4.前記車両(600)の三次元再構成を実施することは、前記カメラ(501)の視野からみて後方領域または前方領域を、前記前方領域または前記後方領域を投影することにより決定することであって、前記投影の調整は前記サイド方向を考慮して行われる、決定を含み、前記前方領域または前記後方領域の角を前記後方領域または前記前方領域の角と結合することによりサイド領域を決定することを含む、上記1.~3.のいずれか1つに記載の方法。
5.前記後方領域または前記前方領域を決定することは、前記前方矩形または前記後方矩形の下方角の隣接する直線の前記前方矩形または前記後方矩形の下方エッジと、前記後方矩形または前記前方矩形の対応する角との間の角度を決定することを含む、上記1.~4.のいずれか1つに記載の方法。
6.前記後方領域または前記前方領域を決定することは、前記後方矩形または前記前方矩形の高さを算出することであって、前記高さは、一方では、前記カメラ(501)の焦点距離の、前記第1矩形または前記第2矩形の側方矩形エッジの長さに対する比率と、他方では、前記カメラ(501)の前記車両(600)との距離と前記車両(600)の評価された実際の前方高さまたは評価された実際の後方高さとの比率が、同じであることに基づいて算出される、算出することを含む、上記1.~5.のいずれか1つに記載の方法。
7.車両(600)の三次元画像再構成システム(500)において、
-少なくとも1つの車両に関する画像を撮影するカメラ(501)と、
-上記1.~6.のいずれか1つに記載の方法を実施する演算ユニット(502)と、を備えるシステム(500)。
8.上記7.に記載のシステム(500)を備える車両(600)。
Claims (7)
- 車両(600)の三次元画像再構成方法において、
-カメラ(501)を用いて、少なくとも1つの車両の画像を撮影するステップ(401)と、
-第1矩形を得る(203)ために、前記画像上の前記車両全体の第1矩形エッジを認識するステップ(402)と、
-第2矩形を得る(202)ために、前記画像上の、車両(600)のサイドの第2矩形エッジを認識するステップ(403)と、
-前記第1矩形と前記第2矩形が、前記車両に関するエッジであるかどうかを決定するステップ(404)と、
-前記第1矩形と前記第2矩形が、前記車両に関するエッジである場合、両方の前記矩形から前記車両(600)のサイド方向を割り当てることができるかどうかを決定するステップ(405)と、
-サイド方向を割り当てることができる場合、前記サイド方向を決定するステップ(406)と、
-前記カメラ(501)の視野からみて後方領域または前方領域を、前記前方領域または前記後方領域を投影することにより決定し、前記投影の調整は前記サイド方向を考慮して行われ、前記前方領域または前記後方領域の角を前記後方領域または前記前方領域の角と結合することによりサイド領域を決定することで前記車両の三次元再構成を実施するステップ(407)と、を備える方法。 - 前記第1矩形(203)と前記第2矩形(202)が、前記車両(600)に関するエッジであるかどうかを決定することは、前記第1矩形(203)および前記第2矩形(202)の共通領域(201)の、前記第2矩形の領域(204)に対する比率を示す第1値であって、前記第1値が第1閾値を超える場合、前記第1矩形と前記第2矩形が前記車両に関するエッジとして決定される、第1値を算出することを含む、請求項1に記載の方法。
- 両方の前記矩形(202、203)から前記車両のサイドを割り当てることができるかどうかを決定することは、前記第1矩形および前記第2矩形の共通領域(301)の、前記第1矩形(302)および前記第2矩形(302)の合計(304)に対する比率を示す第2値であって、前記第2値が第2閾値を下回る場合にサイド方向が決定可能とみなされる、第2値を算出することを含む、請求項1または2に記載の方法。
- 前記後方領域または前記前方領域を決定することは、前記前方領域または前記後方領域の下方角の隣接する直線の前記前方領域または前記後方領域の下方エッジと、前記後方領域または前記前方領域の対応する角との間の角度を決定することを含む、請求項1~3のいずれか1項に記載の方法。
- 前記後方領域または前記前方領域を決定することは、前記後方領域または前記前方領域の高さを算出することを含み、前記高さは、一方では、前記カメラ(501)の焦点距離の、前記第1矩形または前記第2矩形の側方矩形エッジの長さに対する比率と、他方では、前記カメラ(501)の前記車両(600)との距離と前記車両(600)の評価された実際の前方高さまたは評価された実際の後方高さとの比率が、同じであることに基づいて算出される、請求項1~4のいずれか1項に記載の方法。
- 車両(600)の三次元画像再構成システム(500)において、
-少なくとも1つの車両に関する画像を撮影するカメラ(501)と、
-請求項1~5のいずれか1項に記載の方法を実施する演算ユニット(502)と、を備えるシステム(500)。 - 請求項6に記載のシステム(500)を備える車両(600)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018212049.8A DE102018212049A1 (de) | 2018-07-19 | 2018-07-19 | Verfahren zur dreidimensionalen bildlichen Rekonstruktion eines Fahrzeugs |
DE102018212049.8 | 2018-07-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020013573A JP2020013573A (ja) | 2020-01-23 |
JP7481810B2 true JP7481810B2 (ja) | 2024-05-13 |
Family
ID=69148326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019131614A Active JP7481810B2 (ja) | 2018-07-19 | 2019-07-17 | 車両の三次元画像再構成方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11132530B2 (ja) |
JP (1) | JP7481810B2 (ja) |
DE (1) | DE102018212049A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11361500B2 (en) * | 2018-12-21 | 2022-06-14 | The Regents Of The University Of Michigan | Reconstructing 3D video using particle filtering to aggregate crowd responses |
DE112021001882T5 (de) * | 2020-03-26 | 2023-01-12 | Sony Semiconductor Solutions Corporation | Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm |
KR102409715B1 (ko) * | 2020-05-27 | 2022-06-15 | 한양대학교 산학협력단 | 도면 데이터 생성 방법 및 도면 데이터를 이용하는 디자인 협업 지원 장치 |
KR102419428B1 (ko) * | 2020-06-29 | 2022-07-12 | 주식회사 직트럭 | 중고화물차 매매를 위한 영상 기반의 차량정보 입력 장치 및 방법 |
JP7549509B2 (ja) | 2020-10-21 | 2024-09-11 | 株式会社Subaru | 対象物推定装置、その対象物推定方法、および、車両 |
CN112819953B (zh) * | 2021-02-24 | 2024-01-19 | 北京创想智控科技有限公司 | 三维重建方法、网络模型训练方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140152827A1 (en) | 2011-07-26 | 2014-06-05 | Aisin Seik Kabushiki Kaisha | Vehicle periphery monitoring system |
CN107067755A (zh) | 2017-04-28 | 2017-08-18 | 深圳市唯特视科技有限公司 | 一种基于计算机视觉自动校准交通监控相机的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7409092B2 (en) * | 2002-06-20 | 2008-08-05 | Hrl Laboratories, Llc | Method and apparatus for the surveillance of objects in images |
US9953437B1 (en) * | 2017-10-18 | 2018-04-24 | StradVision, Inc. | Method and device for constructing a table including information on a pooling type and testing method and testing device using the same |
US10990855B2 (en) * | 2019-06-13 | 2021-04-27 | Baidu Usa Llc | Detecting adversarial samples by a vision based perception system |
-
2018
- 2018-07-19 DE DE102018212049.8A patent/DE102018212049A1/de active Pending
-
2019
- 2019-07-11 US US16/508,744 patent/US11132530B2/en active Active
- 2019-07-17 JP JP2019131614A patent/JP7481810B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140152827A1 (en) | 2011-07-26 | 2014-06-05 | Aisin Seik Kabushiki Kaisha | Vehicle periphery monitoring system |
CN107067755A (zh) | 2017-04-28 | 2017-08-18 | 深圳市唯特视科技有限公司 | 一种基于计算机视觉自动校准交通监控相机的方法 |
Non-Patent Citations (1)
Title |
---|
H.Schneiderman et al,A Statistical Method for 3D Object Detection Applied to Faces and Cars,Proceedings IEEE Conference on Computer Vision and Pattern Recognition. CVPR 2000(Cat. No.PR00662),米国,IEEE,2020年06月15日,DOI: 10.1109/CVPR.2000.855895 |
Also Published As
Publication number | Publication date |
---|---|
US20200026905A1 (en) | 2020-01-23 |
US11132530B2 (en) | 2021-09-28 |
DE102018212049A1 (de) | 2020-01-23 |
JP2020013573A (ja) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7481810B2 (ja) | 車両の三次元画像再構成方法 | |
US10859684B1 (en) | Method and system for camera-lidar calibration | |
EP1394761B1 (en) | Obstacle detection device and method therefor | |
US10354151B2 (en) | Method of detecting obstacle around vehicle | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
KR102267562B1 (ko) | 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법 | |
EP2757524B1 (en) | Depth sensing method and system for autonomous vehicles | |
JP4341564B2 (ja) | 対象物判定装置 | |
CN110555407B (zh) | 路面车辆空间识别方法及电子设备 | |
EP3678096A1 (en) | Method for calculating a tow hitch position | |
JP7273956B2 (ja) | 車両の周囲でのオブジェクトに関する情報を算出する方法及び処理ユニット | |
JP2006053756A (ja) | 物体検出装置 | |
CN107491065B (zh) | 利用障碍物的地面边界信息检测物体的侧面的方法和装置 | |
KR20210090384A (ko) | 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치 | |
US10984263B2 (en) | Detection and validation of objects from sequential images of a camera by using homographies | |
US10984264B2 (en) | Detection and validation of objects from sequential images of a camera | |
US20240029448A1 (en) | Parking space detection method, apparatus, device and storage medium | |
JPWO2018179281A1 (ja) | 物体検出装置及び車両 | |
WO2019065970A1 (ja) | 車両用外界認識装置 | |
JP5501084B2 (ja) | 平面領域検出装置及びステレオカメラシステム | |
Kellner et al. | Multi-cue, model-based detection and mapping of road curb features using stereo vision | |
US11904843B2 (en) | Autonomous parking systems and methods for vehicles | |
JP7344744B2 (ja) | 路側端検出方法、及び、路側端検出装置 | |
US11815626B2 (en) | Method for detecting intensity peaks of a specularly reflected light beam | |
WO2006123438A1 (ja) | ステレオ画像を用いた道路平面領域並びに障害物検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7481810 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |