JP2020502685A - パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法 - Google Patents
パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法 Download PDFInfo
- Publication number
- JP2020502685A JP2020502685A JP2019533234A JP2019533234A JP2020502685A JP 2020502685 A JP2020502685 A JP 2020502685A JP 2019533234 A JP2019533234 A JP 2019533234A JP 2019533234 A JP2019533234 A JP 2019533234A JP 2020502685 A JP2020502685 A JP 2020502685A
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- cluster
- data
- sensor
- optical sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、パッシブ光学センサの画像データを増大させるための車両のための電子デバイス、システムおよび方法に関する。
近年の車両は、衝突警告または回避およびその他のアクティブな安全用途を可能とするために使用される物体検出アルゴリズムを含む。そのようなインテリジェント車両は、すべての種類の天候においてその周囲のシーンを認知し、認識しなければならない。この目的は、それがあらゆる環境条件に煩わされることなくあらゆる障害を検出することを要する。障害を検出するために、環境は、センサを通して認知される。シーンの高い理解は、障害を検出するためのカメラ空間情報を要する。しかし、雨、霧または雪といった難しい天候は、認知される画像を劣化させ得る。
X. Wang, M. Yang, S. Zhu, and Y. Lin. Regionlets, generic object detection. International Conference on Computer Vision (ICCV), 2013.
高いレベルにおいて、これらの方法は、センサデータを環境内の物体に個々に対応するグループへとクラスタ化する。これらの1センサモダリティに基づく方法は一般に、最先端の性能を有するが、それらが利用する個々のセンサによって提供されるデータの有用性を制限する悪い環境条件が存在する。たとえば浮遊粉塵は、深度測定におけるノイズをかなり増加し得、一方、照明の変動は、画像のいくつかの部分を過度に明るくしまたは過度に暗くし、したがって使用できないようにし得る。
P. Pinies, L. M. Paz, and P. Newman. Too Much TV is Bad: Dense Reconstruction from Sparse Laser with Non-convex Regularisation; IEEE International Conference on Robotics and Automation (ICRA), 2015.
しかし、これらのアプローチは、すべてのセンサモダリティが同様に密集していることを要する。
現在、センサデータ融合が任意のセンサのシーンカバレッジとは独立であり、アクティブセンサデータを用いてパッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法を提供することが、依然として望ましい。
−パッシブ光学センサの第1の画像データを受信するように構成され、第1の画像データは、画像平面内の複数のピクセルを備え、電子デバイスはさらに、
−アクティブセンサの第2のデータを受信するように構成され、パッシブ光学センサおよびアクティブセンサは、同じシーンを検知し(特に車両外側)、アクティブセンサは、シーン上に分布された複数のスキャン領域を備え、第2のデータは、返されたスキャン領域内の測定値を備え、電子デバイスはさらに、
−返されたスキャン領域の分布に基づき少なくとも1つのクラスタを識別し、
−画像平面上へとクラスタを投影し、
−画像平面内に投影されたクラスタと一致するピクセルを識別し、
−上記識別されたピクセルを一致するクラスタの第2のデータと関連付けるように構成される。
各関連付けられたピクセルは、関連付けられたクラスタの画像情報および状態情報を備え得、一方クラスタと関連付けられていない各ピクセルは、画像情報のみを備え得る。
−第1の画像データをスーパーピクセルの組へと分解するよう構成され得、スーパーピクセルは、複数の隣接するピクセルを備え、電子デバイスはさらに、
−隣接するスーパーピクセルを一致するクラスタと関連付けることによって画像平面内の対象の物体を規定するよう構成され得る。
カメラセンサは、歩行者、車、信号機、交通標識等といった物体を検出し得る。デジタルカメラは、比較的密集したデータ(ピクセル空間)、色および物体の外観を提供し得る。この情報は、車両の周囲のシーンを理解するのに望ましい。しかし、このセンサは、光にしばしば依存するので、晴天(過露出ピクセル)、夜(露出不足ピクセル)、雨(雨滴)の影響を受ける。
−上述のような電子デバイスと、
−パッシブ光学センサと、
−アクティブセンサとを備え、
パッシブ光学センサおよびアクティブセンサは、同じシーン(特に車両外側)を検知するために配置される。
−パッシブ光学センサの第1の画像データを受信するステップを備え、第1の画像データは画像平面内の複数のピクセルを備え、方法はさらに、
−アクティブセンサの第2のデータを受信するステップを備え、パッシブ光学センサおよびアクティブセンサは、同じシーンを検知し(特に車両外側)、アクティブセンサは、シーン上に分布された複数のスキャン領域を備え、第2のデータは、返されたスキャン領域内の測定値を備え、方法はさらに、
−返されたスキャン領域の分布に基づき少なくとも1つのクラスタを識別するステップと、
−クラスタを画像平面上へと投影するステップと、
−画像平面内に投影されたクラスタと一致するピクセルを識別するステップと、
−上記識別されたピクセルを一致するクラスタの第2のデータと関連付けるステップとを備える。
各関連付けられたピクセルは、関連付けられたクラスタの画像情報および状態情報を備え得、一方クラスタと関連付けられていない各ピクセルは、画像情報のみを備え得る。
ここで、本開示の例示的な実施形態を詳細に参照するが、それらの例は、添付の図面に示されている。同じまたは類似の部分を指すために、可能な限り図面全体を通して同じ参照番号が使用される。
Claims (17)
- パッシブ光学センサの画像データを増大させるための電子デバイスであって、
前記電子デバイスは、
パッシブ光学センサの第1の画像データを受信するように構成され、前記第1の画像データは、画像平面内の複数のピクセルを備え、前記電子デバイスはさらに、
アクティブセンサの第2のデータを受信するように構成され、前記パッシブ光学センサおよび前記アクティブセンサは、同じシーンを検知し、前記アクティブセンサは、前記シーン上に分布された複数のスキャン領域を備え、前記第2のデータは、返されたスキャン領域内の測定値を備え、前記電子デバイスはさらに、
返されたスキャン領域の前記分布に基づき少なくとも1つのクラスタを識別し、
前記画像平面上へと前記クラスタを投影し、
前記画像平面内に前記投影されたクラスタと一致するピクセルを識別し、
前記識別されたピクセルを前記一致するクラスタの第2のデータと関連付けるように構成される、電子デバイス。 - 前記電子デバイスはさらに、
前記第2のデータの座標系を、それが前記第1の画像データの座標系と一致するように変換することによって、前記第2のデータを前記画像平面上へと投影するように構成される、請求項1に記載の電子デバイス。 - 前記電子デバイスは、
各クラスタに対して状態情報の組を前記クラスタ内の返されたスキャン領域における測定値に基づき決定するように構成され、前記状態情報の組は、前記クラスタの距離、大きさ、および/または速度のうちの少なくとも1つを含む、上述の請求項のいずれか1項に記載の電子デバイス。 - クラスタは、占有グリッドマッピングアルゴリズムによって決定される、上述の請求項のいずれか1項に記載の電子デバイス。
- 各関連付けられたピクセルは、前記関連付けられたクラスタの画像情報および状態情報を備え、一方クラスタと関連付けられていない各ピクセルは、画像情報のみを備える、上述の請求項のいずれか1項に記載の電子デバイス。
- 前記電子デバイスはさらに、
前記第1の画像データをスーパーピクセルの組へと分解するように構成され、スーパーピクセルは、複数の隣接するピクセルを備え、
隣接するスーパーピクセルを一致するクラスタと関連付けることによって前記画像平面内の対象の物体を規定するように構成される、上述の請求項のいずれか1項に記載の電子デバイス。 - スーパーピクセルは、同様の色分布を有する隣接するピクセルを識別することによっておよび/または前記第1の画像データ内のエッジを識別することによって決定される、上述の請求項のいずれか1項に記載の電子デバイス。
- 前記電子デバイスはさらに、
スーパーピクセルを、特に前記スーパーピクセルの各ピクセルを、前記一致するクラスタの第2のデータと、特に前記一致するクラスタの前記状態情報の組と関連付けるように構成される、上述の請求項のいずれか1項に記載の電子デバイス。 - 前記電子デバイスはさらに、
前記対象の物体の物体外観モデルを作成するように構成され、前記外観モデルは、前記対象の物体の前記色分布に対する推定を表す、上述の請求項のいずれか1項に記載の電子デバイス。 - 前記電子デバイスはさらに、
前記対象の物体を取り囲むスーパーピクセルに基づき背景外観モデルを作成するように構成され、前記背景外観モデルは、前記シーン内の背景の前記色分布に対する推定を表す、上述の請求項のいずれか1項に記載の電子デバイス。 - 前記電子デバイスはさらに、
前記対象の物体の前記物体外観モデルおよび/または前記背景外観モデルに基づき、特にエネルギ最小化法を使用することによって、前記対象の物体の境界を再規定するように構成される、上述の請求項のいずれか1項に記載の電子デバイス。 - 前記電子デバイスはさらに、
前記再規定された対象の物体の各ピクセルを前記対象の物体の第2のデータと、特に前記対象の物体の前記状態情報の組と関連付けるように構成される、請求項11に記載の電子デバイス。 - 前記パッシブ光学センサは、デジタルカメラである、上述の請求項のいずれか1項に記載の電子デバイス。
- 前記アクティブセンサは、レーダまたはアクティブ光学センサ、特にレーザセンサおよび/またはライダセンサである、上述の請求項に記載の電子デバイス。
- パッシブ光学センサの画像データを増大させるためのシステムであって、
上述の請求項のいずれか1項に記載の電子デバイスと、
パッシブ光学センサと、
アクティブセンサとを備え、
前記パッシブ光学センサおよび前記アクティブセンサは、同じシーンを検知するために配置される、システム。 - 車両であって、
請求項15に記載のシステムを備える、車両。 - パッシブ光学センサの画像データを増大させる方法であって、
前記方法は、
パッシブ光学センサの第1の画像データ受信するステップを備え、前記第1の画像データは、画像平面内の複数のピクセルを備え、前記方法はさらに、
アクティブセンサの第2のデータを受信するステップを備え、前記パッシブ光学センサおよび前記アクティブセンサは、同じシーンを検知し、前記アクティブセンサは、前記シーン上に分布された複数のスキャン領域を備え、前記第2のデータは、返されたスキャン領域内の測定値を備え、前記方法はさらに、
返されたスキャン領域の前記分布に基づき少なくとも1つのクラスタを識別するステップと、
前記クラスタを前記画像平面上へと投影するステップと、
前記画像平面内に前記投影されたクラスタと一致するピクセルを識別するステップと、
前記識別されたピクセルを前記一致するクラスタの第2のデータと関連付けるステップとを備える、方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2016/001934 WO2018115917A1 (en) | 2016-12-20 | 2016-12-20 | Electronic device, system and method for augmenting image data of a passive optical sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020502685A true JP2020502685A (ja) | 2020-01-23 |
Family
ID=57960553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019533234A Pending JP2020502685A (ja) | 2016-12-20 | 2016-12-20 | パッシブ光学センサの画像データを増大させるための電子デバイス、システムおよび方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11774554B2 (ja) |
JP (1) | JP2020502685A (ja) |
WO (1) | WO2018115917A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220084849A (ko) * | 2020-12-14 | 2022-06-21 | 이기현 | 전자기파 데이터의 ai 기계학습을 위한 어노테이션 방법 |
WO2022208664A1 (ja) * | 2021-03-30 | 2022-10-06 | 日本電気株式会社 | 画像処理装置、画像処理方法、プログラム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11067693B2 (en) * | 2018-07-12 | 2021-07-20 | Toyota Research Institute, Inc. | System and method for calibrating a LIDAR and a camera together using semantic segmentation |
DE102018131495B4 (de) | 2018-12-10 | 2023-08-10 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Bereitstellen eines 3-dimensionalen Datenfeldes eines Abstandsensors aus einer Perspektive eines optischen Sensors und Fahrunterstützungssystem zur Durchführung des Verfahrens |
DE102019205469A1 (de) * | 2019-04-16 | 2020-10-22 | Zf Friedrichshafen Ag | Objekterkennung im Umfeld eines Fahrzeugs unter Verwendung einer primären Sensoreinrichtung und einer sekundären Sensoreinrichtung |
CN110909671B (zh) * | 2019-11-21 | 2020-09-29 | 大连理工大学 | 一种融合概率和高度信息的栅格地图障碍物检测方法 |
CN113033586B (zh) * | 2019-12-24 | 2024-04-16 | 大富科技(安徽)股份有限公司 | 目标识别方法及设备 |
EP4053593A1 (de) * | 2021-03-03 | 2022-09-07 | Elektrobit Automotive GmbH | Verarbeitung von sensordaten in einem fortbewegungsmittel |
US20230109909A1 (en) * | 2021-10-07 | 2023-04-13 | Motional Ad Llc | Object detection using radar and lidar fusion |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018371A (ja) * | 2014-07-08 | 2016-02-01 | 株式会社デンソー | 車載システム、情報処理装置、及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007187618A (ja) | 2006-01-16 | 2007-07-26 | Omron Corp | 物体識別装置 |
US9128185B2 (en) | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Methods and apparatus of fusing radar/camera object data and LiDAR scan points |
US9429650B2 (en) | 2012-08-01 | 2016-08-30 | Gm Global Technology Operations | Fusion of obstacle detection using radar and camera |
US9177481B2 (en) * | 2013-12-13 | 2015-11-03 | Sikorsky Aircraft Corporation | Semantics based safe landing area detection for an unmanned vehicle |
CN113917439A (zh) | 2014-08-15 | 2022-01-11 | 艾耶股份有限公司 | 用于光雷达发射的方法和系统 |
GB2532194A (en) * | 2014-11-04 | 2016-05-18 | Nokia Technologies Oy | A method and an apparatus for automatic segmentation of an object |
-
2016
- 2016-12-20 WO PCT/IB2016/001934 patent/WO2018115917A1/en active Application Filing
- 2016-12-20 JP JP2019533234A patent/JP2020502685A/ja active Pending
- 2016-12-20 US US16/471,977 patent/US11774554B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016018371A (ja) * | 2014-07-08 | 2016-02-01 | 株式会社デンソー | 車載システム、情報処理装置、及びプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220084849A (ko) * | 2020-12-14 | 2022-06-21 | 이기현 | 전자기파 데이터의 ai 기계학습을 위한 어노테이션 방법 |
KR102572339B1 (ko) * | 2020-12-14 | 2023-08-28 | 이기현 | 전자기파 데이터의 ai 기계학습을 위한 어노테이션 방법 |
WO2022208664A1 (ja) * | 2021-03-30 | 2022-10-06 | 日本電気株式会社 | 画像処理装置、画像処理方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018115917A1 (en) | 2018-06-28 |
US11774554B2 (en) | 2023-10-03 |
US20190353791A1 (en) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11774554B2 (en) | Electronic device, system and method for augmenting image data of a passive optical sensor | |
CN112396650B (zh) | 一种基于图像和激光雷达融合的目标测距系统及方法 | |
US11113959B2 (en) | Crowdsourced detection, identification and sharing of hazardous road objects in HD maps | |
CN108445480B (zh) | 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法 | |
CN111563415B (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN112581612B (zh) | 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及系统 | |
CN111027401A (zh) | 一种摄像头和激光雷达融合的端到端目标检测方法 | |
CN113111887A (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN114022830A (zh) | 一种目标确定方法以及目标确定装置 | |
Handmann et al. | Computer vision for driver assistance systems | |
CN113688738B (zh) | 一种基于激光雷达点云数据的目标识别系统及方法 | |
EP4047565A1 (en) | Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds | |
Ouyang et al. | A cgans-based scene reconstruction model using lidar point cloud | |
KR101921071B1 (ko) | 다중 프레임에서의 센서 융합을 통한 3차원 객체의 포즈 추정 방법 및 이를 구비한 장치 | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
Tsoukalas et al. | Deep learning assisted visual tracking of evader-UAV | |
Esfahani et al. | DeepDSAIR: Deep 6-DOF camera relocalization using deblurred semantic-aware image representation for large-scale outdoor environments | |
Zhang et al. | Multi-FEAT: Multi-feature edge alignment for targetless camera-LiDAR calibration | |
CN117808689A (zh) | 基于毫米波雷达与摄像头融合的深度补全方法 | |
CN112733678A (zh) | 测距方法、装置、计算机设备和存储介质 | |
CN116664851A (zh) | 一种基于人工智能的自动驾驶数据提取方法 | |
Cigla et al. | Image-based visual perception and representation for collision avoidance | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
CN115965847A (zh) | 交叉视角下多模态特征融合的三维目标检测方法和系统 | |
CN113052118A (zh) | 基于高速快球摄像机实现场景变换视频分析检测的方法、系统、装置、处理器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190814 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190814 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210622 |