JP2019509552A - コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 - Google Patents
コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 Download PDFInfo
- Publication number
- JP2019509552A JP2019509552A JP2018540453A JP2018540453A JP2019509552A JP 2019509552 A JP2019509552 A JP 2019509552A JP 2018540453 A JP2018540453 A JP 2018540453A JP 2018540453 A JP2018540453 A JP 2018540453A JP 2019509552 A JP2019509552 A JP 2019509552A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- detection window
- detection
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
一般に、本明細書で開示されたシステム及び方法は、特に、車両近傍において、部分的に遮られた物体(例えば、歩行者、オートバイ運転者、自転車運転者、及び/又は動物)を検出し、偽陽性検出結果を減少させるために、部分的に遮られた物体の検出が正確であるかどうかを検証するものである。以下で示されるものは、1つ以上の例示的な態様を説明するためのものであり、限定する目的ではないが、図面を参照すると、図1は、部分的に遮蔽された物体の検出のためのシステム及び方法を実施するための動作環境100の概略図である。環境100の構成要素、並びに本明細書で記載される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャの構成要素は、組み合わされたり、省略されたり、組織化されたりすることで、種々の実施例のために異なるアーキテクチャとして構成されてよい。さらに、動作環境100の構成要素は、例えば、先進運転者支援システム(Advanced Driver Assistance System)(ADAS)による部分的に遮られた歩行者の検出のための車両(図示せず)と共に実装されてもよいし、関連付けられてもよい。
図3を参照して、本開示の例示的な態様による、部分的に遮られた物体及び他の物体の検出を検証する方法について説明する。図3は、図1及び図2の構成要素を参照して説明される。さらに、これらの方法は、図1に示されるシステムや他のシステムや方法で実現されるアルゴリズムを参照して説明される。ブロック302において、該方法は、画像入力装置132(図1)から入力画像を受け取ることを含む。入力画像は、I: Λ ⊂ Z(Zは整数全体の集合を表す)→[0,255]として表現されるグレースケール画像であってよい。ここで、Λは格子である。入力画像は、例えば、画像入力装置132(図1)によって取り込まれた運転シーンの一部を含むことができる。さらに、入力画像は、1つ又は複数の部分的に遮られた物体を含むことができる。例えば、図2に示す入力画像202は、2つの歩行者(ボックス204、206参照)を含むことができ、各歩行者は、車両によって部分的に遮られている。
Claims (20)
- 第1の物体の検出を検証する方法であって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られており、該方法は、
画像入力装置を介して画像情報を受け取るステップと、
前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定するステップと、
前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定するステップと、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているか否かを判断するステップと、
前記第1検出ウィンドウまでの第1距離と前記第2検出ウィンドウまでの第2距離とを決定するステップと、
前記第1距離と前記第2距離とを比較するステップと、
前記第1距離が前記第2距離よりも大きい場合、前記第1の物体は前記第2の物体によって部分的に遮られていると確証するステップと、
を有する、
方法。 - 請求項1記載の方法において、
前記第1の物体は前記第2の物体によって部分的に遮られていると確証する前記ステップは、
深度センサから、前記深度センサと前記第2の物体との間の測定距離に対応する入力を受け取るステップと、
前記第1距離と前記測定距離とを比較するステップと、
前記第1距離が前記測定距離よりも大きいことを確証するステップと、
をさらに有する、
方法。 - 請求項1記載の方法において、
前記第1の物体はヒトである、
方法。 - 請求項1記載の方法において、
前記第1の物体は、ヒト、自転車、オートバイ、動物からなる群から選択される、
方法。 - 請求項1記載の方法において、
前記画像入力装置はカメラである、
方法。 - 請求項5記載の方法において、
前記カメラは前記車両に搭載される、
方法。 - 請求項1記載の方法において、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断する前記ステップは、
前記第1画像は部分的な画像であるかどうかを判定するステップを含む、
方法。 - 請求項7記載の方法において、
前記第1画像はヒトであり、
前記第1画像は部分的な画像であるかどうかを判定する前記ステップは、
前記第1画像の少なくとも一部に対して、ヒト認識を適用するステップを含む、
方法。 - 請求項2記載の方法において、
前記深度センサは、LIDAR装置、RADAR装置、ステレオカメラシステムからなる群から選択される、
方法。 - 第1の物体の検出を検証する方法であって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られ、該方法は、
画像入力装置を介して画像情報を受け取るステップと、
前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定するステップと、
前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定するステップと、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断するステップと、
前記第1検出ウィンドウまでの第1距離を決定するステップと、
深度センサから、前記深度センサと前記第2の物体との間の測定距離に対応する入力を受け取るステップと、
前記第1距離と前記測定距離とを比較するステップと、
前記第1距離が前記測定距離よりも大きい場合、前記第1の物体は前記第2の物体によって部分的に遮られていると確証するステップと、
有する、方法。 - 第1の物体の検出を検証するシステムであって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られ、該システムは、
画像情報を受け取る画像入力装置と、
前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定し、また前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定する物体検出器と、
コンピュータ通信可能に、前記画像入力装置及び前記物体検出器に動作可能に接続されたプロセッサと、
を備え、
前記プロセッサは、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断し、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっている場合、前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定し、
前記第1距離が前記第2距離よりも大きい場合、前記第1の物体は部分的に遮られていると確証する、
システム。 - 請求項11記載のシステムにおいて、
前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
前記第1検出ウィンドウのための位置情報と受け取った前記画像情報とを用いて、前記第1の物体までの第1距離を決定する、
システム。 - 請求項12記載のシステムにおいて、
前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
前記第2検出ウィンドウのための位置情報と受け取った前記画像情報とを用いて、前記第2の物体までの第2距離を決定する、
システム。 - 請求項12記載のシステムにおいて、
該システムはさらに深度センサを備え、
前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
前記深度センサと前記第2の物体との間の距離に対応する深度センサ入力を、前記第2距離として受け取る、
システム。 - 請求項11記載のシステムにおいて、
前記第1の物体はヒトである、
システム。 - 請求項11記載のシステムにおいて、
前記画像入力装置はカメラである、
システム。 - 請求項16記載のシステムにおいて、
前記カメラは前記車両に搭載される、
システム。 - 請求項11記載のシステムにおいて、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断する際、前記第1画像は部分的な画像であるかどうかを判定する、
システム。 - 請求項18記載のシステムにおいて、
前記第1画像はヒトであり、
前記第1画像は部分的な画像であるかどうかを判定する際、
前記第1画像の少なくとも一部に対して、ヒト認識を適用する、
システム。 - 請求項14記載のシステムにおいて、
前記深度センサは、LIDAR装置、RADAR装置、ステレオカメラシステムからなる群から選択される、
システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/015,033 US9805274B2 (en) | 2016-02-03 | 2016-02-03 | Partially occluded object detection using context and depth ordering |
US15/015,033 | 2016-02-03 | ||
PCT/US2017/016254 WO2017136578A1 (en) | 2016-02-03 | 2017-02-02 | Partially occluded object detection using context and depth ordering |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019509552A true JP2019509552A (ja) | 2019-04-04 |
JP6942712B2 JP6942712B2 (ja) | 2021-09-29 |
Family
ID=59386887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018540453A Active JP6942712B2 (ja) | 2016-02-03 | 2017-02-02 | コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9805274B2 (ja) |
JP (1) | JP6942712B2 (ja) |
CN (1) | CN108604405A (ja) |
DE (1) | DE112017000643T5 (ja) |
WO (1) | WO2017136578A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025642B (zh) * | 2016-01-27 | 2018-06-22 | 百度在线网络技术(北京)有限公司 | 基于点云数据的车辆轮廓检测方法和装置 |
JP6649178B2 (ja) | 2016-05-24 | 2020-02-19 | 株式会社東芝 | 情報処理装置、および、情報処理方法 |
JP6536521B2 (ja) * | 2016-09-22 | 2019-07-03 | 株式会社デンソー | 物体検知装置及び物体検知方法 |
US10248872B2 (en) | 2016-10-19 | 2019-04-02 | Texas Instruments Incorporated | Estimation of time to collision in a computer vision system |
KR20180060784A (ko) * | 2016-11-29 | 2018-06-07 | 삼성전자주식회사 | 비정상 객체 판단 방법 및 장치 |
US10331960B2 (en) * | 2017-05-10 | 2019-06-25 | Fotonation Limited | Methods for detecting, identifying and displaying object information with a multi-camera vision system |
US10509413B2 (en) * | 2017-09-07 | 2019-12-17 | GM Global Technology Operations LLC | Ground reference determination for autonomous vehicle operations |
US10788585B2 (en) | 2017-09-15 | 2020-09-29 | Toyota Research Institute, Inc. | System and method for object detection using a probabilistic observation model |
US10445597B2 (en) * | 2017-10-17 | 2019-10-15 | Toyota Research Institute, Inc. | Systems and methods for identification of objects using audio and sensor data |
JP6834020B2 (ja) * | 2017-11-13 | 2021-02-24 | 三菱電機株式会社 | 物体認識装置および物体認識方法 |
CN109978950B (zh) * | 2017-12-26 | 2023-05-09 | 中国船舶重工集团公司七五0试验场 | 一种应用于海上油田安防三维虚拟显示的视点控制方法 |
US10642269B2 (en) * | 2018-01-03 | 2020-05-05 | Denso International America, Inc. | Vehicle localization system |
EP3676754A4 (en) | 2018-03-12 | 2021-09-01 | Ratti, Jayant | ARTIFICIAL INTELLIGENCE AND ROAD MANAGEMENT SYSTEM ON DEMAND |
US10884424B2 (en) | 2018-09-07 | 2021-01-05 | GM Global Technology Operations LLC | Traffic light occlusion detection for autonomous vehicle |
US11448518B2 (en) | 2018-09-27 | 2022-09-20 | Phiar Technologies, Inc. | Augmented reality navigational overlay |
US10495476B1 (en) * | 2018-09-27 | 2019-12-03 | Phiar Technologies, Inc. | Augmented reality navigation systems and methods |
US10474930B1 (en) * | 2018-10-05 | 2019-11-12 | StradVision, Inc. | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
US11693423B2 (en) * | 2018-12-19 | 2023-07-04 | Waymo Llc | Model for excluding vehicle from sensor field of view |
RU2769921C2 (ru) | 2019-11-21 | 2022-04-08 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и системы для автоматизированного определения присутствия объектов |
EP4078088A2 (en) * | 2020-01-03 | 2022-10-26 | Mobileye Vision Technologies Ltd. | Vehicle navigation with pedestrians and determining vehicle free space |
US11481913B2 (en) * | 2020-03-11 | 2022-10-25 | Gm Cruise Holdings Llc | LiDAR point selection using image segmentation |
DE102020209983A1 (de) * | 2020-08-06 | 2022-02-10 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Erkennen eines Objekts aus Eingabedaten unter Verwendung von relationalen Attributen |
US11977165B2 (en) | 2020-08-10 | 2024-05-07 | Waymo Llc | Self-reflection filtering |
US11960009B2 (en) * | 2020-12-30 | 2024-04-16 | Zoox, Inc. | Object contour determination |
DE102021200923A1 (de) | 2021-02-02 | 2022-08-04 | Robert Bosch Gesellschaft mit beschränkter Haftung | Computerimplementiertes Verfahren und System zum Berechnen einer Abmessung einer Bounding Box und Trainingsverfahren |
CN113221739B (zh) * | 2021-05-12 | 2023-04-14 | 中国科学技术大学 | 基于单目视觉的车距测量方法 |
CN118056228A (zh) * | 2021-10-22 | 2024-05-17 | 深圳市速腾聚创科技有限公司 | 遮挡关系判断方法、装置、存储介质及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004069328A (ja) * | 2002-08-01 | 2004-03-04 | Nissan Motor Co Ltd | 前方環境認識装置及び前方環境認識方法 |
US20060239558A1 (en) * | 2005-02-08 | 2006-10-26 | Canesta, Inc. | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
JP2007257338A (ja) * | 2006-03-23 | 2007-10-04 | Toyota Central Res & Dev Lab Inc | 潜在危険度推定装置 |
WO2010140613A1 (ja) * | 2009-06-03 | 2010-12-09 | 学校法人中部大学 | 物体検出装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7242460B2 (en) | 2003-04-18 | 2007-07-10 | Sarnoff Corporation | Method and apparatus for automatic registration and visualization of occluded targets using ladar data |
US6956469B2 (en) * | 2003-06-13 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for pedestrian detection |
US20090041297A1 (en) | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
JP4789745B2 (ja) | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
US8086071B2 (en) | 2007-10-30 | 2011-12-27 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
JP4956452B2 (ja) * | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
CN100595792C (zh) * | 2008-04-01 | 2010-03-24 | 东南大学 | 基于视频技术的车辆检测与跟踪方法 |
US8446492B2 (en) * | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
EP2395452A1 (en) | 2010-06-11 | 2011-12-14 | Toyota Motor Europe NV/SA | Detection of objects in an image using self similarities |
US20130163879A1 (en) | 2010-08-30 | 2013-06-27 | Bk-Imaging Ltd. | Method and system for extracting three-dimensional information |
US8744123B2 (en) | 2011-08-29 | 2014-06-03 | International Business Machines Corporation | Modeling of temporarily static objects in surveillance video data |
US9111147B2 (en) | 2011-11-14 | 2015-08-18 | Massachusetts Institute Of Technology | Assisted video surveillance of persons-of-interest |
DE102013100569A1 (de) * | 2013-01-21 | 2014-07-24 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung |
US9904852B2 (en) | 2013-05-23 | 2018-02-27 | Sri International | Real-time object detection, tracking and occlusion reasoning |
CN104573612B (zh) * | 2013-10-16 | 2019-10-22 | 北京三星通信技术研究有限公司 | 估计深度图像中重叠的多个人体对象的姿态的设备和方法 |
CN104408689B (zh) | 2014-12-10 | 2017-10-24 | 武汉大学 | 基于全景影像的街景面片优化方法 |
CN205132567U (zh) | 2015-10-27 | 2016-04-06 | 浩通国际货运代理有限公司 | 一种带装卸漏斗的装卸机 |
CN205174534U (zh) | 2015-11-30 | 2016-04-20 | 河南福泉健康科技实业有限公司 | 一种温灸药熨保健型暖手宝 |
-
2016
- 2016-02-03 US US15/015,033 patent/US9805274B2/en active Active
-
2017
- 2017-02-02 JP JP2018540453A patent/JP6942712B2/ja active Active
- 2017-02-02 CN CN201780009981.8A patent/CN108604405A/zh active Pending
- 2017-02-02 WO PCT/US2017/016254 patent/WO2017136578A1/en active Application Filing
- 2017-02-02 DE DE112017000643.0T patent/DE112017000643T5/de active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004069328A (ja) * | 2002-08-01 | 2004-03-04 | Nissan Motor Co Ltd | 前方環境認識装置及び前方環境認識方法 |
US20060239558A1 (en) * | 2005-02-08 | 2006-10-26 | Canesta, Inc. | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
JP2007257338A (ja) * | 2006-03-23 | 2007-10-04 | Toyota Central Res & Dev Lab Inc | 潜在危険度推定装置 |
WO2010140613A1 (ja) * | 2009-06-03 | 2010-12-09 | 学校法人中部大学 | 物体検出装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6942712B2 (ja) | 2021-09-29 |
DE112017000643T5 (de) | 2018-10-25 |
US20170220874A1 (en) | 2017-08-03 |
WO2017136578A1 (en) | 2017-08-10 |
US9805274B2 (en) | 2017-10-31 |
CN108604405A (zh) | 2018-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019509552A (ja) | コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 | |
JP6799169B2 (ja) | マルチモーダル融合による3dオブジェクト検出と配向推定の結合 | |
CN110895674B (zh) | 用于基于自我中心视觉的未来车辆定位的系统和方法 | |
CN112292711B (zh) | 关联lidar数据和图像数据 | |
US10949684B2 (en) | Vehicle image verification | |
CN111223135B (zh) | 通过使用雷达和运动数据的单目相机来增强距离估计的系统和方法 | |
JP6833630B2 (ja) | 物体検出装置、物体検出方法およびプログラム | |
US9443309B2 (en) | System and method for image based mapping, localization, and pose correction of a vehicle with landmark transform estimation | |
US10121082B2 (en) | System and method for providing laser camera fusion for identifying and tracking a traffic participant | |
US9971934B2 (en) | System and method for partially occluded object detection | |
US9483700B1 (en) | System and method for lane vehicle localization with lane marking detection and likelihood scoring | |
JP2019500602A (ja) | 画像ベースの車両位置特定のためのシステム及び方法 | |
US11555927B2 (en) | System and method for providing online multi-LiDAR dynamic occupancy mapping | |
JP2019096072A (ja) | 物体検出装置、物体検出方法およびプログラム | |
CN112997187A (zh) | 基于鸟瞰图点云的二维对象边界框信息估计 | |
US10614320B2 (en) | System and method for advanced highway lane detection | |
CN111986128A (zh) | 偏心图像融合 | |
CN112633465A (zh) | 车辆神经网络训练 | |
CN113177429A (zh) | 车辆神经网络训练 | |
EP4176373A1 (en) | Systems and methods for detecting projection attacks on object identification systems | |
CN115359332A (zh) | 基于车路协同的数据融合方法、装置、电子设备及系统 | |
CN116137655A (zh) | 用于环绕视图增强的智能车辆系统和控制逻辑 | |
CN115236672A (zh) | 障碍物信息生成方法、装置、设备及计算机可读存储介质 | |
WO2019123582A1 (ja) | 物体情報生成装置及び物体情報生成プログラム | |
US20240161398A1 (en) | Late-to-early temporal fusion for point clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6942712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |