JP7148718B2 - 場面のパラメトリック上面視表現 - Google Patents
場面のパラメトリック上面視表現 Download PDFInfo
- Publication number
- JP7148718B2 JP7148718B2 JP2021520291A JP2021520291A JP7148718B2 JP 7148718 B2 JP7148718 B2 JP 7148718B2 JP 2021520291 A JP2021520291 A JP 2021520291A JP 2021520291 A JP2021520291 A JP 2021520291A JP 7148718 B2 JP7148718 B2 JP 7148718B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- representation
- image
- map
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 46
- 238000012549 training Methods 0.000 claims description 29
- 230000011218 segmentation Effects 0.000 claims description 24
- 230000004807 localization Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 10
- 230000000873 masking effect Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 9
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/107—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
本出願は2018年8月10日に出願された仮出願番号62/717,055および2019年7月30日に出願された米国特許出願番号16/526,073に対する優先権を主張するものであり、その全体が夫々参照により本明細書に組み込まれる。
本発明は、人工知能、機械学習およびコンピュータビジョンに関し、より詳細には、三次元場面の理解および場面のパラメトリック上面視表現に関する。
知的エージェントが針路を決め、3次元(3D)世界と対話するためには、視覚的な完了が必要とされ得る。都市の場面での運転、散乱した机上の物体を把持するロボットなどを含むが、これらに限定されないタスクは、見えない領域についての固有の推論に基づいて実行することができる。オクルージョン関係が解決された場面の上面図または鳥瞰図(BEV)表現は、そのようなタスクを実行する際に有用であり得る。この表現はエージェントおよび場面要素の緻密な記述を、意味的および幾何学的に一貫している関係で提供することができ、これは、人間の視覚化にとって直感的であり、自律的な決定にとって正確であり得る。
信念伝搬を推論に使用することができる。
Claims (17)
- 自律的なタスクの性能を改善するため、場面表現のパラメトリックモデルをコンピュータで実施する方法であって、
場面の斜視図に対応する少なくとも1つの画像に基づいて(710)、前記場面の最初のマップを生成し(720)、前記最初のマップは、前記場面の非パラメトリック上面視表現を含み、
前記最初のマップに基づいて、場面要素表現を取得するためパラメトリックモデルを実施し(730)、前記場面要素表現は1つ以上の前記場面の場面要素の説明を提供し、前記場面の推定された意味的な配置に対応し、
前記少なくとも1つの画像に基づいて、3次元定位を実行することによって前記1つ以上の場面要素の1つ以上の予測位置を識別し(740)、
前記場面要素表現に前記1つ以上の夫々の予測位置で前記1つ以上の場面要素を配置することによって自律的なタスクを実行するオーバレイを取得すること(750)と、
を含み、
前記最初のマップを生成することは、
前記少なくとも1つの画像から1つ以上の特徴を含む特徴表現を抽出することと、
前記特徴表現に基づいて、前記少なくとも1つの画像の複数の画素の夫々の意味的なカテゴリを取得するために、意味的な分割を使用することと、
前記場面において識別された1つ以上の前景オブジェクトに対応する1つ以上の領域をマスクアウトすることを含む前記意味的な分割に基づいて、マスク化された特徴表現を生成することと、
前記マスク化された特徴表現に基づいて、前記複数の画素の夫々の背景カテゴリと深度値とを予測することと、
前記最初のマップを生成するため前記背景カテゴリと前記深度値とに基づいて前記複数の画素の夫々を3次元にマッピングすること、
によってオクルージョン推論を実行することをさらに含む、方法。 - 画像捕捉装置を使用して前記少なくとも1つの画像を取得することをさらに含み、前記複数の画素の夫々を3次元にマッピングすることは、前記画像捕捉装置の固有の較正を使用することをさらに含む、請求項1に記載の方法。
- 前記画像補足装置は、前記少なくとも1つの画像が運転場面の斜視図を含むように車両に取り付けられる、請求項2に記載の方法。
- 前記場面要素表現を取得するために前記パラメトリックモデルを実施することは、前記最初のマップから得られた1つ以上の場面パラメータの夫々に対応する確率に基づいて前記場面要素表現の実現可能性を保証するためのグラフィカルなモデルを実施することをさらに含む、請求項1に記載の方法。
- 前記オーバレイを1つ以上のアプリケーションに適用することによって前記自律的なタスクを実行することをさらに含み、前記1つ以上のアプリケーションは、自由空間を計算する自由空間推定、距離計算の経路計画、および挙動予測のうちの1つ以上を含む、請求項1に記載の方法。
- 前記最初のマップに基づいて前記パラメトリックモデルをトレーニングすることをさらに含む、請求項1に記載の方法。
- コンピュータに自律的なタスクの性能を改善するため、場面表現のパラメトリックモデルを実施する方法を実行させるために、コンピュータによって実行可能なプログラム命令が具現化されたプログラム命令を有する非一時的なコンピュータ読み取り可能な記憶媒体を含むコンピュータプログラム製品であって、前記コンピュータによって実行される方法は、
場面の斜視図に対応する少なくとも1つの画像(710)に基づいて、前記場面の最初のマップを生成し(720)、前記最初のマップは、前記場面の非パラメトリック上面視表現を含み、
前記最初のマップに基づいて、場面要素表現を取得するためパラメトリックモデルを実施し(730)、前記場面要素表現は1つ以上の前記場面の場面要素の説明を提供し、前記場面の推定された意味的な配置に対応し、
前記少なくとも1つの画像に基づいて、3次元定位を実行することによって前記1つ以上の場面要素の1つ以上の予測位置を識別し(740)、
前記場面要素表現に前記1つ以上の夫々の予測位置で前記1つ以上の場面要素を配置することによって自律的なタスクを実行するオーバレイを取得すること(750)、
を含み、
前記最初のマップを生成することは、
前記少なくとも1つの画像から1つ以上の特徴を含む特徴表現を抽出することと、
前記特徴表現に基づいて、前記少なくとも1つの画像の複数の画素の夫々の意味的なカテゴリを取得するために、意味的な分割を使用することと、
前記場面において識別された1つ以上の前景オブジェクトに対応する1つ以上の領域をマスクアウトすることを含む前記意味的な分割に基づいて、マスク化された特徴表現を生成することと、
前記マスク化された特徴表現に基づいて、前記複数の画素の夫々の背景カテゴリと深度値とを予測することと、
前記最初のマップを生成するため前記背景カテゴリと前記深度値とに基づいて前記複数の画素の夫々を3次元にマッピングすること、によってオクルージョン推論を実行することをさらに含む、コンピュータプログラム製品。 - 前記方法は、画像捕捉装置を使用して前記少なくとも1つの画像を取得することをさらに含み、前記複数の画素の夫々を3次元にマッピングすることは、前記画像捕捉装置の固有の較正を使用することをさらに含む、請求項7に記載のコンピュータプログラム製品。
- 前記画像補足装置は、前記少なくとも1つの画像が運転場面の斜視図を含むように車両に取り付けられる、請求項8に記載のコンピュータプログラム製品。
- 前記場面要素表現を取得するために前記パラメトリックモデルを実施することは、1つ以上の場面パラメータの夫々に対応する確率に基づいて前記場面要素表現の実現可能性を保証するためのグラフィカルなモデルを実施することをさらに含む、請求項7に記載のコンピュータプログラム製品。
- 前記方法は、前記オーバレイを1つ以上のアプリケーションに適用することによって前記自律的なタスクを実行することをさらに含み、前記1つ以上のアプリケーションは、自由空間を計算する自由空間推定、距離計算の経路計画、および挙動予測のうちの1つ以上を含む、請求項7に記載のコンピュータプログラム製品。
- 前記方法は、前記最初のマップに基づいて前記パラメトリックモデルをトレーニングすることをさらに含む、請求項7に記載のコンピュータプログラム製品。
- 自律的なタスクの性能を改善するため、場面表現のパラメトリックモデルを実施するためのシステムであって、
プログラムコードを記憶するための記憶装置(810)と、
記憶装置に動作可能に結合され、前記記憶装置に記憶されたプログラムコードを実行するように構成された少なくとも1つのプロセッサ装置(805)と、を含み、
前記プロセッサ装置は、
場面の斜視図に対応する少なくとも1つの画像に基づいて、前記場面の最初のマップを生成し、前記最初のマップは、前記場面の非パラメトリック上面視表現を含み、
前記最初のマップに基づいて、場面要素表現を取得するためパラメトリックモデルを実施し、前記場面要素表現は1つ以上の前記場面の場面要素の説明を提供し、前記場面の推定された意味的な配置に対応し、
前記少なくとも1つの画像に基づいて、3次元定位を実行することによって前記1つ以上の場面要素の1つ以上の予測位置を識別し、
前記場面要素表現に前記1つ以上の夫々の予測位置で前記1つ以上の場面要素を配置することによって自律的なタスクを実行するオーバレイを取得し、
前記少なくとも1つのプロセッサ装置は、さらに、
前記少なくとも1つの画像から1つ以上の特徴を含む特徴表現を抽出することと、
前記特徴表現に基づいて、前記少なくとも1つの画像の複数の画素の夫々の意味的なカテゴリを取得するために、意味的な分割を使用することと、
前記場面において識別された1つ以上の前景オブジェクトに対応する1つ以上の領域をマスクアウトすることを含む前記意味的な分割に基づいて、マスク化された特徴表現を生成することと、
前記マスク化された特徴表現に基づいて、前記複数の画素の夫々の背景カテゴリと深度値とを予測することと、
前記最初のマップを生成するため前記背景カテゴリと前記深度値とに基づいて前記複数の画素の夫々を前記3次元にマッピングすることと、
によってオクルージョン推論を実行することにより前記最初のマップを生成するよう構成されている、システム。 - 画像捕捉装置をさらに含み、前記少なくとも1つのプロセッサ装置は、さらに、前記記憶装置に記憶されたプログラムコードを実行し、前記画像捕捉装置を使用して前記少なくとも1つの画像を取得するよう構成され、前記少なくとも1つのプロセッサ装置は、さらに、前記画像捕捉装置の固有の較正を使用することによって前記複数の画素の夫々を前記3次元にマッピングするよう構成されている、請求項13に記載のシステム。
- 前記画像補足装置は、前記少なくとも1つの画像が運転場面の斜視図を含むように車両に取り付けられる、請求項14に記載のシステム。
- 前記少なくとも1つのプロセッサ装置は、さらに、グラフィカルなモデルを実施することによって前記場面要素表現を取得するために前記パラメトリックモデルを実施するよう構成され、1つ以上の場面パラメータの夫々に対応する確率に基づいて前記場面要素表現の実現可能性を保証するよう構成されている、請求項13に記載のシステム。
- 前記少なくとも1つのプロセッサ装置は、さらに、前記記憶装置に記憶されたプログラムコードを実行し、前記オーバレイを1つ以上のアプリケーションに適用することによって前記自律的なタスクを実行するよう構成され、前記1つ以上のアプリケーションは、自由空間を計算する自由空間推定、距離計算の経路計画、および挙動予測のうちの1つ以上を含む、請求項13に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862717055P | 2018-08-10 | 2018-08-10 | |
US62/717,055 | 2018-08-10 | ||
US16/526,073 | 2019-07-30 | ||
US16/526,073 US11373067B2 (en) | 2018-08-10 | 2019-07-30 | Parametric top-view representation of scenes |
PCT/US2019/044820 WO2020050934A2 (en) | 2018-08-10 | 2019-08-02 | Parametric top-view representation of scenes |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021528798A JP2021528798A (ja) | 2021-10-21 |
JP7148718B2 true JP7148718B2 (ja) | 2022-10-05 |
Family
ID=69407234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021520291A Active JP7148718B2 (ja) | 2018-08-10 | 2019-08-02 | 場面のパラメトリック上面視表現 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11373067B2 (ja) |
JP (1) | JP7148718B2 (ja) |
WO (1) | WO2020050934A2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111340864B (zh) * | 2020-02-26 | 2023-12-12 | 浙江大华技术股份有限公司 | 基于单目估计的三维场景融合方法及装置 |
CN111476089B (zh) * | 2020-03-04 | 2023-06-23 | 上海交通大学 | 一种图像中多模态信息融合的行人检测方法、系统及终端 |
US11615544B2 (en) | 2020-09-15 | 2023-03-28 | Toyota Research Institute, Inc. | Systems and methods for end-to-end map building from a video sequence using neural camera models |
US11494927B2 (en) | 2020-09-15 | 2022-11-08 | Toyota Research Institute, Inc. | Systems and methods for self-supervised depth estimation |
US11321862B2 (en) | 2020-09-15 | 2022-05-03 | Toyota Research Institute, Inc. | Systems and methods for multi-camera modeling with neural camera networks |
US11508080B2 (en) | 2020-09-15 | 2022-11-22 | Toyota Research Institute, Inc. | Systems and methods for generic visual odometry using learned features via neural camera models |
CN112132829A (zh) * | 2020-10-23 | 2020-12-25 | 北京百度网讯科技有限公司 | 车辆信息的检测方法、装置、电子设备和存储介质 |
US20220147746A1 (en) * | 2020-11-10 | 2022-05-12 | Nec Laboratories America, Inc. | End-to-end parametric road layout prediction with cheap supervision |
CN117677972A (zh) * | 2020-12-30 | 2024-03-08 | 御眼视觉技术有限公司 | 用于路段绘制的系统和方法 |
CN112785611B (zh) * | 2021-01-29 | 2021-10-12 | 昆明理工大学 | 一种3d点云弱监督语义分割方法及系统 |
CN116250002A (zh) * | 2021-08-05 | 2023-06-09 | 谷歌有限责任公司 | 具有软分层和深度感知的修复的单幅图像3d摄影 |
CN113570695B (zh) * | 2021-09-27 | 2021-12-24 | 清华大学 | 一种图像生成方法、装置及电子设备 |
CN114581667B (zh) * | 2022-03-04 | 2024-08-20 | 北京百度网讯科技有限公司 | 地图数据处理方法、装置、电子设备和存储介质 |
CN116030200B (zh) * | 2023-03-27 | 2023-06-13 | 武汉零点视觉数字科技有限公司 | 一种基于视觉融合的场景重构方法与装置 |
CN116740669B (zh) * | 2023-08-16 | 2023-11-14 | 之江实验室 | 多目图像检测方法、装置、计算机设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090087024A1 (en) | 2007-09-27 | 2009-04-02 | John Eric Eaton | Context processor for video analysis system |
JP2011253521A (ja) | 2010-05-31 | 2011-12-15 | Primesense Ltd | 3次元場面の分析 |
US20160004916A1 (en) | 2013-03-01 | 2016-01-07 | Wenming Zheng | Road Region Detection |
US20160140400A1 (en) | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Atomic scenes for scalable traffic scene recognition in monocular videos |
JP2018509668A (ja) | 2015-08-03 | 2018-04-05 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 道路の3次元モデルのモデリング方法、装置及び記憶媒体 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2760448C (en) * | 2009-04-29 | 2017-04-11 | Monsanto Technology Llc | Biometric measurement systems and methods |
DE102010042063B4 (de) * | 2010-10-06 | 2021-10-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs |
KR101208647B1 (ko) * | 2010-10-28 | 2012-12-06 | 재단법인대구경북과학기술원 | 도로상의 장애 물체 검출 방법 및 장치 |
KR101342124B1 (ko) * | 2013-10-18 | 2013-12-19 | 주식회사 지티 | 영상을 이용한 전방 차량 인식 및 추적 시스템 및 이를 이용한 차량 인식 및 추적 방법 |
WO2016157499A1 (ja) * | 2015-04-02 | 2016-10-06 | 株式会社日立製作所 | 画像処理装置、物体検知装置、画像処理方法 |
JP6910454B2 (ja) * | 2016-10-26 | 2021-07-28 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH | 道路の合成トップビュー画像を生成するための方法およびシステム |
US11513211B2 (en) * | 2016-11-29 | 2022-11-29 | Continental Automotive Gmbh | Environment model using cross-sensor feature point referencing |
CN108460815B (zh) * | 2017-02-22 | 2022-06-17 | 腾讯科技(深圳)有限公司 | 地图道路要素编辑方法和装置 |
JP6565967B2 (ja) * | 2017-05-12 | 2019-08-28 | トヨタ自動車株式会社 | 路上障害物検出装置,方法,およびプログラム |
CN110196056B (zh) * | 2018-03-29 | 2023-12-05 | 文远知行有限公司 | 用于生成用于自动驾驶车辆导航和决策的道路地图的方法和导航装置 |
CN110428490B (zh) * | 2018-04-28 | 2024-01-12 | 北京京东尚科信息技术有限公司 | 构建模型的方法和装置 |
-
2019
- 2019-07-30 US US16/526,073 patent/US11373067B2/en active Active
- 2019-08-02 JP JP2021520291A patent/JP7148718B2/ja active Active
- 2019-08-02 WO PCT/US2019/044820 patent/WO2020050934A2/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090087024A1 (en) | 2007-09-27 | 2009-04-02 | John Eric Eaton | Context processor for video analysis system |
JP2011253521A (ja) | 2010-05-31 | 2011-12-15 | Primesense Ltd | 3次元場面の分析 |
US20160004916A1 (en) | 2013-03-01 | 2016-01-07 | Wenming Zheng | Road Region Detection |
US20160140400A1 (en) | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Atomic scenes for scalable traffic scene recognition in monocular videos |
JP2018509668A (ja) | 2015-08-03 | 2018-04-05 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 道路の3次元モデルのモデリング方法、装置及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20200050900A1 (en) | 2020-02-13 |
WO2020050934A3 (en) | 2020-06-18 |
WO2020050934A2 (en) | 2020-03-12 |
JP2021528798A (ja) | 2021-10-21 |
US11373067B2 (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7148718B2 (ja) | 場面のパラメトリック上面視表現 | |
US11797407B2 (en) | Systems and methods for generating synthetic sensor data via machine learning | |
US11734885B2 (en) | Systems and methods for generating synthetic light detection and ranging data via machine learning | |
US12032067B2 (en) | System and method for identifying travel way features for autonomous vehicle motion control | |
WO2023207437A1 (zh) | 一种基于动态轨迹流的场景流数字孪生方法及系统 | |
JP7281015B2 (ja) | 複雑な道路シーンのパラメトリックな上面図表現 | |
Huang et al. | Survey of state-of-art autonomous driving technologies with deep learning | |
KR20220054358A (ko) | 점유 예측 뉴럴 네트워크들 | |
JP2021089724A (ja) | 構造的制約及び物理的制約を伴う3d自動ラベル付け | |
US20210049415A1 (en) | Behaviour Models for Autonomous Vehicle Simulators | |
CN114945952A (zh) | 使用神经网络从相机图像和已知深度数据生成深度 | |
CN114929543A (zh) | 预测周围因素的加塞概率 | |
CN112800822A (zh) | 利用结构约束和物理约束进行3d自动标记 | |
Liu et al. | Deep transfer learning for intelligent vehicle perception: A survey | |
CN117372991A (zh) | 基于多视角多模态融合的自动驾驶方法及系统 | |
CN116300928A (zh) | 针对车辆的数据处理方法和数据处理模型的训练方法 | |
Yogamani et al. | FisheyeBEVSeg: Surround View Fisheye Cameras based Bird's-Eye View Segmentation for Autonomous Driving | |
Bharadwaj et al. | Lane, Car, Traffic Sign and Collision Detection in Simulated Environment Using GTA-V | |
KR102231775B1 (ko) | 차선 변경 가능 여부의 알림을 제공하는 방법 및 시스템 | |
US20230406360A1 (en) | Trajectory prediction using efficient attention neural networks | |
Bhatia et al. | Road Image Segmentation for Autonomous Car | |
Guo et al. | A semantic graph of traffic scenes for intelligent vehicle systems | |
김유진 | Ego-motion Compensated Pedestrian Trajectory Prediction with Visual Context for Urban Autonomous Driving | |
Jensen | Deep Learning Approaches for Autonomous Vehicle Localization and Mapping | |
WO2024155850A1 (en) | Systems and methods for performing autonomous navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7148718 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |