JP2020042781A - 多焦点距離視覚に基づく障害物感知方法、装置、設備及び記憶媒体 - Google Patents
多焦点距離視覚に基づく障害物感知方法、装置、設備及び記憶媒体 Download PDFInfo
- Publication number
- JP2020042781A JP2020042781A JP2019128121A JP2019128121A JP2020042781A JP 2020042781 A JP2020042781 A JP 2020042781A JP 2019128121 A JP2019128121 A JP 2019128121A JP 2019128121 A JP2019128121 A JP 2019128121A JP 2020042781 A JP2020042781 A JP 2020042781A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- detection
- focus camera
- sequences
- detection result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 170
- 230000015654 memory Effects 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Vascular Medicine (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
複数の時刻で、長焦点カメラと短焦点カメラを用いて障害物の検出結果をそれぞれ取得するステップと、
長焦点カメラと短焦点カメラによりそれぞれ取得された検出結果を用いて目標追跡を行い、少なくとも2つの追跡シーケンスを得ることができ、各追跡シーケンスには、同一障害物についての複数の時刻での検出結果が含まれるステップと、
前記少なくとも2つの追跡シーケンスのうちの任意の2つの追跡シーケンスを用いてマッチング検出を行い、マッチングが成功すると、前記任意の2つの追跡シーケンスを1つの追跡シーケンスに合併し、合併後の追跡シーケンスを得るステップと、を含む。
前記少なくとも2つの追跡シーケンスから任意に2つの追跡シーケンスを選択するステップと、
各時刻に対して、選択された2つの追跡シーケンスから検出結果をそれぞれ取得し、前記検出結果が異なるカメラからのものである場合、長焦点カメラからの検出結果を短焦点カメラの結像平面に投影し、投影後の検出結果と短焦点カメラからの検出結果とのIOU(Intersection−over−Union)を算出するステップと、
すべての時刻に対して算出されたIOUの平均値を求めステップと、
前記平均値が予め設定された閾値より大きい場合、選択された2つの追跡シーケンスのマッチングが成功すると判定するステップと、を含む。
前記任意の2つの追跡シーケンスにおける検出結果を合併し、合併後の追跡シーケンスを得るステップを含む。
新たな検出結果を取得し、それぞれ前記新たな検出結果を合併後の追跡シーケンスと関連検出を行い、
関連検出が失敗する場合、前記新たな検出結果を含む新たな追跡シーケンスを作成し、
関連検出が成功する場合、前記新たな検出結果を前記合併後の追跡シーケンスに追加すること、を更に含む。
長焦点カメラと短焦点カメラにより複数の時刻でそれぞれ取得された障害物の検出結果を用いて目標追跡を行い、少なくとも2つの追跡シーケンスを得ることができ、前記各追跡シーケンスには、同一障害物についての複数の時刻での検出結果が含まれるための初期処理モジュールと、
前記少なくとも2つの追跡シーケンスのうちの任意の2つの追跡シーケンスを用いてマッチング検出を行い、マッチングが成功すると、前記任意の2つの追跡シーケンスを1つの追跡シーケンスに合併し、合併後の追跡シーケンスを得るための合併モジュールと、を備える。
新たな検出結果を取得し、前記新たな検出結果を合併後の追跡シーケンスと関連検出をそれぞれ行い、関連検出が失敗する場合、該新たな検出結果を含む新たな追跡シーケンスを作成し、関連検出が成功する場合、前記新たな検出結果を前記合併後の追跡シーケンスに追加するための関連付けモジュールをさらに備える。
本実施例は多焦点距離視覚に基づく障害物感知方法を提供する。
本実施例及び明細書のほかの実施例では、「障害物」とは、広義に理解され、例えば、自動車の周囲の通行人、自転車、自転電動車、他の非自動車又は自動車は、本車(自動運転車)に対して、障害物とすると考えられてもよい。
本発明の実施例は、別の多焦点距離視覚に基づく障害物感知方法を提供する。図6は、本発明の実施例2に係る多焦点距離視覚に基づく障害物感知方法の模式図であり、該方法は以下のステップS110〜S140を含む。
本実施例は、多焦点距離視覚に基づく障害物感知装置を提供する。図7は、本発明の実施例3に係る多焦点距離視覚に基づく障害物感知装置の模式図であり、該障害物感知装置は、
長焦点カメラと短焦点カメラにより複数の時刻でそれぞれ取得された障害物の検出結果を用いて、目標追跡を行い、少なくとも2つの追跡シーケンスを得ることができ、各追跡シーケンスに同一障害物についての複数の時刻での検出結果が含まれるための初期処理モジュール701と、
前記少なくとも2つの追跡シーケンスのうちの任意の2つの追跡シーケンスを用いてマッチング検出を行い、マッチングが成功すると、前記任意の2つの追跡シーケンスを1つの追跡シーケンスに合併し、合併後の追跡シーケンスを得るための合併モジュール702と、を備える。
少なくとも2つの追跡シーケンスから2つの追跡シーケンスを選択し、
各時刻に対して、選択された2つの追跡シーケンスから検出結果をそれぞれ取得し、検出結果が異なるカメラからのものである場合、長焦点カメラからの検出結果を短焦点カメラの結像平面に投影し、投影後の検出結果と短焦点カメラからの検出結果とのIOUを算出し、
すべての時刻に対して算出されたIOUの平均値を求め、平均値が予め設定された閾値より大きい場合、選択された2つの追跡シーケンスのマッチングが成功すると判定する。
本実施例は、別の多焦点距離視覚に基づく障害物感知装置を提供する。図8は、本発明の実施例4に係る多焦点距離視覚に基づく障害物感知装置の模式図であり、該障害物感知装置は、
長焦点カメラと短焦点カメラにより複数の時刻でそれぞれ取得された障害物の検出結果を用いて目標追跡を行い、少なくとも2つの追跡シーケンスを得ることができ、各追跡シーケンスに同一障害物についての複数の時刻での検出結果が含まれるための初期処理モジュール701と、
前記少なくとも2つの追跡シーケンスのうちの任意の2つの追跡シーケンスを用いてマッチング検出を行い、マッチングが成功すると、前記任意の2つの追跡シーケンスを1つの追跡シーケンスに合併し、合併後の追跡シーケンスを得るための合併モジュール702と、を備える。
少なくとも2つの追跡シーケンスから2つの追跡シーケンスを選択し、
各時刻に対して、選択された2つの追跡シーケンスから検出結果をそれぞれ取得し、検出結果が異なるカメラからのものである場合、長焦点カメラからの検出結果を短焦点カメラの結像平面に投影し、投影後の検出結果と短焦点カメラからの検出結果とのIOUを算出し、
すべての時刻に対して算出されたIOUの平均値を求め、平均値が予め設定された閾値より大きい場合、選択された2つの追跡シーケンスのマッチングが成功すると判定する。
本発明の実施例5は、多焦点距離視覚に基づく障害物感知設備を提供する。図9は、本発明の実施例5に係る多焦点距離視覚に基づく障害物感知設備の構成模式図であり、該障害物感知設備は、
障害物の検出結果を取得するための長焦点カメラ910と、
障害物の検出結果を取得するための短焦点カメラ920と、
メモリ930及びプロセッサ940を備え、前記メモリ930にコンピュータプログラムが記憶され、前記コンピュータプログラムがプロセッサ940により実行されると、上記実施例に係る多焦点距離視覚に基づく障害物感知方法を実現できるコントローラと、を備える。前記メモリ930とプロセッサ940の数は、1つ又は複数であってもよい。
メモリ930は、高速RAMメモリを含む可能性もあるし、さらに不揮発性メモリ(non−volatile memory)、例えば少なくとも1つの磁気ディスクメモリを含む可能性もある。
Claims (10)
- 多焦点距離視覚に基づく障害物感知方法であって、
複数の時刻で、長焦点カメラと短焦点カメラとを用いて、障害物の検出結果をそれぞれ取得するステップと、
前記長焦点カメラと前記短焦点カメラによりそれぞれ取得された検出結果を用いて目標追跡を行い、少なくとも2つの追跡シーケンスを得ることができ、前記各追跡シーケンスには、同一障害物についての前記複数の時刻での検出結果が含まれるステップと、
前記少なくとも2つの追跡シーケンスのうちの任意の2つの追跡シーケンスを用いてマッチング検出を行い、マッチングが成功すると、前記任意の2つの追跡シーケンスを1つの追跡シーケンスに合併し、合併後の追跡シーケンスを得るステップと、を含むことを特徴とする多焦点距離視覚に基づく障害物感知方法。 - 前記少なくとも2つの追跡シーケンスのうちの任意の2つの追跡シーケンスを用いてマッチング検出を行うことは、
前記少なくとも2つの追跡シーケンスから任意に2つの追跡シーケンスを選択するステップと、
各時刻に対して、選択された2つの追跡シーケンスから検出結果をそれぞれ取得し、前記検出結果が異なるカメラからのものである場合、前記長焦点カメラからの検出結果を前記短焦点カメラの結像平面に投影し、投影後の検出結果と短焦点カメラからの検出結果とのIOUを算出するステップと、
すべての時刻に対して算出されたIOUの平均値を求めステップと、
前記平均値が予め設定された閾値より大きい場合、選択された2つの追跡シーケンスのマッチングが成功すると判定するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記任意の2つの追跡シーケンスを1つの追跡シーケンスに合併することは、
前記任意の2つの追跡シーケンスにおける検出結果を合併し、合併後の追跡シーケンスを得るステップを含むことを特徴とする請求項1に記載の方法。 - 新たな検出結果を取得し、それぞれ前記新たな検出結果を前記合併後の追跡シーケンスと関連検出を行い、
関連検出が失敗する場合、前記新たな検出結果を含む新たな追跡シーケンスを作成し、
関連検出が成功する場合、前記新たな検出結果を前記合併後の追跡シーケンスに追加すること、をさらに含むことを特徴とする請求項1乃至3のいずれか1項に記載の方法。 - 多焦点距離視覚に基づく障害物感知装置であって、
長焦点カメラと短焦点カメラにより複数の時刻でそれぞれ取得された障害物の検出結果を用いて目標追跡を行い、少なくとも2つの追跡シーケンスを得ることができ、前記各追跡シーケンスには、同一障害物についての前記複数の時刻での検出結果が含まれるための初期処理モジュールと、
前記少なくとも2つの追跡シーケンスのうちの任意の2つの追跡シーケンスを用いてマッチング検出を行い、マッチングが成功すると、前記任意の2つの追跡シーケンスを1つの追跡シーケンスに合併し、合併後の追跡シーケンスを得るための合併モジュールと、を備えることを特徴とする多焦点距離視覚に基づく障害物感知装置。 - 前記合併モジュールは、前記少なくとも2つの追跡シーケンスから任意に2つの追跡シーケンスを選択し、各時刻に対して、選択された2つの追跡シーケンスから検出結果をそれぞれ取得し、前記検出結果が異なるカメラからのものである場合、前記長焦点カメラからの検出結果を前記短焦点カメラの結像平面に投影し、投影後の検出結果と前記短焦点カメラからの検出結果とのIOUを算出し、すべての時刻に対して算出されたIOUの平均値を求め、前記平均値が予め設定された閾値より大きい場合、選択された2つの追跡シーケンスのマッチングが成功すると判定するために用いられることを特徴とする請求項5に記載の装置。
- 前記合併モジュールは、マッチング検出が成功する場合、前記任意の2つの追跡シーケンスにおける検出結果を合併し、合併後の追跡シーケンスを得るために用いられることを特徴とする請求項5に記載の装置。
- 新たな検出結果を取得し、それぞれ前記新たな検出結果を前記合併後の追跡シーケンスと関連検出を行い、関連検出が失敗する場合、前記新たな検出結果を含む新たな追跡シーケンスを作成し、関連付けが成功する場合、前記新たな検出結果を前記合併後の追跡シーケンスに追加する関連付けモジュールをさらに備えることを特徴とする請求項5乃至7のいずれか1項に記載の装置。
- 多焦点距離視覚に基づく障害物感知設備であって、
障害物の検出結果を取得するための長焦点カメラと、
障害物の検出結果を取得するための短焦点カメラと、
メモリ及びプロセッサを備え、前記メモリにコンピュータプログラムが記憶され、前記コンピュータプログラムがプロセッサにより実行されると、請求項1乃至4のいずれか1項に記載の方法を実現するコントローラと、を備えることを特徴とする多焦点距離視覚に基づく障害物感知設備。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、前記プログラムがプロセッサにより実行されると、請求項1乃至4のいずれか1項に記載の方法を実現することを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811068019.4 | 2018-09-13 | ||
CN201811068019.4A CN109165629B (zh) | 2018-09-13 | 2018-09-13 | 多焦距视觉障碍物感知方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020042781A true JP2020042781A (ja) | 2020-03-19 |
JP6811291B2 JP6811291B2 (ja) | 2021-01-13 |
Family
ID=64879132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019128121A Active JP6811291B2 (ja) | 2018-09-13 | 2019-07-10 | 多焦点距離視覚に基づく障害物感知方法、装置、設備、記憶媒体、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11126875B2 (ja) |
EP (1) | EP3623993A1 (ja) |
JP (1) | JP6811291B2 (ja) |
CN (1) | CN109165629B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109703460B (zh) * | 2019-01-11 | 2021-01-12 | 合肥思艾汽车科技有限公司 | 多摄像头的复杂场景自适应车辆碰撞预警装置及预警方法 |
CN111242986B (zh) * | 2020-01-07 | 2023-11-24 | 阿波罗智能技术(北京)有限公司 | 跨相机的障碍物跟踪方法、装置、设备、系统及介质 |
CN111222579B (zh) * | 2020-01-09 | 2023-10-03 | 北京百度网讯科技有限公司 | 跨相机的障碍物关联方法、装置、设备、电子系统及介质 |
CN114612546A (zh) * | 2020-07-16 | 2022-06-10 | 华为技术有限公司 | 一种目标距离确定方法及装置 |
CN111950515B (zh) * | 2020-08-26 | 2022-10-18 | 重庆邮电大学 | 一种基于语义特征金字塔网络的小人脸检测方法 |
CN112364793A (zh) * | 2020-11-17 | 2021-02-12 | 重庆邮电大学 | 基于长短焦多相机车辆环境下的目标检测和融合方法 |
CN113869422B (zh) * | 2021-09-29 | 2022-07-12 | 北京易航远智科技有限公司 | 多相机目标匹配方法、系统、电子设备及可读存储介质 |
Family Cites Families (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7212330B2 (en) * | 2004-03-22 | 2007-05-01 | Angstrom, Inc. | Three-dimensional imaging system for pattern recognition |
CN101542523B (zh) * | 2007-04-13 | 2012-07-25 | 松下电器产业株式会社 | 检测装置、检测方法及检测用集成电路 |
US20090232388A1 (en) | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
US8611585B2 (en) * | 2008-04-24 | 2013-12-17 | GM Global Technology Operations LLC | Clear path detection using patch approach |
US8605947B2 (en) * | 2008-04-24 | 2013-12-10 | GM Global Technology Operations LLC | Method for detecting a clear path of travel for a vehicle enhanced by object detection |
CN101441076B (zh) * | 2008-12-29 | 2010-06-02 | 东软集团股份有限公司 | 一种检测障碍物的方法和装置 |
US20110025548A1 (en) * | 2009-07-31 | 2011-02-03 | Gm Global Technology Operations, Inc. | System and method for vehicle sensor fusion |
WO2011029203A1 (en) * | 2009-09-14 | 2011-03-17 | Viion Systems Inc. | Saccadic dual-resolution video analytics camera |
CN102959941B (zh) | 2010-07-02 | 2015-11-25 | 索尼电脑娱乐公司 | 信息处理系统、信息处理装置及信息处理方法 |
CN103258338A (zh) | 2012-02-16 | 2013-08-21 | 克利特股份有限公司 | 利用真实数据来驱动仿真的虚拟环境的方法和系统 |
CN102663196B (zh) | 2012-04-17 | 2014-04-16 | 中南大学 | 一种基于虚拟现实的汽车起重机吊装仿真方法 |
US9082014B2 (en) | 2013-03-14 | 2015-07-14 | The Nielsen Company (Us), Llc | Methods and apparatus to estimate demography based on aerial images |
US9025825B2 (en) * | 2013-05-10 | 2015-05-05 | Palo Alto Research Center Incorporated | System and method for visual motion based object segmentation and tracking |
CN104376297B (zh) | 2013-08-12 | 2017-06-23 | 株式会社理光 | 道路上的线型指示标志的检测方法和装置 |
JP5919243B2 (ja) | 2013-10-18 | 2016-05-18 | 本田技研工業株式会社 | 運転訓練装置及び運転訓練方法 |
CN103914830B (zh) | 2014-02-22 | 2017-02-01 | 小米科技有限责任公司 | 直线检测方法和装置 |
CN104899855A (zh) | 2014-03-06 | 2015-09-09 | 株式会社日立制作所 | 三维障碍物检测方法和装置 |
CN104020674B (zh) | 2014-04-21 | 2017-01-25 | 华南农业大学 | 车辆Bug避障算法的Matlab仿真可视化平台 |
CN104183014B (zh) | 2014-08-13 | 2017-01-18 | 浙江大学 | 一种面向城市增强现实的高融合度信息标注方法 |
KR101687073B1 (ko) | 2014-10-22 | 2016-12-15 | 주식회사 만도 | 터널 높이 추정 장치 및 터널 높이 추정 방법 |
CN104331910B (zh) * | 2014-11-24 | 2017-06-16 | 沈阳建筑大学 | 一种基于机器视觉的轨道障碍物检测系统 |
CN104457569B (zh) | 2014-11-27 | 2017-06-16 | 大连理工大学 | 一种大型复合板材几何参数视觉测量方法 |
US9443164B2 (en) * | 2014-12-02 | 2016-09-13 | Xerox Corporation | System and method for product identification |
CN104950883A (zh) | 2015-05-14 | 2015-09-30 | 西安电子科技大学 | 一种基于距离网格地图的移动机器人路径规划方法 |
TWI630132B (zh) | 2015-06-04 | 2018-07-21 | 國立虎尾科技大學 | 3D animation car accident scene reconstruction method |
CN104933708A (zh) | 2015-06-07 | 2015-09-23 | 浙江大学 | 一种基于多谱三维特征融合的植被环境中障碍物检测方法 |
US20170092000A1 (en) | 2015-09-25 | 2017-03-30 | Moshe Schwimmer | Method and system for positioning a virtual object in a virtual simulation environment |
JP6464075B2 (ja) | 2015-11-11 | 2019-02-06 | 日本電信電話株式会社 | What−ifシミュレーション装置、方法、及びプログラム |
WO2017095817A1 (en) | 2015-11-30 | 2017-06-08 | Luminar Technologies, Inc. | Lidar system with distributed laser and multiple sensor heads and pulsed laser for lidar system |
CN105761308B (zh) | 2016-02-29 | 2018-09-07 | 武汉大学 | 一种地面LiDAR和影像数据融合的遮挡区域建筑物立面重建方法 |
US10690495B2 (en) * | 2016-03-14 | 2020-06-23 | Canon Kabushiki Kaisha | Ranging apparatus and moving object capable of high-accuracy ranging |
CN105844600B (zh) | 2016-04-27 | 2018-03-16 | 北京航空航天大学 | 一种空间目标三维点云光顺去噪方法 |
CN105957145A (zh) | 2016-04-29 | 2016-09-21 | 百度在线网络技术(北京)有限公司 | 道路障碍物识别方法和装置 |
CN106204457A (zh) * | 2016-07-19 | 2016-12-07 | 科盾科技股份有限公司 | 一种用于抓捕目标的方法和抓捕器 |
CN107818293A (zh) | 2016-09-14 | 2018-03-20 | 北京百度网讯科技有限公司 | 用于处理点云数据的方法和装置 |
GB201616097D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | Segmentation of path proposals |
WO2018053833A1 (zh) | 2016-09-26 | 2018-03-29 | 深圳市锐明技术股份有限公司 | 一种成对车道线的快速检测方法和装置 |
JP6548690B2 (ja) | 2016-10-06 | 2019-07-24 | 株式会社アドバンスド・データ・コントロールズ | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
RO132599A2 (ro) | 2016-11-23 | 2018-05-30 | Centrul It Pentru Ştiinţă Şi Tehnologie S.R.L. | Echipament modular pentru inspecţia drumurilor rutiere, incluzând carosabilul şi zona adiacentă, destinat pentru a fi montat pe vehicule nespecializate |
CN106599832A (zh) | 2016-12-09 | 2017-04-26 | 重庆邮电大学 | 一种基于卷积神经网络的多类障碍物检测与识别方法 |
CN106845412B (zh) | 2017-01-20 | 2020-07-10 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN106919908B (zh) | 2017-02-10 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | 障碍物识别方法及装置、计算机设备及可读介质 |
CN108492356A (zh) | 2017-02-13 | 2018-09-04 | 苏州宝时得电动工具有限公司 | 增强现实系统及其控制方法 |
US10067509B1 (en) * | 2017-03-10 | 2018-09-04 | TuSimple | System and method for occluding contour detection |
CN106997049B (zh) | 2017-03-14 | 2020-07-03 | 奇瑞汽车股份有限公司 | 一种基于激光点云数据的检测障碍物的方法和装置 |
CN107103627B (zh) | 2017-04-27 | 2020-12-11 | 深圳市天双科技有限公司 | 一种基于车道线的汽车全景摄像头外部参数标定方法 |
US10621779B1 (en) * | 2017-05-25 | 2020-04-14 | Fastvdo Llc | Artificial intelligence based generation and analysis of 3D models |
CN107657237B (zh) | 2017-09-28 | 2020-03-31 | 东南大学 | 基于深度学习的汽车碰撞检测方法及系统 |
CN107659774B (zh) * | 2017-09-30 | 2020-10-13 | 北京拙河科技有限公司 | 一种基于多尺度相机阵列的视频成像系统及视频处理方法 |
CN107678306B (zh) | 2017-10-09 | 2021-04-16 | 驭势(上海)汽车科技有限公司 | 动态场景信息录制和仿真回放方法、装置、设备及介质 |
JP7039254B2 (ja) * | 2017-10-31 | 2022-03-22 | キヤノン株式会社 | レンズ制御装置、該レンズ制御装置を備える撮像装置、及びレンズ制御方法 |
US10643320B2 (en) * | 2017-11-15 | 2020-05-05 | Toyota Research Institute, Inc. | Adversarial learning of photorealistic post-processing of simulation with privileged information |
CN107832806A (zh) | 2017-12-06 | 2018-03-23 | 四川知创空间孵化器管理有限公司 | 一种车牌类型判别方法和系统 |
EP3591490B1 (en) * | 2017-12-15 | 2021-12-01 | Autel Robotics Co., Ltd. | Obstacle avoidance method and device, and unmanned aerial vehicle |
CN108156419A (zh) * | 2017-12-22 | 2018-06-12 | 湖南源信光电科技股份有限公司 | 基于多特征联合与Camshift算法的多焦距镜头联动成像摄像机系统 |
CN108010360A (zh) * | 2017-12-27 | 2018-05-08 | 中电海康集团有限公司 | 一种基于车路协同的自动驾驶环境感知系统 |
CN107993512A (zh) | 2018-01-03 | 2018-05-04 | 深圳市欣横纵技术股份有限公司 | 一种核安保Table Top Tool系统及使用方法 |
CN108256506B (zh) | 2018-02-14 | 2020-11-24 | 北京市商汤科技开发有限公司 | 一种视频中物体检测方法及装置、计算机存储介质 |
CN108583620B (zh) * | 2018-04-02 | 2019-08-30 | 交控科技股份有限公司 | 列车辅助追踪预警的处理器和预警系统 |
-
2018
- 2018-09-13 CN CN201811068019.4A patent/CN109165629B/zh active Active
-
2019
- 2019-07-04 EP EP19184448.9A patent/EP3623993A1/en not_active Ceased
- 2019-07-10 JP JP2019128121A patent/JP6811291B2/ja active Active
- 2019-07-11 US US16/508,918 patent/US11126875B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20200089976A1 (en) | 2020-03-19 |
JP6811291B2 (ja) | 2021-01-13 |
CN109165629A (zh) | 2019-01-08 |
CN109165629B (zh) | 2019-08-23 |
US11126875B2 (en) | 2021-09-21 |
EP3623993A1 (en) | 2020-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6811291B2 (ja) | 多焦点距離視覚に基づく障害物感知方法、装置、設備、記憶媒体、及びプログラム | |
CN109813328B (zh) | 一种驾驶路径规划方法、装置及车辆 | |
JP6782821B2 (ja) | 自動運転車両の位置検出方法、自動運転車両の位置検出装置及びコンピュータ読み取り可能記憶媒体 | |
EP3886053A1 (en) | Slam mapping method and system for vehicle | |
JP6469220B2 (ja) | 走行車線判別装置および走行車線判別方法 | |
US10755420B2 (en) | Method and apparatus for tracking object | |
US11935250B2 (en) | Method, device and computer-readable storage medium with instructions for processing sensor data | |
JP2019102049A (ja) | 車線検出のための方法及び装置 | |
JP2020126636A (ja) | 自動駐車システム内のセマンティックセグメンテーションを利用した駐車領域を検出するための方法及び装置 | |
CN109684944B (zh) | 障碍物检测方法、装置、计算机设备和存储介质 | |
CN112507852A (zh) | 一种车道线识别方法、装置、设备及存储介质 | |
WO2020024845A1 (zh) | 定位方法和装置 | |
JP6216624B2 (ja) | 年齢層判定装置および年齢層判定プログラム | |
US11195305B2 (en) | Method and device for identifying stereoscopic object, and vehicle and storage medium | |
WO2020037553A1 (zh) | 图像处理方法及装置、移动设备 | |
CN110099273B (zh) | 增强现实内容显示方法及装置 | |
CN115249407A (zh) | 指示灯状态识别方法、装置、电子设备、存储介质及产品 | |
Casella et al. | Toward a navigation framework for fetoscopy | |
CN113534805A (zh) | 机器人回充控制方法、装置和存储介质 | |
CN115115700B (zh) | 物体的姿态估计方法、装置、电子设备及存储介质 | |
TWI838018B (zh) | 車輛控制方法、電腦設備及儲存介質 | |
JP2019087083A (ja) | 走行車線認識装置、走行車線認識方法及びプログラム | |
CN113907694B (zh) | 一种双目内窥镜对准方法及对准系统 | |
CN113140120B (zh) | 确定交通指示信息的方法及装置 | |
JP2023066924A (ja) | 視線情報処理装置、視線情報処理方法及び視線情報処理用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6811291 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |