JP2021536071A - 障害物検出方法、知的運転制御方法、装置、媒体、及び機器 - Google Patents
障害物検出方法、知的運転制御方法、装置、媒体、及び機器 Download PDFInfo
- Publication number
- JP2021536071A JP2021536071A JP2021513777A JP2021513777A JP2021536071A JP 2021536071 A JP2021536071 A JP 2021536071A JP 2021513777 A JP2021513777 A JP 2021513777A JP 2021513777 A JP2021513777 A JP 2021513777A JP 2021536071 A JP2021536071 A JP 2021536071A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- map
- obstacle
- value
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本開示は、2019年6月27日に中国国家知識産権局に提出された、“Obstacle Detection Method,Intelligent Driving Control Method,Apparatus,Medium,and Device”と題する中国特許出願第201910566416.2号の優先権を主張するものであり、同出願の開示の全体を参照によって本願に援用する。
Wl=Ml+Ll・0.5 (3)。
Wl’=Ml’+Ll’・0.5 (4)。
Ymin=min(Yi)
Ymax=max(Yi) (12)。
OX=Xclose
OZ=Zclose (16)。
OH=Ymax=Ymin (17)。
図26は、本開示を実施するのに適した例示的な機器2600を示している。機器2600は、自動車、移動端末(例えば、スマートモバイルフォン)、PC(例えば、デスクトップコンピュータ又はノートブックコンピュータ)、タブレットコンピュータ及びサーバ等において構成される制御システム/電子システムであってよい。図26において、機器2600は、1つ又は複数のプロセッサ、通信ユニット及びその他を含む。1つ又は複数のプロセッサは、1つ又は複数の中央処理ユニット(CPU)2601及び/又は、ニューラルネットワーク等を使ってビジュアルトラッキングを実行するように構成された1つ又は複数のグラフィクス処理ユニット(GPU)2613であってよい。プロセッサは、Read−Only Memory(ROM)2602に保存された実行可能命令又は記憶部2608からRandom Access Memory(RAM)2603にロードされる実行可能命令に応じた各種の適切な動作及び処理を実行してよい。通信ユニット2612には、ネットワークカードが含まれていてよいがこれに限定されず、ネットワークカードにはInfiniband(IB)ネットワークカードが含まれていてよいがこれに限定されない。プロセッサは、ROM 2602及び/又はRAM 2603と通信して実行可能命令を実行してよく、バス2604を通じて通信ユニット2612と接続され、通信ユニット2612を通じて他の標的機器と通信し、それによって本開示における対応のステップを完了する。
Claims (69)
- 障害物検出方法において、
環境画像の第一の視差マップを取得するステップであって、前記環境画像は知的機器が移動している空間環境の情報を表す画像であるステップと、
前記環境画像の前記第一の視差マップの中で、複数の障害物ピクセル領域を特定するステップと、
前記複数の障害物ピクセル領域をクラスタリングして、少なくとも1つのクラスクラスタを取得するステップと、
同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果を特定するステップと、
を含む方法。 - 前記環境画像は単眼画像を含み、
前記環境画像の前記第一の視差マップを取得した後に、前記方法は、
前記単眼画像を反転させることによって第一の反転画像を取得し、前記第一の反転画像の視差マップを取得するステップと、
前記第一の反転画像の前記視差マップに応じて前記単眼画像の前記第一の視差マップに視差調整を行い、視差調整を行った前記第一の視差マップを取得するステップと、
をさらに含み、
前記環境画像の前記第一の視差マップの中の前記複数の障害物ピクセル領域を特定するステップは、
前記第一の視差マップの中の、視差調整が行われた前記複数の障害物ピクセル領域を特定するステップを含む
請求項1に記載の方法。 - 前記第一の反転画像の前記視差マップに応じて前記単眼画像の前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するステップは、
前記第一の反転画像の前記視差マップを反転させることによって第二の反転画像を取得するステップと、
前記第一の視差マップの重量配分マップと前記第二の反転画像の重量配分マップに応じて前記第一の視差マップに視差調整を行い、視差調整が行われた第一の視差マップを取得するステップと、
をさらに含み、
前記第一の視差マップの前記重量配分マップは、それぞれ前記第一の視差マップ内の複数の視差値に対応する重量値を含み、前記第二の反転画像の前記重量配分マップは、それぞれ前記第二の反転画像内の前記複数の視差値に対応する重量を含む、
請求項2に記載の方法。 - 前記重量配分マップは、第一の重量配分マップ又は第二の重量配分マップの少なくとも一方を含み、
前記第一の重量配分マップは、複数の環境画像について一律に設定された重量配分マップであり、
前記第二の重量配分マップは、異なる環境画像についてそれぞれ設定された重量配分マップである、
請求項3に記載の方法。 - 前記第一の重量配分マップは、左右に分離された少なくとも2つの領域を含み、異なる領域は異なる重量値を有する、請求項4に記載の方法。
- 前記単眼画像が左眼画像であるとき、
前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくなく、
前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくない、
請求項5に記載の方法。 - 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくなく、
前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくない、
請求項6に記載の方法。 - 前記単眼画像が右眼画像であるとき、
前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくなく、
前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくない、
請求項5に記載の方法。 - 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の前記右部分の前記重量値は前記領域の前記左部分の前記重量値より大きくなく、
前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の前記右部分の前記重量値は前記領域の前記左部分の前記重量値より大きくない、
請求項8に記載の方法。 - 前記第一の視差マップの前記第二の重量配分マップの設定モードは、
前記第一の視差マップを反転させて反転視差マップを形成するステップと、
前記第一の視差マップの前記反転視差マップの中の視差値に応じて、前記第一の視差マップの前記第二の重量配分マップの中の前記重量値を、前記第一の視差マップの前記反転視差マップの中の視差値に応じて設定するステップと、
を含む、請求項4〜9の何れか1項に記載の方法。 - 前記第一の視差マップの前記第二の重量配分マップの中の前記重量値を、前記第一の視差マップの前記反転視差マップの中の前記視差値に応じて設定するステップは、
前記反転視差マップの中の何れの位置のピクセルについても、前記位置における前記ピクセルの前記視差値が第一の所定の条件を満たせば、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第一の値として設定するステップを含む、
請求項10に記載の方法。 - 前記位置における前記ピクセルの前記視差値が前記第一の所定の条件を満たさなければ、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第二の値として設定するステップをさらに含み、前記第一の値は前記第二の値より大きい、
請求項11に記載の方法。 - 前記第一の所定の条件は、前記位置における前記ピクセルの前記視差値が前記位置における前記ピクセルの第一の参照値より大きいことを含み、前記位置における前記ピクセルの前記第一の参照値は、前記第一の視差マップの前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
請求項11又は12に記載の方法。 - 前記第二の反転画像の前記第二の重量配分マップの設定モードは、
前記第二の反転画像の前記第二の重量配分マップの前記重量値を前記第一の視差マップの中の前記視差値に応じて設定するステップを含む、
請求項4〜13の何れか1項に記載の方法。 - 前記第二の反転画像の前記第二の重量配分マップの前記重量値を前記第一の視差マップの中の前記視差値に応じて設定するステップは、
前記第二の反転画像の中の何れの位置における前記ピクセルについても、
前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が第二の所定の条件を満たせば、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第三の値として設定するステップを含む、
請求項14に記載の方法。 - 前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が前記第二の所定の条件を満たさなければ、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第四の値として設定するステップをさらに含み、前記第三の値は前記第四の値より大きい、
請求項15に記載の方法。 - 前記第二の所定の条件は、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値は、前記位置における前記ピクセルの第二の参照値より大きいことを含み、前記位置における前記ピクセルの前記第二の参照値は、前記第一の視差マップの前記反転視差マップの中の前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
請求項15又は16に記載の方法。 - 前記第一の視差マップの前記重量配分マップと前記第二の反転画像の前記重量配分マップに応じて前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するステップは、
前記第一の視差マップの前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第一の視差マップの中の視差値を調整するステップと、
前記第二の反転画像の前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第二の反転画像の中の視差値を調整するステップと、
視差調整された前記第一の視差マップと視差値が調整された前記第二の反転画像を組み合わせて、視差調整が行われた前記第一の視差マップを最終的に取得するステップと、
を含む、
請求項4〜17の何れか1項に記載の方法。 - 前記環境画像は単眼画像を含み、
前記環境画像の前記第一の視差マップを取得するステップは、
前記単眼画像についてコンボリューションニューラルネットワーク(CNN)で視差分析を実行し、前記CNNの出力に基づいて前記単眼画像の第一の視差マップを取得するステップを含み、
前記CNNは両眼画像サンプルで訓練される、
請求項1に記載の方法。 - 前記CNNの訓練プロセスは、
前記両眼画像サンプルの1つを訓練対象のCNNに入力して視差分析を行い、前記CNNの前記出力に基づいて、左眼画像サンプルの前記視差マップ及び右眼画像サンプルの前記視差マップを取得するステップと、
前記左眼画像サンプルと前記右眼画像サンプルの前記視差マップに応じて前記右眼画像を再構成するステップと、
前記右眼画像サンプルと前記左眼画像サンプルの前記視差マップに応じて前記左眼画像を再構成するステップと、
前記再構成された左眼画像と前記左眼画像サンプルとの差及び前記再構成された右眼画像と前記右眼画像サンプルとの差に応じて、前記CNNのネットワークパラメータを調整するステップと、
を含む、
請求項19に記載の方法。 - 前記環境画像の前記第一の視差マップの中の複数の障害物ピクセル領域を特定するステップは、
前記環境画像の前記第一の視差マップにエッジ検出を行って、障害物エッジ情報を取得するステップと、
前記環境画像の前記第一の視差マップにおける障害物領域を特定するステップと、
前記障害物領域の中の複数の障害物ピクセルコラム領域を前記障害物エッジ情報に応じて特定するステップと、
を含む、
請求項1〜20の何れか1項に記載の方法。 - 前記環境画像の前記第一の視差マップの中の前記障害物領域を特定するステップは、
前記第一の視差マップの中の各ピクセルローの視差値に統計的分析を行って各ピクセルローの前記視差値の統計的情報を取得するステップと、
各ピクセルローの前記視差値の前記統計的情報に基づいて、統計的視差マップを特定するステップと、
前記統計的視差マップに第一の線形フィッティングを行い、前記第一の線形フィッティングの結果に応じて地面領域と非地面領域を特定するステップと、
前記非地面領域に応じて前記障害物領域を特定するステップと、
を含む、請求項21に記載の方法。 - 前記非地面領域は、前記地面より上の第一の領域又は、前記地面より上の第一の領域及び前記地面より下の第二の領域のうちの一方を含む、請求項22に記載の方法。
- 前記非地面領域に応じて前記障害物領域を特定するステップは、
前記統計的視差マップに第二の線形フィッティングを行い、前記第二の線形フィッティングの結果に応じて、前記第一の領域の中で、その地面より上の高さが第一の所定の高さ値より小さい第一の標的領域を特定するステップであって、前記第一の標的領域は前記障害物領域であるステップと、
前記非地面領域の中に前記地面より下の第二の領域がある場合、前記第二の領域の中で、その前記地面より下の高さが第二の所定の高さ値より大きい第二の標的領域を特定するステップであって、前記第二の標的領域は前記障害物領域であるステップと、
を含む、
請求項23に記載の方法。 - 前記第一の視差マップの前記障害物領域内の前記複数の障害物ピクセルコラム領域を前記障害物エッジ情報に応じて特定するステップは、
前記第一の視差マップ内の非障害物領域のピクセルの視差値及び前記障害物エッジ情報のピクセルの視差値を所定の値として設定し、
前記第一の視差マップのコラム方向にN個のピクセルを横方向単位とみなし、前記第一の視差マップの設定されたローから各ローのN個のピクセルの前記視差値を調べて、前記ピクセルの前記視差値が前記所定の値と所定以外の値との間で飛ぶ標的ローを特定するステップであって、Nは正の整数であるステップと、
前記コラム方向へのN個のピクセルをコラム幅とみなすことによって前記障害物領域内の前記障害物ピクセルコラム領域を特定し、前記特定された標的ローを前記ロー方向への前記障害物ピクセルコラム領域の境界とみなすステップと、
を含む、
請求項21〜24の何れか1項に記載の方法。 - 前記障害物ピクセル領域は前記障害物ピクセルコラム領域を含み、
前記複数の障害物ピクセル領域をクラスタリングするステップは、
前記複数の障害物ピクセルコラム領域の空間位置情報を特定するステップと、
前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて前記複数の障害物ピクセルコラム領域をクラスタリングするステップと、
を含む、
請求項1〜25の何れか1項に記載の方法。 - 前記複数の障害物ピクセルコラム領域の前記空間位置情報を特定するステップは、
何れの障害物ピクセルコラム領域についても、前記障害物ピクセルコラム領域に含まれるピクセルに応じて前記障害物ピクセルコラム領域の属性情報を特定し、前記障害物ピクセルコラム領域の前記属性情報に応じて前記障害物ピクセルコラム領域の前記空間位置情報を特定するステップを含む、
請求項26に記載の方法。 - 前記障害物ピクセルコラム領域の前記属性情報は、前記ピクセルコラム領域の底部情報、前記ピクセルコラム領域の最上部情報、前記ピクセルコラム領域の視差値、及び前記ピクセルコラム領域のコラム情報のうちの少なくとも1つを含む、請求項27に記載の方法。
- 前記障害物ピクセルコラム領域の前記空間位置情報は、水平座標軸上の前記障害物ピクセルコラム領域の座標及び奥行き座標軸上の障害物ピクセルコラム領域の座標を含む、請求項26〜28の何れか1項に記載の方法。
- 前記障害物ピクセルコラム領域の前記空間位置情報は、縦座標軸上の前記障害物ピクセルコラム領域の最高点座標及び前記縦座標軸上の前記障害物ピクセルコラム領域の最低点座標をさらに含み、
前記最高点座標及び前記最低点座標は、前記障害物の高さを特定するために使用される、
請求項29に記載の方法。 - 前記障害物ピクセル領域は前記障害物ピクセルコラム領域を含み、
前記同じクラスクラスタに属する障害物ピクセル領域に応じて障害物検出結果を特定するステップは、
前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて前記環境画像内の障害物バウンディングボックスを特定するステップ及び/又は
前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて前記障害物の前記空間位置情報を特定するステップ
を含む、
請求項1〜30の何れか1項に記載の方法。 - 前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて前記障害物の前記空間位置情報を特定するステップは、
複数の障害物ピクセルコラム領域と前記環境画像を生成するカメラ機器との間の距離を、前記同じクラスクラスタに属する前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて特定するステップと、
前記カメラ機器に最も近い前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記障害物の前記空間位置情報を特定するステップと、
を含む、請求項31に記載の方法。 - 知的運転制御方法において、
移動中の知的機器の環境画像を前記知的機器に搭載された画像取得装置を介して取得するステップと、
前記取得された環境画像に障害物検出を行って、請求項1〜32の何れか1項に記載の前記方法を使って障害物検出結果を特定するステップと、
前記障害物検出結果に応じて制御命令を生成し、出力するステップと、
を含む方法。 - 障害物検出装置において、
環境画像の第一の視差マップを取得するように構成された取得モジュールであって、前記環境画像は、知的機器が移動している空間環境の情報を表す画像である取得モジュールと、
前記環境画像の前記第一の視差マップの中で複数の障害物ピクセル領域を特定するように構成された第一の特定モジュールと、
前記複数の障害物ピクセル領域をクラスタリングして、少なくとも1つのクラスクラスタを取得するように構成されたクラスタリングモジュールと、
同じクラスクラスタに属する前記障害物ピクセル領域に応じて障害物検出結果を特定するように構成された第二の特定モジュールと、
を含む障害物検出装置。 - 前記取得モジュールは、
前記環境画像の前記単眼画像を反転させることによって第一の反転画像を取得し、前記第一の反転画像の視差マップを取得するように構成された第二のサブモジュールと、
前記第一の反転画像の前記視差マップに応じて前記単眼画像の前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するように構成された第三のサブモジュールと、
をさらに含み、
前記第一の特定モジュールはさらに、
視差調整された前記第一の視差マップの中の前記複数の複数の障害物ピクセル領域を特定するように構成される、
請求項34に記載の装置。 - 前記第三のサブモジュールは、
前記第一の反転画像の前記視差マップを反転させることによって第二の反転画像を取得するように構成された第一のユニットと、
前記第一の視差マップの重量配分マップ及び前記第二の反転画像の重量配分マップに応じて、前記第一の視差マップに視差調整を行い、視差調整が行われた前記第一の視差マップを取得するように構成された第二のユニットと、
を含み、
前記第一の視差マップの前記重量配分マップは、それぞれ前記第一の視差マップの複数の視差値に対応する重量値を含み、前記第二の反転画像の前記重量配分マップは、それぞれ前記第二の反転画像の中の前記複数の視差値に対応する重量を含む、
請求項35に記載の装置。 - 前記重量配分マップは、第一の重量配分マップ及び/又は第二の重量配分マップを含み、
前記第一の重量配分マップは、複数の前記環境画像のために一律に設定された重量配分マップであり、
前記第二の重量配分マップは、異なる環境画像のためにそれぞれ設定された重量配分マップである、
請求項36に記載の装置。 - 前記第一の重量配分マップは左右に分離された少なくとも2つの領域を含み、異なる領域は異なる重量値を有する、請求項37に記載の装置。
- 前記単眼画像が左眼画像である場合、
前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくなく、
前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、右の前記領域の前記重量値は左の前記領域の前記重量値より小さくない、
請求項38に記載の装置。 - 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくなく、
前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の左部分の前記重量値は前記領域の右部分の前記重量値より大きくない、
請求項39に記載の装置。 - 前記単眼画像が右眼画像である場合、
前記第一の視差マップの前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくなく、
前記第二の反転画像の前記第一の重量配分マップの中の何れの2つの領域についても、左の前記領域の前記重量値は右の前記領域の前記重量値より小さくない、
請求項38に記載の装置。 - 前記第一の視差マップの前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の右部分の前記重量値は前記領域の左部分の前記重量値より大きくなく、
前記第二の反転画像の前記第一の重量配分マップの中の少なくとも1つの領域について、前記領域の右部分の前記重量値は前記領域の左部分の前記重量値より大きくない、
請求項41に記載の装置。 - 前記第三のサブモジュールは、前記第一の視差マップの前記第二の重量配分マップを設定するように構成された第三のユニットをさらに含み、
前記第三のユニットは、前記第一の視差マップを反転させて反転視差マップを形成し、前記第一の視差マップの前記反転視差マップの中の前記視差値に応じて前記第一の視差マップの前記第二の重量配分マップの中の前記重量値を設定する、
請求項37〜42の何れか1項に記載の装置。 - 前記第三のユニットはさらに、前記反転視差マップの中の何れの位置におけるピクセルについても、前記位置における前記ピクセルの前記視差値が第一の所定の条件を満たせば、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第一の値として設定するように構成される、請求項43に記載の装置。
- 前記第三のユニットはさらに、前記位置における前記ピクセルの前記視差値が前記第一の所定の条件を満たさなければ、前記第一の視差マップの前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第二の値として設定するように構成され、前記第一の値は前記第二の値より大きい、請求項44に記載の装置。
- 前記第一の所定の条件は、前記位置における前記ピクセルの前記視差値が前記位置における前記ピクセルの第一の参照値より大きいことを含み、
前記位置における前記ピクセルの前記第一の参照値は、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
請求項44又は45に記載の装置。 - 前記第三のサブモジュールは、前記第二の反転画像の前記第二の重量配分マップを設定するように構成された第四のユニットをさらに含み、
前記第四のユニットは、前記第一の視差マップの中の前記視差値に応じて前記第二の反転画像の前記第二重量配分マップの中の前記重量値を設定する、
請求項37〜46の何れか1項に記載の装置。 - 前記第四のユニットはさらに、前記第二の反転画像の中の何れの位置におけるピクセルについても、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が第二の所定の条件を満たせば、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第三の値として設定するように構成される、請求項47に記載の装置。
- 前記第四のユニットはさらに、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が前記第二の所定の条件を満たさなければ、前記第二の反転画像の前記第二の重量配分マップの中の前記位置における前記ピクセルの前記重量値を第四の値として設定するように構成され、前記第三の値は前記第四の値より大きい、請求項48に記載の装置。
- 前記第二の所定の条件は、前記第一の視差マップの中の前記位置における前記ピクセルの前記視差値が前記位置における前記ピクセルの第二の参照値より大きいことを含み、
前記位置における前記ピクセルの前記第二の参照値は、前記第一の視差マップの前記反転視差マップの中の前記位置における前記ピクセルの前記視差値及びゼロより大きい一定値に応じて設定される、
請求項48又は49に記載の装置。 - 前記第二のユニットはさらに、
前記第一の視差マップの前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第一の視差マップの中の前記視差値を調整し、
前記第二の反転画像の前記第一の重量配分マップ及び前記第二の重量配分マップに応じて前記第二の反転画像の中の前記視差値を調整し、
視差調整が行われた前記第一の視差マップと視差値調整が行われた前記第二の反転画像を組み合わせて、視差調整が行われた前記第一の視差マップを最終的に取得する
ように構成される、請求項37〜50の何れか1項に記載の装置。 - 前記環境画像は前記単眼画像を含み、
前記取得モジュールは、
前記単眼画像にコンボリューションニューラルネットワーク(CNN)で視差分析を行い、前記CNNの出力に基づいて前記単眼画像の前記第一の視差マップを取得するように構成された第一のサブモジュールを含み、
前記CNNは両眼画像サンプルで訓練される、
請求項34に記載の装置。 - 前記CNNを訓練するように構成された訓練モジュールをさらに含み、前記訓練モジュールはさらに、
前記両眼画像サンプルの1つを訓練対象のCNNに入力し、視差分析を行い、前記CNNの出力に基づいて左眼画像サンプルの前記視差マップと右眼画像サンプルの前記視差マップを取得し、
前記左眼画像サンプルと前記右眼画像サンプルの前記視差マップに応じて前記右眼画像を再構成し、
前記右眼画像サンプルと前記左眼画像サンプルの前記視差マップに応じて前記左眼画像を再構成し、
前記再構成された左眼画像と前記左眼画像サンプルとの間の差及び前記再構成された右眼画像と前記右眼画像サンプルとの差に応じて前記CNNのネットワークパラメータを調整する
ように構成される、請求項52に記載の装置。 - 前記第一の特定モジュールは、
前記環境画像の前記第一の視差マップにエッジ検出を行い、障害物エッジ情報を取得するように構成された第四のサブモジュールと、
前記環境画像の前記第一の視差マップの中の障害物領域を特定するように構成された第五のサブモジュールと、
前記障害物エッジ情報に応じて前記障害物領域の中の複数の障害物ピクセルコラム領域を特定するように構成された第六のサブモジュールと、
を含む、請求項34〜53の何れか1項に記載の装置。 - 前記第五のサブモジュールは、
前記第一の視差マップの各ピクセルローの前記視差値に統計的分析を行い、各ピクセルローの前記視差値の統計的情報を取得するように構成された第五のユニットと、
各ピクセルローの前記視差値の前記統計的情報に基づいて統計的視差マップを特定するように構成された第六のユニットと、
前記統計的視差マップに第一の線形フィッティングを行い、前記第一の線形フィッティングの結果に応じて地面領域及び非地面領域を特定するように構成された第七のユニットと、
前記非地面領域に応じて前記障害物領域を特定するように構成された第八のユニットと、
を含む、請求項54に記載の装置。 - 前記非地面領域は前記地面より上の第一の領域を含み、又は前記非地面領域は、前記地面より上の第一の領域と前記地面より下の第二の領域を含む、請求項55に記載の装置。
- 前記第八のユニットはさらに、
前記統計的視差マップに第二の線形フィッティングを行い、前記第二の線形フィッティングの結果に応じて、前記第一の領域の中で、その前記地面より上の高さが第一の所定の高さ値より小さい前記第一の標的領域を特定し、前記第一の標的領域は前記障害物領域であり、
前記非地面領域の中に前記地面より下の第二の領域がある場合、前記第二の領域の中で、その前記地面より下の高さが第二の所定の高さ値より大きい第二の標的領域を特定し、前記第二の標的領域は前記障害物領域である、
ように構成される、請求項56に記載の装置。 - 前記第六のサブモジュールはさらに、
前記第一の視差マップの中の非障害物領域の前記ピクセルの前記視差値及び前記障害物エッジ情報の前記ピクセルの前記視差値を所定の値に設定し、
前記第一の視差マップの前記コラム方向にN個のピクセルを横方向単位とみなし、前記第一の視差マップの前記設定されたローから各ローの中のN個のピクセルの前記視差値を調べて、前記ピクセルの前記視差値が前記所定の値と所定以外の値との間で飛ぶ標的ローを特定し、前記Nは正の整数であり、
前記コラム方向にN個のピクセルをコラム幅とみなし、前記特定された標的ローを前記ロー方向への前記障害物ピクセルコラム領域の境界とみなすことによって、前記障害物領域の中の前記障害物ピクセルコラム領域を特定する
ように構成される、請求項54〜57の何れか1項に記載の装置。 - 前記障害物ピクセル領域は、前記障害物ピクセルコラム領域を含み、前記クラスタリングモジュールは、
前記複数の障害物ピクセルコラム領域の空間位置情報を特定するように構成された第七のサブモジュールと、
前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて、前記複数の障害物ピクセルコラム領域をクラスタリングするように構成される第八のサブモジュールと、
を含む、請求項34〜58の何れか1項に記載の装置。 - 前記第八のサブモジュールはさらに、
何れの障害物ピクセルコラム領域についても、前記障害物ピクセルコラム領域に含まれる前記ピクセルに応じて、前記障害物ピクセルコラム領域の属性情報を特定し、前記障害物ピクセルコラム領域の前記属性情報に応じて前記障害物ピクセルコラム領域の前記空間位置情報を特定する
ように構成される、請求項59に記載の装置。 - 前記障害物ピクセルコラム領域の前記属性情報は、前記ピクセルコラム領域の底部情報、前記ピクセルコラム領域の最上部情報、前記ピクセルコラム領域の視差値、及び前記ピクセルコラム領域のコラム情報のうちの少なくとも1つを含む、請求項60に記載の装置。
- 前記障害物ピクセルコラム領域の前記空間位置情報は、水平座標軸上の前記障害物ピクセルコラム領域の座標と奥行き座標軸上の前記障害物ピクセルコラム領域の座標を含む、請求項59〜61の何れか1項に記載の装置。
- 前記障害物ピクセルコラム領域の前記空間位置情報は、縦座標軸上の前記障害物ピクセルコラム領域の最高点座標と前記縦座標軸上の前記障害物ピクセルコラム領域の最低点座標をさらに含み、
前記最高点座標及び前記最低点座標は、前記障害物の高さを特定するために使用される、
請求項62に記載の装置。 - 前記障害物ピクセル領域は、前記障害物ピクセルコラム領域を含み、前記第二の特定モジュールは、
前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記環境画像の中の障害物バウンディングボックスを特定するように構成された第九のサブモジュール及び/又は
前記同じクラスクラスタに属する前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記障害物の前記空間位置情報を特定するように構成される第十のサブモジュール
を含む、請求項34〜63の何れか1項に記載の装置。 - 前記第十のサブモジュールはさらに、
前記同じクラスクラスタに属する前記複数の障害物ピクセルコラム領域の前記空間位置情報に応じて、前記複数の障害物ピクセルコラム領域と前記環境画像を生成するカメラ機器との間の距離を特定し、
前記カメラ機器に最も近い前記障害物ピクセルコラム領域の前記空間位置情報に応じて、前記障害物の前記空間位置情報を特定する
ように構成される、請求項64に記載の装置。 - 知的運転制御装置において、
移動中の知的機器の環境画像を、前記知的機器上に提供された画像取得装置を通じて取得し、
前記得られた環境画像に対する障害物検出を行って、請求項34〜65の何れか1項に記載の前記装置を使用することによって障害物検出結果を特定するように構成された取得モジュールと、
前記障害物検出結果に応じて制御命令を生成し、出力するように構成された制御モジュールと、
を含む知的運転制御装置。 - 電子機器において、
コンピュータプログラムを記憶するように構成されたメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行するように構成されたプロセッサであって、前記コンピュータプログラムは、実行されると、請求項1〜33の何れか1項に記載の方法を実施するプロセッサと、
を含む電子機器。 - コンピュータプログラムを記憶するコンピュータ可読記憶媒体において、前記コンピュータプログラムは、プロセッサにより実行されると、請求項1〜33の何れか1項に記載の方法を実施するコンピュータ可読記憶媒体。
- コンピュータ命令を含むコンピュータプログラムにおいて、機器のプロセッサの中での実行中に、前記コンピュータ命令は、請求項1〜33の何れか1項に記載の方法を実施するコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910566416.2 | 2019-06-27 | ||
CN201910566416.2A CN112149458A (zh) | 2019-06-27 | 2019-06-27 | 障碍物检测方法、智能驾驶控制方法、装置、介质及设备 |
PCT/CN2019/120833 WO2020258703A1 (zh) | 2019-06-27 | 2019-11-26 | 障碍物检测方法、智能驾驶控制方法、装置、介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021536071A true JP2021536071A (ja) | 2021-12-23 |
Family
ID=73868506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021513777A Ceased JP2021536071A (ja) | 2019-06-27 | 2019-11-26 | 障害物検出方法、知的運転制御方法、装置、媒体、及び機器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210117704A1 (ja) |
JP (1) | JP2021536071A (ja) |
KR (1) | KR20210043628A (ja) |
CN (1) | CN112149458A (ja) |
SG (1) | SG11202013264YA (ja) |
WO (1) | WO2020258703A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102125538B1 (ko) * | 2019-12-13 | 2020-06-22 | 주식회사 토르 드라이브 | 자율 주행을 위한 효율적인 맵 매칭 방법 및 그 장치 |
CN112733653A (zh) * | 2020-12-30 | 2021-04-30 | 智车优行科技(北京)有限公司 | 目标检测方法和装置、计算机可读存储介质、电子设备 |
CN112631312B (zh) * | 2021-03-08 | 2021-06-04 | 北京三快在线科技有限公司 | 一种无人设备的控制方法、装置、存储介质及电子设备 |
CN113269838B (zh) * | 2021-05-20 | 2023-04-07 | 西安交通大学 | 一种基于fira平台的障碍物视觉检测方法 |
CN113747058B (zh) * | 2021-07-27 | 2023-06-23 | 荣耀终端有限公司 | 基于多摄像头的图像内容屏蔽方法和装置 |
CN113792583A (zh) * | 2021-08-03 | 2021-12-14 | 北京中科慧眼科技有限公司 | 基于可行驶区域的障碍物检测方法、系统和智能终端 |
KR102623109B1 (ko) * | 2021-09-10 | 2024-01-10 | 중앙대학교 산학협력단 | 합성곱 신경망 모델을 이용한 3차원 의료 영상 분석 시스템 및 방법 |
CN114119700B (zh) * | 2021-11-26 | 2024-03-29 | 山东科技大学 | 一种基于u-v视差图的障碍物测距方法 |
CN115474032B (zh) * | 2022-09-14 | 2023-10-03 | 深圳市火乐科技发展有限公司 | 投影交互方法、投影设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955943A (zh) * | 2014-05-21 | 2014-07-30 | 西安电子科技大学 | 基于融合变化检测算子与尺度驱动的无监督变化检测方法 |
JP2016110656A (ja) * | 2014-12-09 | 2016-06-20 | 株式会社リコー | オブジェクト追跡方法及び装置 |
US20180231871A1 (en) * | 2016-06-27 | 2018-08-16 | Zhejiang Gongshang University | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF |
CN108725440A (zh) * | 2018-04-20 | 2018-11-02 | 深圳市商汤科技有限公司 | 前向碰撞控制方法和装置、电子设备、程序和介质 |
JP2019502213A (ja) * | 2016-01-14 | 2019-01-24 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 時系列に基づいたデータ予測方法及び装置 |
CN109508673A (zh) * | 2018-11-13 | 2019-03-22 | 大连理工大学 | 一种基于棒状像素的交通场景障碍检测与识别方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100962329B1 (ko) * | 2009-02-05 | 2010-06-10 | 연세대학교 산학협력단 | 스테레오 카메라 영상으로부터의 지면 추출 방법과 장치 및이와 같은 방법을 구현하는 프로그램이 기록된 기록매체 |
CN101701818B (zh) * | 2009-11-05 | 2011-03-30 | 上海交通大学 | 远距离障碍的检测方法 |
CN105095905B (zh) * | 2014-04-18 | 2018-06-22 | 株式会社理光 | 目标识别方法和目标识别装置 |
CN104573646B (zh) * | 2014-12-29 | 2017-12-12 | 长安大学 | 基于激光雷达和双目相机的车前行人检测方法及系统 |
CN105866790B (zh) * | 2016-04-07 | 2018-08-10 | 重庆大学 | 一种考虑激光发射强度的激光雷达障碍物识别方法及系统 |
CN109890576B (zh) * | 2016-08-25 | 2022-04-22 | Lg电子株式会社 | 移动机器人及其控制方法 |
WO2018069757A2 (en) * | 2016-10-11 | 2018-04-19 | Mobileye Vision Technologies Ltd. | Navigating a vehicle based on a detected barrier |
CN106708084B (zh) * | 2016-11-24 | 2019-08-02 | 中国科学院自动化研究所 | 复杂环境下无人机自动障碍物检测和避障方法 |
WO2018120040A1 (zh) * | 2016-12-30 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 一种障碍物检测方法及装置 |
CN107729856B (zh) * | 2017-10-26 | 2019-08-23 | 海信集团有限公司 | 一种障碍物检测方法及装置 |
CN108197698B (zh) * | 2017-12-13 | 2022-10-14 | 中国科学院自动化研究所 | 基于多模态融合的多脑区协同自主决策方法 |
CN108961327B (zh) * | 2018-05-22 | 2021-03-30 | 深圳市商汤科技有限公司 | 一种单目深度估计方法及其装置、设备和存储介质 |
CN109190704A (zh) * | 2018-09-06 | 2019-01-11 | 中国科学院深圳先进技术研究院 | 障碍物检测的方法及机器人 |
CN109087346B (zh) * | 2018-09-21 | 2020-08-11 | 北京地平线机器人技术研发有限公司 | 单目深度模型的训练方法、训练装置和电子设备 |
-
2019
- 2019-06-27 CN CN201910566416.2A patent/CN112149458A/zh active Pending
- 2019-11-26 KR KR1020217007268A patent/KR20210043628A/ko active Search and Examination
- 2019-11-26 WO PCT/CN2019/120833 patent/WO2020258703A1/zh active Application Filing
- 2019-11-26 JP JP2021513777A patent/JP2021536071A/ja not_active Ceased
- 2019-11-26 SG SG11202013264YA patent/SG11202013264YA/en unknown
-
2020
- 2020-12-30 US US17/137,542 patent/US20210117704A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955943A (zh) * | 2014-05-21 | 2014-07-30 | 西安电子科技大学 | 基于融合变化检测算子与尺度驱动的无监督变化检测方法 |
JP2016110656A (ja) * | 2014-12-09 | 2016-06-20 | 株式会社リコー | オブジェクト追跡方法及び装置 |
JP2019502213A (ja) * | 2016-01-14 | 2019-01-24 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 時系列に基づいたデータ予測方法及び装置 |
US20180231871A1 (en) * | 2016-06-27 | 2018-08-16 | Zhejiang Gongshang University | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF |
CN108725440A (zh) * | 2018-04-20 | 2018-11-02 | 深圳市商汤科技有限公司 | 前向碰撞控制方法和装置、电子设备、程序和介质 |
CN109508673A (zh) * | 2018-11-13 | 2019-03-22 | 大连理工大学 | 一种基于棒状像素的交通场景障碍检测与识别方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20210043628A (ko) | 2021-04-21 |
US20210117704A1 (en) | 2021-04-22 |
WO2020258703A1 (zh) | 2020-12-30 |
SG11202013264YA (en) | 2021-01-28 |
CN112149458A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021536071A (ja) | 障害物検出方法、知的運転制御方法、装置、媒体、及び機器 | |
CN109635685B (zh) | 目标对象3d检测方法、装置、介质及设备 | |
US20220076444A1 (en) | Methods and apparatuses for object detection, and devices | |
CN110826357B (zh) | 对象三维检测及智能驾驶控制的方法、装置、介质及设备 | |
JP2021523443A (ja) | Lidarデータと画像データの関連付け | |
CN108985230A (zh) | 车道线检测方法、装置及计算机可读存储介质 | |
CN111582054B (zh) | 点云数据处理方法及装置、障碍物检测方法及装置 | |
JP7091485B2 (ja) | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 | |
CN111209825A (zh) | 一种用于动态目标3d检测的方法和装置 | |
CN111414807A (zh) | 一种基于yolo技术的潮水识别与危机预警方法 | |
US20210078597A1 (en) | Method and apparatus for determining an orientation of a target object, method and apparatus for controlling intelligent driving control, and device | |
CN117015792A (zh) | 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法 | |
US20220335572A1 (en) | Semantically accurate super-resolution generative adversarial networks | |
US20230087261A1 (en) | Three-dimensional target estimation using keypoints | |
CN117557784A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN112529011A (zh) | 目标检测方法及相关装置 | |
CN115147809B (zh) | 一种障碍物检测方法、装置、设备以及存储介质 | |
CN113284221B (zh) | 一种目标物检测方法、装置及电子设备 | |
KR20240012426A (ko) | 비제약 이미지 안정화 | |
CN113554882A (zh) | 用于输出信息的方法、装置、设备以及存储介质 | |
CN117372988B (zh) | 道路边界检测方法、装置、电子设备及存储介质 | |
CN115345919B (zh) | 一种深度确定方法、装置、电子设备以及存储介质 | |
CN117516561A (zh) | 地图构建方法、装置、设备、存储介质和程序产品 | |
CN117876387A (zh) | 图像分割方法及装置 | |
CN117636098A (zh) | 模型训练、目标检测、车辆控制方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220720 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20230324 |