JP2020173799A - 対象の三次元検出およびインテリジェント運転制御方法、装置、媒体および機器 - Google Patents
対象の三次元検出およびインテリジェント運転制御方法、装置、媒体および機器 Download PDFInfo
- Publication number
- JP2020173799A JP2020173799A JP2020062660A JP2020062660A JP2020173799A JP 2020173799 A JP2020173799 A JP 2020173799A JP 2020062660 A JP2020062660 A JP 2020062660A JP 2020062660 A JP2020062660 A JP 2020062660A JP 2020173799 A JP2020173799 A JP 2020173799A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- target
- key point
- detector
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 104
- 238000001514 detection method Methods 0.000 claims abstract description 167
- 230000008569 process Effects 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 claims description 35
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 25
- 238000009499 grossing Methods 0.000 claims description 25
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 24
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000010276 construction Methods 0.000 claims description 10
- 230000015654 memory Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 description 21
- 230000009286 beneficial effect Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
図1は、本開示の対象の三次元検出方法の一実施例のフローチャートである。
および
であり、被処理画像内の前記垂直エッジの中の高さは
である。ここで、
は*の絶対値を示す。
として表記される)は既知であり、1.5メートルなどであってもよい。目標対象の高さ値は、通常、目標対象の二次元座標系における垂直方向(Y軸など)の座標値を指す。本開示は、
を使用して、前記垂直エッジの鳥瞰図に対応するレイする点位置での単位ピクセルで表される距離を計算し、即ち真のスケール(
として表記される)であり、即ち、次の式(1)を使用して
を計算することができる。
は、事前に設定された目標対象の高さ値を示し、
は*の絶対値を示し、
は、垂直エッジの1つの端点の二次元座標の垂直方向(Y軸など)の座標値を示し、
は、垂直エッジの別の端点の二次元座標の垂直方向の座標値を示す。
ステップ2において、前記取得した距離および撮影装置のパラメータに従って、前記垂直エッチの深度情報を決定する。
として表記される)および光学中心オフセット(
として表記される)を含む。撮影装置のパラメータは、通常、既知の値である。撮影装置から特定の距離にある平面上の任意の方向の単位ピクセルが表される真のスケールは同じであるため、本開示は、
を使用して前記垂直エッジの三次元座標系における水平方向(X軸など)の座標を取得し、ここでの
は光学中心オフセットである。図5の
は
を満たす。それにより、本開示は、次の式(2)を使用して垂直エッジ上の端点の深度情報(
として表記される)を計算することができる。
は、垂直エッジの1つの端点の二次元座標の水平方向(X軸など)の座標値を示し、
は、垂直エッジの1つの端点の三次元座標系における深度方向(Z軸など)の座標を示し、
は撮影装置の焦点距離を示し、
は光学中心オフセットを示す。
を掛け算することによって、水平エッジの左面図または右面図上の投影されたエッジを取得することができ、ここでの
は、擬似三次元検出体の水平エッジと撮影装置のZ軸の間の角度を示し、その後、本開示は、次の式(3)によって、投影されたエッジ上の単位ピクセルによって示される距離(
として表記される)を計算することができる。
は、水平エッジの左側の端点の二次元座標の水平方向の座標値(X軸の座標値など)を示し、
は、水平エッジの右側の端点の二次元座標の水平方向の座標値(X軸の座標値など)を示し、
は、擬似三次元検出体の水平エッジと撮影装置のZ軸の間の角度を示し、
である。
および撮影装置のパラメータに従って、次の式(4)を使用して水平エッジの2つの端点の深度情報(それぞれ
および
として表記される)を計算して、擬似三次元検出体の対応する頂点の深度情報を取得する。
は、水平エッジの左側の端点の二次元座標の水平方向の座標値(X軸の座標値など)を示し、
は、水平エッジの右側の端点の二次元座標の水平方向の座標値(X軸の座標値など)を示し、
は、垂直エッジの1つの端点の三次元座標系における深度方向(Z軸など)の座標を示し、
は、撮影装置の焦点距離を示し、
は、光学中心オフセットを示し、
は、水平エッジの左側の端点の深度情報を示し、
は、水平エッジの右側の端点の深度情報を示す。
は、撮影装置のパラメータを示し、
、
、
は、端点の三次元座標を示し、即ち端点の現実世界の三次元空間における三次元座標であり、ここでの
は、前記取得した端点の深度情報を代入することができ、
および
は、端点の二次元座標を示し、即ち端点の被処理画像の座標系の二次元座標であり、
はスケーリング係数を示し、
は
と同じであってもよい。
前記式(5)は、次の式(6)の方式で示されることができる。
式(6)
、
および
を解くことができ(もちろん、
と
が等しい場合、変数
および
を解けることができる)、それにより端点の三次元座標を取得し、即ち
である。本開示は、式(6)を介して擬似三次元検出体のすべての端点(8つの端点など)の三次元座標を取得することができ、前記式(6)を介して擬似三次元検出体の三次元座標を先に取得し、その後、三次元検出体の各垂直エッジ間の垂直、平行および同じ高さなどの関係に従って、擬似三次元検出体の別の一部の端点の三次元座標を取得することができる。例えば、図6において、擬似三次元検出体Fの第3のピラーZZ3は、鳥瞰図Nのa点に対応し、擬似三次元検出体Fの第1のピラーZZ1は、鳥瞰図Nのb点に対応し、擬似三次元検出体Fの第2のピラーZZ2は、鳥瞰図Nのc点に対応し、abとbcをそれぞれ接続し、abはbcに垂直であり、第4のピラーの鳥瞰図Nにおける点は、平行および垂直の関係によって取得することができ、それにより、第4のピラーの2つの端点の深度情報を決定することができ、三次元空間における2つの端点の三次元座標を計算する。
は、適合された履歴ビデオフレームを最適化する値を示し、5つの履歴ビデオフレームを使用して適合する場合では、
、
は、履歴ビデオフレームに対応する時間を示し、5つの履歴ビデオフレームを使用して適合する場合は、
、
、
および
は、二次関数の係数を示す。
、
および
を先に取得することができ、その後、式(7)をさらに使用して現在のビデオフレームの予測結果
を取得する。
は、予測結果に対応する重みを示し、
は予測結果を示し、
は、現在のビデオフレームの対象の三次元検出結果に対応する重みを示し、
は、現在のビデオフレームの対象の三次元検出結果を示し、
は、平滑化処理後の現在のビデオフレームの対象の三次元検出結果を示す。
および
と設定することができ、さらに例えば、予測結果が現在のビデオフレームの対象の三次元検出結果と大きな違いがある(差が所定の値に達するなど)場合、
および
と設定してもよく、
および
などと設定してもよい。本開示は、重みの具体的な値の取り方に対して限定しない。
および後輪の接地キーポイントの二次元座標
に従って、前輪の接地キーポイントと後輪の接地キーポイントの間の距離
を先に決定し、その後、前輪の接地キーポイントおよび後輪の接地キーポイントから両方の連結線の方向に沿って、それぞれ外側に拡張して、断面の長さを形成し、断面の長さは
であってもよく、ここでの
は所定の拡大率であり、
は0より大きく、1以下の小数以下(0.3や0.2など)であり、例えば、前輪の接地キーポイントおよび後輪の接地キーポイントから両方の連結線の方向に沿って、それぞれ外側に
を拡張して、断面の長さ
を形成し、その後、ハンドルバーの中心キーポイントから前記連結線までの垂直距離を、断面の高さとして使用して、断面を形成する。いくつかの適用シナリオにおいて、前記例における垂直距離は、ハンドルバーの中心キーポイントから始め、重力の方向に沿って下向きの線を作成し、前記下向きの線と前記連結線の間に交差点が存在し、ハンドルバーの中心キーポイントから前記交差点までの長さは即ち垂直距離であり得る。さらに、所定のキーポイントが、前輪の先端キーポイントおよび後輪の後端キーポイントをさらに含むと、前輪の接地キーポイントおよび後輪の接地キーポイントから両方の連結線の方向に沿って、それぞれ外側に拡張する場合、拡張する長さは、前輪の先端キーポイントおよび後輪の後端キーポイントの位置に従って決定することができる。
および後輪の接地キーポイントの二次元座標
に従って、前輪の接地キーポイントと後輪の接地キーポイントの間の距離
を先に決定し、その後、前輪の接地キーポイントおよび後輪の接地キーポイントから両方の連結線の方向に沿って、それぞれ外側に拡張して、断面の長さを形成し、断面の長さは
であってもよく、ここでの
は所定の拡大率、
は0より大きく、1以下の小数以下(0.3や0.2など)であり、例えば、前輪の接地キーポイントおよび後輪の接地キーポイントから両方の連結線の方向に沿って、それぞれ外側に
を拡張して、断面の長さ
を形成し、その後、車両運転者の頭頂部キーポイントから前記連結線の垂直距離を、断面の高さとして使用して、断面を形成する。いくつかの適用シナリオにおいて、前記例における垂直距離は、頭頂部キーポイントから始め、重力の方向に沿って下向きの線を作成し、前記下向きの線と前記連結線の間に交差点が存在し、頭頂部キーポイントから前記交差点までの長さは、即ち垂直距離であり得る。さらに、所定のキーポイントが、前輪の先端キーポイントおよび後輪の後端キーポイントをさらに含むと、前輪の接地キーポイントおよび後輪の接地キーポイントから両方の連結線の方向に沿って、それぞれ外側に拡張する場合、拡張する長さは、前輪の先端キーポイントおよび後輪の後端キーポイントの位置に従って決定することができる。
であり、キーポイント1の二次元平面の座標が
であろと仮定すると、本開示は、
をベース面の法線ベクトルとして使用することができる。
である。前記法線ベクトルは準ベース面の下端のエッジであってもよく、本開示はキーポイント7を通る第3の垂直線を形成し、キーポイント7が第1の線または第2の線に平行する第3の線を形成することによって、ベース面の左上隅部の頂点は前記法線ベクトルの方向に沿って拡張され、第3の垂直線と交差して、準ベース面の上端のエッジを形成し、前記交差点とキーポイント8との連結線は、ベース面の右上隅部の頂点が法線ベクトルの方向に沿って拡張した線と交差し、前記交差点を通る第4の垂直線を作成し、第4の垂直線はベース面の右下隅部の頂点の法線ベクトルの方向に沿って拡張した線と交差して、二次元空間に、擬似三次元検出体を形成する。本開示が被処理画像内の目標対象(四輪自動車)のために形成した擬似三次元検出体の一例は図11に示されたようである。
図16は、本開示の実現に適用する例示的な機器1600を示し、機器1600は、車両に設置された制御システム/電子システム、モバイル端末(スマートフォンなど)、パーソナルコンピュータ(PC、デスクトップコンピュータまたはノートコンピュータなど)、タブレットおよびサーバなどであってもよい。図16において、機器1600は、1つまたは複数のプロセッサ、通信部などを含み、前記1つまたは複数のプロセッサは、1つまたは複数の中央処理装置(CPU)1601、および/または、1つまたは複数の加速ユニット1613を含み、加速ユニットは、グラフィック処理ユニット(GPU)、プログラマブルロジックアレイ(FPGA)などを含み得るが、これらに限定されなく、プロセッサは、読み取り専用メモリ(ROM)1602に記憶された実行可能な命令または記憶部1608からランダムアクセスメモリ(RAM)1603にロードされた実行可能な命令に従って、様々な適切な動作および処理を実行することができる。通信ユニット1612は、ネットワークカードを含み得るが、これらに限定されなく、前記ネットワークカードは、IB(Infiniband)ネットワークカードを含み得るが、これらに限定されない。プロセッサは、読み取り専用メモリ1602および/またはランダムアクセスメモリ1603と通信して、実行可能な命令を実行し、バス1604を介して通信ユニット1612に接続し、通信ユニット1612を介して他のターゲット機器と通信して、本開示における対応するステップを完了することができる。前記各命令によって実行される動作は、前記方法の実施例における関連する説明を参照し、ここでは、再び詳細に説明しない。なお、RAM1603は、さらに、装置の動作に必要な様々なプログラムおよびデータを記憶することができる。CPU1601、ROM1602およびRAM1603は、バス1604を介して相互に接続される。
Claims (22)
- 対象の三次元検出方法であって、
被処理画像内の目標対象の少なくとも1つの所定のキーポイントの二次元座標を取得することと、
前記所定のキーポイントの二次元座標に従って、前記二次元空間における目標対象の擬似三次元検出体を構築することと、
前記擬似三次元検出体の複数の頂点の深度情報を取得することと、
前記擬似三次元検出体の複数の頂点の深度情報に従って、前記三次元空間における目標対象の三次元検出体を決定することとを含むことを特徴とする、前記対象の三次元検出方法。 - 前記所定のキーポイントの二次元座標に従って、前記二次元空間における目標対象の擬似三次元検出体を構築することは、
前記所定のキーポイントの二次元座標に従って、長さ方向の目標対象の断面を決定することであって、前記目標対象の長さは、擬似三次元検出体の長さに対応することと、
前記断面の各頂点をそれぞれ開始点とし、前記断面の垂直な方向に沿って、前記目標対象の厚さの半分を両側にそれぞれ延長して、前記二次元空間における目標対象の擬似三次元検出体を形成することとを含むことを特徴とする、
請求項1に記載の対象の三次元検出方法。 - 前記目標対象は、二輪自動車、二輪の非自動運転車両、二輪自動車およびその運転者、または二輪の非自動運転車両およびその運転者を含み、前記所定のキーポイントは、前輪の中心キーポイント、後輪の中心キーポイント、前輪の先端キーポイント、後輪の後端キーポイント、前輪の接地キーポイント、後輪の接地キーポイント、シートサポートキーポイント、ペダルベアリングキーポイント、ハンドルバーの中心キーポイント、ハンドルバーの両端キーポイント、運転者の頭頂部キーポイント、運転者の肩の2つのキーポイントのうちの少なくとも1つを含み、
前記所定のキーポイントの二次元座標に従って、長さ方向の目標対象の断面を決定することは、
前輪の接地キーポイントの二次元座標および後輪の接地キーポイントの二次元座標に従って、前輪の接地キーポイントと後輪の接地キーポイントの間の距離を決定することと、
前輪の接地キーポイントおよび後輪の接地キーポイントから両方の連結線を沿って、それぞれ外側に拡張して、前記断面の長さを形成することと、
ハンドルバーの中心キーポイントの二次元座標または前記車両運転者の頭頂部キーポイントの二次元座標から前記連結線までの垂直距離を、前記断面の高さとして使用することとを含むことを特徴とする、
請求項2に記載の対象の三次元検出方法。 - 前記目標対象の厚さは、プリセットの厚さ値を含み、または、
前記目標対象の厚さは、前記ハンドルバーの両端キーポイントの二次元座標に従って決定されるハンドルバーの両端間の距離、または、
前記運転者の肩の2つのキーポイントの二次元座標に従って決定される運転者の両肩の間の距離を含むことを特徴とする、
請求項3に記載の対象の三次元検出方法。 - 前記所定のキーポイントの二次元座標に従って、前記二次元空間における目標対象の擬似三次元検出体を構築することは、
所定のキーポイントと目標対象に含まれる面との間の所定の帰属関係に従って、目標対象の少なくとも1つの構造面を決定することと、
前記構造面および所定のキーポイントの二次元座標に従って、前記二次元空間における目標対象の擬似三次元検出体を構築することとを含むことを特徴とする、
請求項1に記載の対象の三次元検出方法。 - 前記目標対象は、二輪以上の自動車または二輪以上の非自動運転車両を含み、前記目標対象の擬似三次元検出体を構築するために使用される所定のキーポイントは、
車両の左前隅部キーポイント、車両ルーフの左前隅部キーポイント、車両ルーフの左後隅部キーポイント、車両の左後隅部キーポイント、左後輪の底部キーポイント、左前輪の底部キーポイント、車両の右前隅部キーポイント、車両ルーフの右前隅部キーポイント、車両ルーフの右後隅部キーポイント、車両の右後隅部キーポイント、右後輪の底部キーポイント、右前輪の底部キーポイント、車両ドアキーポイント、バックミラーキーポイント、ナンバープレートキーポイントおよびライトキーポイントのうちの少なくとも2つを含むことを特徴とする、
請求項5に記載の対象の三次元検出方法。 - 前記少なくとも1つの構造面は、1つのベース面を含み、
前記所定のキーポイントと目標対象に含まれる面との間の所定の帰属関係に従って、目標対象の少なくとも1つの構造面を決定することは、
所定のキーポイントと目標対象に含まれる面との間の所定の帰属関係に従って、所定のキーポイントの数を最も多く含む面をベース面として使用することを含み、
前記構造面および所定のキーポイントの二次元座標に従って、前記二次元空間における目標対象の擬似三次元検出体を構築することは、
前記ベース面の法線ベクトルを決定することと、
前記ベース面の頂点が法線ベクトルの方向に沿って拡張することに従って、前記擬似三次元検出体を形成することとを含み、
前記ベース面の法線ベクトルを決定することは、
前記ベース面に属さない所定のキーポイントの中で最も信頼性が高い所定のキーポイントから前記ベース面へ作った垂直線を、前記ベース面の法線ベクトルとして使用すること、または
前記ベース面の隣接面での、前記ベース面に垂直なエッジ上の2つの所定のキーポイントの座標差を、前記ベース面の法線ベクトルとして使用することを含むことを特徴とする、
請求項5または6に記載の対象の三次元検出方法。 - 前記少なくとも1つの構造面は、1つのベース面および1つの準ベース面を含み、
前記所定のキーポイントと目標対象に含まれる面との間の所定の帰属関係に従って、目標対象の少なくとも1つの構造面を決定することは、
所定のキーポイントと目標対象に含まれる面との間の所定の帰属関係に従って、所定のキーポイントの数を最も多く含む面をベース面として使用し、前記ベース面に隣接し、且つベース面に属する所定のキーポイント以外の他の所定のキーポイントの数を最も多く含む面を準ベース面として使用することを含み、
前記構造面および所定のキーポイントの二次元座標に従って、前記二次元空間における目標対象の擬似三次元検出体を構築することは、
前記準ベース面の所定のキーポイントから前記ベース面へ作った垂直線を、前記ベース面の法線ベクトルとして使用することと、
前記ベース面の頂点が前記法線ベクトルの方向に沿って拡張することに従って、前記擬似三次元検出体を形成することとを含むことを特徴とする、
請求項5または6に記載の対象の三次元検出方法。 - 前記被処理画像内の目標対象の少なくとも1つの所定のキーポイントの二次元座標を取得することは、
前記被処理画像に対して目標対象の検出を実行して、目標対象の少なくとも一部を含む二次元目標検出フレームを取得することと、
前記被処理画像の前記二次元目標検出フレームに対応する画像部分に対してキーポイント検出を実行することと、
前記目標対象のキーポイント検出結果における信頼性がプリセットの信頼性の閾値を超えるキーポイントを、前記目標対象の所定のキーポイントとして使用することとを含むことを特徴とする、
請求項1ないし8のいずれか一項に記載の対象の三次元検出方法。 - 前記目標対象は、二輪自動車およびその運転者を含み、前記被処理画像に対して目標対象の検出を実行して、目標対象の少なくとも一部を含む二次元目標検出フレームを取得することは、前記被処理画像に対して目標対象の検出を実行して、前記二輪自動車を含む二次元目標検出フレームまたは前記二輪自動車およびその運転者を含む二次元目標検出フレームを取得することを含み、または、
前記目標対象は、二輪の非自動運転車両およびその運転者を含み、前記被処理画像に対して目標対象の検出を実行して、目標対象の少なくとも一部を含む二次元目標検出フレームを取得することは、前記被処理画像に対して目標対象の検出を実行して、前記二輪の非自動運転車両を含む二次元目標検出フレームまたは前記二輪の非自動運転車両およびその運転者を含む二次元目標検出フレームを取得することを含むことを特徴とする、
請求項9に記載の対象の三次元検出方法。 - 前記擬似三次元検出体の複数の深度情報を取得することは、
前記擬似三次元検出体の1つの垂直エッジの2つの端点の前記被処理画像内の二次元座標およびプリセットの前記目標対象の高さ値に従って、前記垂直エッジの鳥瞰図に対応するレイ上の点位置の単位ピクセルで表される距離を取得することであって、レイの原点は、前記被処理画像を形成する撮影装置の前記鳥瞰図における位置であることと、
前記距離および前記撮影装置のパラメータに従って、前記垂直エッジの2つの端点の深度情報を決定することとを含み、
または、
前記擬似三次元検出体の1つの水平方向のエッジの2つの端点の前記被処理画像内の二次元座標およびプロセットの前記目標対象の幅値に従って、前記水平方向のエッジの左面図/右面図の対応する投影線分の単位ピクセルで表される距離を取得することと、
前記距離および前記撮影装置のパラメータに従って、前記水平方向のエッジの2つの端点の深度情報を取得することとを含むことを特徴とする、
請求項1ないし10のいずれか一項に記載の対象の三次元検出方法。 - 前記距離および前記撮影装置のパラメータに従って、前記垂直エッジの2つの端点の深度情報を決定し、または、前記距離および前記撮影装置のパラメータに従って、前記水平方向のエッジの2つの端点の深度情報を決定することは、
前記端点の二次元座標の水平方向の座標と光学中心オフセットの差と前記距離の積を、前記端点の三次元座標系における水平方向の座標として使用することと、
前記撮影装置の焦点距離と前記端点の三次元座標系の水平方向の座標との積と、前記端点の二次元座標の水平方向の座標と光学中心オフセットの差の比率を、前記端点の三次元座標系における深度方向の座標として使用することとを含むことを特徴とする、
請求項11に記載の対象の三次元検出方法。 - 前記擬似三次元検出体の複数の頂点の深度情報に従って、前記三次元空間における目標対象の三次元検出体を決定することは、
前記擬似三次元検出体の少なくとも4つの頂点の二次元座標および前記少なくとも4つの頂点の深度情報に従って、前記少なくとも4つの端点の三次元座標を決定することと、
前記少なくとも4つの頂点以外に、他の頂点が存在する場合、前記擬似三次元検出体のエッジとエッジとの間の位置関係に従って、前記他の頂点の三次元座標を決定することとを含むことを特徴とする、
請求項1ないし12のいずれか一項に記載の対象の三次元検出方法。 - 前記少なくとも4つの頂点は、前記被処理画像を形成する撮影装置に最も近い少なくとも1つの垂直エッジの端点を含むことを特徴とする、
請求項13に記載の対象の三次元検出方法。 - 前記三次元空間における目標対象の三次元検出体を決定した後、前記方法は、
二次元平面の擬似三次元検出体に従って、三次元空間の三次元検出体を調整して、調整後の三次元検出体の二次元平面にマッピングされた投影グラフィック領域と前記擬似三次元検出体の面積のオーバーラップを改善すること、
前記目標対象のプロセットの長さ、幅、高さの比率に従って、前記三次元検出体を調整すること、
前記目標対象の被処理画像内の二次元目標検出フレームに従って、前記三次元検出体を調整して、調整後の三次元検出体の二次元平面にマッピングされた投影グラフィック領域が前記二次元目標検出フレームに属するようにすることのうちの少なくとも1つをさらに含むことを特徴とする、
請求項1ないし14のいずれか一項に記載の対象の三次元検出方法。 - 前記方法は、
目標対象の所定のキーポイントを取得しないことに応答して、対象の三次元検出処理を実行せず、前記目標対象を取得する二次元目標検出の動作を実行すること、または、
目標対象のキーポイントを取得しないことに応答して、レーダ測距装置に基づいて取得した点群データに従って目標対象の三次元検出を実現することをさらに含むことを特徴とする、
請求項1ないし15のいずれか一項に記載の対象の三次元検出方法。 - 前記三次元空間における目標対象の三次元検出体を決定した後、前記方法は、
タイミング関係を有する複数の被処理画像の同じ三次元空間における目標対象の三次元検出体を平滑化処理することをさらに含み、
前記平滑化処理は、三次元検出体の長さ、幅、高さの平滑化処理、三次元検出体の移動方向の平滑化処理、三次元検出体の鳥瞰図の中心点の平滑化処理および三次元検出体の頂点の平滑化処理のうちの少なくとも1つを含み、
および/または、
前記三次元空間における目標対象の三次元検出体を決定した後、前記方法は、
前記三次元空間における目標対象の三次元検出体に従って、前記目標対象の情報を決定することをさらに含み、前記目標対象の情報は、
前記目標対象の向き情報、前記目標対象の空間サイズ情報、前記目標対象が位置する車線情報、前記目標対象の移動予測情報、前記目標対象と前記被処理画像を撮影する撮影装置との間の距離情報、前記目標対象と前記被処理画像を撮影する撮影装置との間の位置情報のうちの少なくとも1つを含むことを特徴とする、
請求項1ないし16のいずれか一項に記載の対象の三次元検出方法。 - インテリジェント運転制御方法であって、
車両に設置された撮影装置を介して前記車両の位置する道路上のビデオストリームを取得することと、
請求項1ないし17のいずれか一項に記載の方法を採用して、前記ビデオストリームに含まれる少なくとも1フレームの画像に対して目標対象の三次元検出を実行して、前記三次元空間における目標対象の三次元検出体を取得することと、
前記三次元検出体に従って前記車両の制御命令を生成することと、
前記車両に前記車両の制御命令を送信することとを含むことを特徴とする、前記インテリジェント運転制御方法。 - 対象の三次元検出装置であって、
被処理画像内の目標対象の少なくとも1つの所定のキーポイントの二次元座標を取得するように構成される二次元座標取得モジュールと、
前記所定のキーポイントの二次元座標に従って、前記二次元空間における目標対象の擬似三次元検出体を構築するように構成される構築モジュールと、
前記擬似三次元検出体の複数の頂点の深度情報を取得するように構成される深度情報取得モジュールと、
前記擬似三次元検出体の複数の頂点の深度情報に従って、前記三次元空間における目標対象の三次元検出体を決定するように構成される三次元検出体決定モジュールとを含むことを特徴とする、前記対象の三次元検出装置。 - インテリジェント運転制御装置であって、
車両に設置された撮影装置を介して前記車両が位置する道路のビデオストリームを取得するように構成されるビデオストリーム取得モジュールと、
前記ビデオストリームに含まれる少なくとも1フレームの画像に対して目標対象の三次元検出を実行して、前記三次元空間における目標対象の三次元検出体を取得するように構成される対象の三次元検出装置と、
前記三次元検出体に従って前記車両の制御命令を生成するように構成される命令生成モジュールと、
前記車両に前記車両の制御命令を送信するように構成される命令送信モジュールとを含むことを特徴とする、前記インテリジェント運転制御装置。 - 電子機器であって、
コンピュータプログラムを記憶するように構成されるメモリと、
前記メモリに記憶されたコンピュータプログラムを実行するように構成されるプロセッサとを含み、前記コンピュータプログラムが実行される時に、請求項1ないし18のいずれか一項に記載の方法を実現する、前記電子機器。 - コンピュータプログラムが記憶されるコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行される時に、請求項1ないし18のいずれか一項に記載の対象の三次元検出方法を実現する、前記コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910281899.1A CN111857111A (zh) | 2019-04-09 | 2019-04-09 | 对象三维检测及智能驾驶控制方法、装置、介质及设备 |
CN201910281899.1 | 2019-04-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020173799A true JP2020173799A (ja) | 2020-10-22 |
JP7002589B2 JP7002589B2 (ja) | 2022-02-10 |
Family
ID=72747439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020062660A Active JP7002589B2 (ja) | 2019-04-09 | 2020-03-31 | 対象の三次元検出およびインテリジェント運転制御方法、装置、媒体および機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11138756B2 (ja) |
JP (1) | JP7002589B2 (ja) |
CN (1) | CN111857111A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022269980A1 (ja) * | 2021-06-24 | 2022-12-29 | 日立Astemo株式会社 | 外界認識装置、および、外界認識方法 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
WO2020040734A1 (en) * | 2018-08-21 | 2020-02-27 | Siemens Aktiengesellschaft | Orientation detection in overhead line insulators |
JP7336367B2 (ja) * | 2019-11-22 | 2023-08-31 | 株式会社Subaru | 車外環境認識装置 |
US11851060B2 (en) | 2020-03-15 | 2023-12-26 | Ron Zass | Controlling vehicles in response to windows |
CN112967339B (zh) * | 2020-12-28 | 2023-07-25 | 北京市商汤科技开发有限公司 | 一种车辆位姿的确定方法、车辆控制方法及装置、车辆 |
CN112819880A (zh) * | 2021-01-07 | 2021-05-18 | 北京百度网讯科技有限公司 | 三维物体检测方法、装置、设备及存储介质 |
US11475628B2 (en) * | 2021-01-12 | 2022-10-18 | Toyota Research Institute, Inc. | Monocular 3D vehicle modeling and auto-labeling using semantic keypoints |
CN113256709A (zh) * | 2021-04-13 | 2021-08-13 | 杭州飞步科技有限公司 | 目标检测方法、装置、计算机设备以及存储介质 |
CN113223104B (zh) * | 2021-04-16 | 2023-03-24 | 山东师范大学 | 一种基于因果关系的心脏mr图像插补方法及系统 |
CN113128434B (zh) * | 2021-04-27 | 2023-11-21 | 南京大学 | 一种对单目rgb图像进行3d目标检测的方法 |
CN113344998B (zh) * | 2021-06-25 | 2022-04-29 | 北京市商汤科技开发有限公司 | 深度检测方法、装置、计算机设备及存储介质 |
CN113643350B (zh) * | 2021-07-21 | 2023-09-12 | 宜宾中星技术智能系统有限公司 | 在视频画面上进行立体测量的方法、装置、终端设备 |
CN116681758A (zh) * | 2022-02-23 | 2023-09-01 | 北京百度网讯科技有限公司 | 车辆的姿态估计方法、装置、电子设备及存储介质 |
CN114581831B (zh) * | 2022-03-04 | 2022-09-20 | 广东工业大学 | 基于图像和点云的无人机障碍物检测和避障方法及系统 |
WO2023245635A1 (en) * | 2022-06-24 | 2023-12-28 | Intel Corporation | Apparatus and method for object detection |
CN115393423A (zh) * | 2022-09-19 | 2022-11-25 | 北京京东尚科信息技术有限公司 | 目标检测方法和装置 |
TWI838018B (zh) * | 2022-12-16 | 2024-04-01 | 鴻海精密工業股份有限公司 | 車輛控制方法、電腦設備及儲存介質 |
CN116067474A (zh) * | 2023-02-21 | 2023-05-05 | 广州计量检测技术研究院 | 一种基于深度学习检测识别的电子台案秤智能检定方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527705A (ja) * | 2009-05-19 | 2012-11-08 | ディジマーク コーポレイション | 物体認識用のヒストグラム方法及びシステム |
JP2018195037A (ja) * | 2017-05-17 | 2018-12-06 | 株式会社Subaru | 車外環境認識装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008535116A (ja) * | 2005-04-07 | 2008-08-28 | エヌエックスピー ビー ヴィ | 3次元レンダリング用の方法及び装置 |
US8717416B2 (en) * | 2008-09-30 | 2014-05-06 | Texas Instruments Incorporated | 3D camera using flash with structured light |
US8593574B2 (en) * | 2010-06-30 | 2013-11-26 | At&T Intellectual Property I, L.P. | Apparatus and method for providing dimensional media content based on detected display capability |
JP5100874B1 (ja) * | 2011-08-31 | 2012-12-19 | 株式会社東芝 | 映像処理装置および映像処理方法 |
US9471988B2 (en) * | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
US20130136336A1 (en) * | 2011-11-24 | 2013-05-30 | Kabushiki Kaisha Toshiba | Image processing apparatus and controlling method for image processing apparatus |
KR101339900B1 (ko) * | 2012-03-09 | 2014-01-08 | 한국과학기술연구원 | 2차원 단일 영상 기반 3차원 몽타주 생성 시스템 및 방법 |
US20150011824A1 (en) * | 2013-07-08 | 2015-01-08 | Yi Sun Wilkinson | Endoscope with Electrically Adjustable Liquid Crystal Adaptive Lens |
JPWO2017154606A1 (ja) * | 2016-03-10 | 2019-01-10 | ソニー株式会社 | 情報処理装置および情報処理方法 |
KR102029895B1 (ko) * | 2016-09-30 | 2019-11-08 | (주)태성에스엔아이 | 구조물 손상 정보가 매핑된 3차원 모델 생성 방법 및 이를 실행시키는 프로그램이 기록된 기록 매체 |
JP6965891B2 (ja) * | 2016-11-07 | 2021-11-10 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
EP3465267A4 (en) * | 2017-08-25 | 2019-05-22 | Beijing Didi Infinity Technology and Development Co., Ltd. | METHODS AND SYSTEMS FOR DETECTING ENVIRONMENTAL INFORMATION OF A VEHICLE |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
CN109697749A (zh) * | 2017-10-20 | 2019-04-30 | 虹软科技股份有限公司 | 一种用于三维建模的方法和装置 |
JP7223978B2 (ja) * | 2018-05-23 | 2023-02-17 | パナソニックIpマネジメント株式会社 | 校正装置および校正方法 |
JP7113375B2 (ja) * | 2018-07-11 | 2022-08-05 | パナソニックIpマネジメント株式会社 | 表示装置、画像処理装置及び制御方法 |
DE102019124290A1 (de) * | 2018-09-13 | 2020-03-19 | Aisin Seiki Kabushiki Kaisha | Vorrichtung zur Erzeugung Dreidimensionaler Skelettinformationen |
US10733800B2 (en) * | 2018-09-17 | 2020-08-04 | Facebook Technologies, Llc | Reconstruction of essential visual cues in mixed reality applications |
KR20210011657A (ko) * | 2019-07-23 | 2021-02-02 | 에스케이하이닉스 주식회사 | 반도체 소자의 분석 시스템 및 방법 |
-
2019
- 2019-04-09 CN CN201910281899.1A patent/CN111857111A/zh active Pending
-
2020
- 2020-03-31 JP JP2020062660A patent/JP7002589B2/ja active Active
- 2020-04-01 US US16/837,483 patent/US11138756B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012527705A (ja) * | 2009-05-19 | 2012-11-08 | ディジマーク コーポレイション | 物体認識用のヒストグラム方法及びシステム |
JP2018195037A (ja) * | 2017-05-17 | 2018-12-06 | 株式会社Subaru | 車外環境認識装置 |
Non-Patent Citations (2)
Title |
---|
FLORIAN CHABOT, ET AL.: "Deep MANTA:A Coarse-to-fine Many-Task Network for joint 2D and 3D vehicle analysis from monocular im", PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), 2017, JPN7021001724, 2017, US, pages 2040 - 2049, ISSN: 0004508373 * |
ZENGYI QIN, ET AL.: "MonoGRNet: A Geometric Reasoning Network for Monocular 3D Object Localization", ARXIV, JPN7021001725, 2018, US, ISSN: 0004508374 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022269980A1 (ja) * | 2021-06-24 | 2022-12-29 | 日立Astemo株式会社 | 外界認識装置、および、外界認識方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200327690A1 (en) | 2020-10-15 |
CN111857111A (zh) | 2020-10-30 |
US11138756B2 (en) | 2021-10-05 |
JP7002589B2 (ja) | 2022-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7002589B2 (ja) | 対象の三次元検出およびインテリジェント運転制御方法、装置、媒体および機器 | |
JP6949266B2 (ja) | 対象三次元検出及びスマート運転制御方法、装置、媒体並びに機器 | |
JP7282080B2 (ja) | 二次元画像および点群データからの三次元境界ボックス | |
JP7101255B2 (ja) | 目標対象の運動の向きを予測するための方法、車両制御方法及び装置 | |
WO2019202397A2 (en) | Vehicle environment modeling with a camera | |
CN109214980A (zh) | 一种三维姿态估计方法、装置、设备和计算机存储介质 | |
WO2022053015A1 (zh) | 基于单目图像的目标检测方法和装置 | |
CN100492412C (zh) | 体三维显示中的体素数据生成方法 | |
JP7091485B2 (ja) | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 | |
CN116645649B (zh) | 车辆位姿及尺寸估计方法、设备及存储介质 | |
US20210078597A1 (en) | Method and apparatus for determining an orientation of a target object, method and apparatus for controlling intelligent driving control, and device | |
CN115375836A (zh) | 基于多元置信度滤波的点云融合三维重建方法和系统 | |
CN115082681A (zh) | 语义分割、环境感知方法、装置和无人车 | |
CN117315372A (zh) | 一种基于特征增强的三维感知方法 | |
CN116452748A (zh) | 一种基于可微分体积渲染的隐式三维重建方法、系统、存储介质及终端 | |
CN115222815A (zh) | 障碍物距离检测方法、装置、计算机设备和存储介质 | |
CN114648639A (zh) | 一种目标车辆的检测方法、系统及装置 | |
Ren et al. | Real-Time 3D Tele-operation of Unmanned Ground Vehicles | |
KR20230174353A (ko) | 차량의 사각지대를 시각화하는 전자 장치 및 그 동작 방법 | |
US20240153250A1 (en) | Neural shape machine learning for object localization with mixed training domains | |
US20220414887A1 (en) | Systems and methods for birds eye view segmentation | |
Druml et al. | A Smartphone-Based Virtual White Cane Prototype Featuring Time-of-Flight 3D Imaging | |
CN117994777A (zh) | 一种基于路侧相机的三维目标检测方法 | |
CN118113036A (zh) | 使用超声传感器用于自主系统及应用的传感器融合 | |
CN114266900A (zh) | 一种基于动态卷积的单目3d目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200401 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20200508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7002589 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |