JP2021529370A - ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器 - Google Patents
ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器 Download PDFInfo
- Publication number
- JP2021529370A JP2021529370A JP2020568297A JP2020568297A JP2021529370A JP 2021529370 A JP2021529370 A JP 2021529370A JP 2020568297 A JP2020568297 A JP 2020568297A JP 2020568297 A JP2020568297 A JP 2020568297A JP 2021529370 A JP2021529370 A JP 2021529370A
- Authority
- JP
- Japan
- Prior art keywords
- visible
- vehicle
- target
- points
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 126
- 238000004590 computer program Methods 0.000 claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 14
- 238000003709 image segmentation Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 description 11
- 230000006872 improvement Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0016—Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本願は、2019年5月31日に中国特許局提出された出願番号201910470314.0、発明名称「ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器」の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願のターゲット対象の向きの決定方法は、車両向き検出、ターゲット対象の3D検出及び車両軌跡フィッティングなどの多くの用途に適用可能である。例えば、ビデオにおける各ビデオフレームについて、本願の方法で各ビデオフレームにおける各車両の向きを決定することができる。また例えば、ビデオにおけるいずれか1つのビデオフレームについて、本願の方法で該ビデオフレームにおけるターゲット対象の向きを決定することができる。従って、ターゲット対象の向きを取得した上で、三次元空間での、該ビデオフレームにおけるターゲット対象の位置及びスケールを得て、3D検出を実現させることができる。また例えば、ビデオにおける複数の連続したビデオフレームについて、本願の方法で、複数のビデオフレームにおける同一の車両の向きをそれぞれ決定し、同一の車両の複数の向きを利用して車両の走行軌跡をフィッティングすることができる。
は、有効領域の点集合選択エリアの点集合を表す。
は画像における(例えば、画素点)の座標を表す。uminは、有効領域における点(例えば、画素点)の最小u座標を表す。umaxは、有効領域における点(例えば、画素点)の最大u座標を表す。vminは、有効領域における点(例えば、画素点)の最小v座標を表す。vmaxは、有効領域における点(例えば、画素点)の最大v座標を表す。
式(2)
上記式(2)において、Pは既知のパラメータであり、撮像装置の内部パラメータである。Pは、3×3行列であってもよく、つまり、
であってもよい。
及び
はいずれも撮像装置の焦点距離を表す。
は、画像のx座標軸での、撮像装置の光心を表す。a23は、画像のy座標軸での、撮像装置の光心を表す。行列における他のパラメータの値は、いずれもゼロである。X、Y及びZは、三次元空間における、点のX座標、Y座標及びZ座標を表す。wは、スケーリング変換比率を表し、且つwの値は、Zの値であってもよい。u及びvは、画像での、点の座標を表す。
は、*の転置行列を表す。
式(3)
本願における複数の点のu、v及びZは既知の値である。従って、上記式(3)により、複数の点のX及びYを得ることができる。これにより、本願は、三次元空間の水平面での、複数の点の位置情報を得る。つまり、X及びZを得る。つまり、画像における点を三次元空間に変換した後、上面図での該点の位置情報を得る。
又は
を利用して、フィッティングされた直線の勾配を調整することで、車両の向きを得ることができる。本願の直線フィッティング方式は、一次曲線フィッティング又は一次関数最小二乗フィッティングを含むが、これらに限定されない。
図16は、本願を実現させるための例示的な機器1600を示す。機器1600は、車両に配置された制御システム/電子システム、携帯端末(例えばスマートフォン等)、パーソナルコンピュータ(例えば、デスクトップコンピュータ又はノートパソコンなどのようなPC)、タブレット及びサーバ等の電子機器であってもよい。図16において、機器1600は、1つ又は複数のプロセッサ、通信部等を含む。前記1つ又は複数のプロセッサは、1つ又は複数の中央演算処理ユニット(CPU)1601、及び/又は、ニューラルネットワークを利用して視覚的追跡を行うための画像処理装置(GPU)1613等であってもよい。プロセッサは、読み出し専用メモリ(ROM)1602に記憶されている実行可能な命令又は記憶部1608からランダムアクセスメモリ(RAM)1603にロードされた実行可能な命令に基づいて、様々な適切な動作及び処理を実行することができる。通信パート1612は、ネットワークカードを含んでもよいが、これに限定されない。前記ネットワークカードは、IB(Infiniband)ネットワークカードを含んでもよいが、これに限定されない。プロセッサは、読み出し専用メモリ1602及び/又はランダムアクセスメモリ1603と通信して、実行可能な命令を実行し、バス1604を介して通信パート1612に接続され、通信パート1612を経由して他の対象装置と通信することで、本願におけるステップを完了する。
Claims (45)
- ターゲット対象の向きの決定方法であって、
画像におけるターゲット対象の可視面を取得することと、
三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することと、
前記位置情報に基づいて、前記ターゲット対象の向きを決定することと、を含むことを特徴とする、前記方法。 - 前記ターゲット対象は、車両を含むことを特徴とする
請求項1に記載の方法。 - 前記ターゲット対象は、
車両頂部前側、車両ヘッドライト前側及び車両シャーシ前側を含む車両前側面、
車両頂部後側、車両テールライト後側及び車両シャーシ後側を含む車両後側面、
車両頂部左側、車両ヘッドライト及びテールライトの左側面、車両シャーシ左側及び車両左側タイヤを含む車両左側面、
車両頂部右側、車両ヘッドライト及びテールライトの右側面、車両シャーシ右側及び車両右側タイヤを含む車両右側面のうちのすくなくとも1つを含むことを特徴とする
請求項2に記載の方法。 - 前記画像は、
移動可能な物体に設けられた撮像装置により撮られたビデオにおけるビデオフレーム、又は、
固定位置に設けられた撮像装置により撮られたビデオにおけるビデオフレームを含むことを特徴とする
請求項1から3のうちいずれか一項に記載の方法。 - 前記画像におけるターゲット対象の可視面を取得することは、
前記画像に対して画像分割処理を行うことと、
前記画像分割処理の結果に基づいて、画像におけるターゲット対象の可視面を得ることと、を含むことを特徴とする
請求項1から4のうちいずれか一項に記載の方法。 - 前記三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することは、
前記可視面の数が複数である場合、複数の可視面から、1つの可視面を、処理されるべき面として選択することと、
前記三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報を取得することと、を含むことを特徴とする
請求項1から5のうちいずれか一項に記載の方法。 - 前記複数の可視面から、1つの可視面を、処理されるべき面として選択することは、
前記複数の可視面から、1つの可視面をランダムに選択して処理されるべき面とすること、又は、
前記複数の可視面の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択すること、又は、
前記複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択すること、を含むことを特徴とする
請求項6に記載の方法。 - 前記可視面の有効領域は、可視面の全ての領域、又は、可視面の一部の領域を含むことを特徴とする
請求項7に記載の方法。 - 車両左/右側面の有効領域は、可視面の全ての領域を含み、
車両前/後側面の有効領域の面積は、可視面の一部の領域を含むことを特徴とする
請求項8に記載の方法。 - 前記複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択することは、
1つの可視面について、画像での該可視面における点の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定することと、
該可視面と前記位置枠との交差領域を該可視面の有効領域とすることと、
複数の可視面のうち、有効領域面積が最も大きい可視面を、処理されるべき面とすることと、を含むことを特徴とする
請求項7から9のうちいずれか一項に記載の方法。 - 前記画像での該可視面における点の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定することは、
前記画像での該可視面における点の位置情報に基づいて、有効領域選択用位置枠の1つの頂点位置及び該可視面の幅と高さを決定することと、
前記頂点位置、該可視面の幅の一部及び高さの一部に基づいて、該可視面に対応する位置枠を決定することと、を含むことを特徴とする
請求項10に記載の方法。 - 前記位置枠の1つの頂点位置は、画像での該可視面における複数の点の位置情報における最小x座標及び最小y座標に基づいて得られた位置を含むことを特徴とする
請求項11に記載の方法。 - 前記三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報を取得することは、
前記処理されるべき面から、複数の点を選択することと、
前記三次元空間の水平面での、前記複数の点の位置情報を取得することと、を含むことを特徴とする
請求項6から12のうちいずれか一項に記載の方法。 - 前記処理されるべき面の有効領域から、複数の点を選択することは、
前記処理されるべき面の有効領域の点集合選択エリアから複数の点を選択することを含み、
前記点集合選択エリアは、前記有効領域の縁との距離が所定の距離要件を満たす領域を含むことを特徴とする
請求項13に記載の方法。 - 前記位置情報に基づいて、前記ターゲット対象の向きを決定することは、
前記三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報に基づいて、直線フィッティングを行うことと、
フィッティングした直線の勾配に基づいて、前記ターゲット対象の向きを決定することと、を含むことを特徴とする
請求項6から14のうちいずれか一項に記載の方法。 - 前記三次元空間の水平面での、前記可視面における複数の点の位置情報を取得することは、
前記可視面の数が複数である場合、三次元空間の水平面での、複数の可視面における複数の点の位置情報をそれぞれ取得することを含み、
前記位置情報に基づいて、前記ターゲット対象の向きを決定することは、
三次元空間の水平面での、複数の可視面における複数の点の位置情報に基づいて、それぞれ直線フィッティングを行うことと、
フィッティングした複数本の直線の勾配に基づいて、前記ターゲット対象の向きを決定することと、を含むことを特徴とする
請求項1から5のうちいずれか一項に記載の方法。 - 前記フィッティングした複数本の直線の勾配に基づいて、前記ターゲット対象の向きを決定することは、
複数本の直線のうちの1本の直線の勾配に基づいて、前記ターゲット対象の向きを決定すること、又は、
複数本の直線の勾配に基づいて、前記ターゲット対象の複数の向きを決定し、複数の向き及び複数の向きのバランス係数に基づいて、前記ターゲット対象の最終的向きを決定すること、を含むことを特徴とする
請求項16に記載の方法。 - 前記三次元空間の水平面での、複数の点の位置情報を取得する方式は、
前記複数の点の奥行き情報を取得することと、
前記奥行き情報及び前記画像での前記複数の点の座標に基づいて、三次元空間の水平面の水平座標軸での、前記複数の点の位置情報を取得することと、を含むことを特徴とする
請求項6から17のうちいずれか一項に記載の方法。 - 前記画像を第1ニューラルネットワークに入力し、前記第1ニューラルネットワークにより、奥行き処理を行い、前記第1ニューラルネットワークからの出力に基づいて、複数の点の奥行き情報を得るという方式、
前記画像を第2ニューラルネットワークに入力し、前記第2ニューラルネットワークにより視差処理を行い、前記第2ニューラルネットワークから出力された視差に基づいて、複数の点の奥行き情報を得るという方式、
奥行き撮像装置により撮られた奥行き画像に基づいて、前記複数の点の奥行き情報を得るという方式、
レーザレーダ装置により得られたポイントクラウドデータに基づいて、前記複数の点の奥行き情報を得るという方式のうちのいずれか1つにより、前記複数の点の奥行き情報を得ることを特徴とする
請求項18に記載の方法。 - スマート運転制御方法であって、
車両に設けられた撮像装置により、前記車両が位置する路面のビデオストリームを取得することと、
請求項1〜19のうちいずれか一項に記載の方法を利用して、前記ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得ることと、
前記ターゲット対象の向きに基づいて、前記車両の制御命令を生成して出力することと、を含むことを特徴とする、前記方法。 - 前記制御命令は、速度保持制御命令、速度調整制御命令、方向保持制御命令、方向調整制御命令、リマインド制御命令、運転モード切替制御命令、経路計画命令、軌跡追跡命令のうちのすくなくとも1つを含むことを特徴とする
請求項20に記載の方法。 - ターゲット対象の向きの決定装置であって、
画像におけるターゲット対象の可視面を取得するように構成される第1取得モジュールと、
三次元空間の水平面での、前記可視面における複数の点の位置情報を取得するように構成される第2取得モジュールと、
前記位置情報に基づいて、前記ターゲット対象の向きを決定するように構成される決定モジュールと、を備えることを特徴とする、前記装置。 - 前記ターゲット対象は、車両を含むことを特徴とする
請求項22に記載の装置。 - 前記ターゲット対象は、
車両頂部前側、車両ヘッドライト前側及び車両シャーシ前側を含む車両前側面、
車両頂部後側、車両テールライト後側及び車両シャーシ後側を含む車両後側面、
車両頂部左側、車両ヘッドライト及びテールライトの左側面、車両シャーシ左側及び車両左側タイヤを含む車両左側面、
車両頂部右側、車両ヘッドライト及びテールライトの右側面、車両シャーシ右側及び車両右側タイヤを含む車両右側面のうちのすくなくとも1つを含むことを特徴とする
請求項23に記載の装置。 - 前記画像は、
移動可能な物体に設けられた撮像装置により撮られたビデオにおけるビデオフレーム、又は、
固定位置に設けられた撮像装置により撮られたビデオにおけるビデオフレームを含むことを特徴とする
請求項22から24のうちいずれか一項に記載の装置。 - 前記第1取得モジュールは、
前記画像に対して画像分割処理を行い、
前記画像分割処理の結果に基づいて、画像におけるターゲット対象の可視面を得るように構成されることを特徴とする
請求項22から25のうちいずれか一項に記載の装置。 - 前記第2取得モジュールは、
前記可視面の数が複数である場合、複数の可視面から、1つの可視面を、処理されるべき面として選択するように構成される第1サブモジュールと、
三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報を取得するように構成される第2サブモジュールと、を備えることを特徴とする
請求項22から26のうちいずれか一項に記載の装置。 - 前記第1サブモジュールは、
複数の可視面から、1つの可視面をランダムに選択して処理されるべき面とするように構成される第1ユニット、又は、
複数の可視面の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択するように構成される第2ユニット、又は、
複数の可視面の有効領域の面積に基づいて、複数の可視面から1つの可視面を、処理されるべき面として選択するように構成される第3ユニット、を備えることを特徴とする
請求項27に記載の装置。 - 前記可視面の有効領域は、可視面の全ての領域、又は、可視面の一部の領域を含むことを特徴とする
請求項28に記載の装置。 - 車両左/右側面の有効領域は、可視面の全ての領域を含み、
車両前/後側面の有効領域の面積は、可視面の一部の領域を含むことを特徴とする
請求項29に記載の装置。 - 前記第3ユニットは、
1つの可視面について、画像での該可視面における点の位置情報に基づいて、該可視面に対応する有効領域選択用位置枠を決定するように構成される第1サブユニットと、
該可視面と前記位置枠との交差領域を該可視面の有効領域とするように構成される第2サブユニットと、
複数の可視面のうち、有効領域面積が最も大きい可視面を、処理されるべき面とするように構成される第3サブユニットと、を備えることを特徴とする
請求項28から30のうちいずれか一項に記載の装置。 - 前記第1サブユニットは、
画像での該可視面における点の位置情報に基づいて、有効領域選択用位置枠の1つの頂点位置及び該可視面の幅と高さを決定するし、
前記頂点位置、該可視面の幅の一部及び高さの一部に基づいて、該可視面に対応する位置枠を決定するように構成されることを特徴とする
請求項31に記載の装置。 - 前記位置枠の1つの頂点位置は、画像での該可視面における複数の点の位置情報における最小x座標及び最小y座標に基づいて得られた位置を含むことを特徴とする
請求項32に記載の装置。 - 前記第2サブモジュールは、
前記処理されるべき面から、複数の点を選択するように構成される第4ユニットと、
三次元空間の水平面での、前記複数の点の位置情報を取得するように構成される第5ユニットと、を備えることを特徴とする
請求項27から33のうちいずれか一項に記載の装置。 - 前記第4ユニットは、
前記処理されるべき面の有効領域の点集合選択エリアから複数の点を選択するように構成され、
前記点集合選択エリアは、前記有効領域の縁との距離が所定の距離要件を満たす領域を含むことを特徴とする
請求項34に記載の装置。 - 前記決定モジュールは、
三次元空間の水平面での、前記処理されるべき面における複数の点の位置情報に基づいて、直線フィッティングを行い、
フィッティングした直線の勾配に基づいて、前記ターゲット対象の向きを決定するように構成されることを特徴とする
請求項27から35のうちいずれか一項に記載の装置。 - 前記第2取得モジュールは、
前記可視面の数が複数である場合、三次元空間の水平面での、複数の可視面における複数の点の位置情報をそれぞれ取得するように構成される第3サブモジュールを備え、
前記決定モジュールは、
三次元空間の水平面での、複数の可視面における複数の点の位置情報に基づいて、それぞれ直線フィッティングを行うように構成される第4サブモジュールと、
フィッティングした複数本の直線の勾配に基づいて、前記ターゲット対象の向きを決定するように構成される第5サブモジュールと、を備えることを特徴とする
請求項22から26のうちいずれか一項に記載の装置。 - 前記第5サブモジュールは、
複数本の直線のうちの1本の直線の勾配に基づいて、前記ターゲット対象の向きを決定するように構成され、又は、
複数本の直線の勾配に基づいて、前記ターゲット対象の複数の向きを決定し、複数の向き及び複数の向きのバランス係数に基づいて、前記ターゲット対象の最終的向きを決定するように構成されることを特徴とする
請求項37に記載の装置。 - 前記第2サブモジュール又は第3サブモジュールにより、三次元空間の水平面での、複数の点の位置情報を取得する方式は、
前記複数の点の奥行き情報を取得することと、
前記奥行き情報及び前記画像での前記複数の点の座標に基づいて、三次元空間の水平面の水平座標軸での、前記複数の点の位置情報を取得することと、を含むことを特徴とする
請求項27から38のうちいずれか一項に記載の装置。 - 第2サブモジュール又は第3サブモジュールは、
前記画像を第1ニューラルネットワークに入力し、前記第1ニューラルネットワークにより、奥行き処理を行い、前記第1ニューラルネットワークからの出力に基づいて、複数の点の奥行き情報を得るという方式、
前記画像を第2ニューラルネットワークに入力し、前記第2ニューラルネットワークにより視差処理を行い、前記第2ニューラルネットワークから出力された視差に基づいて、複数の点の奥行き情報を得るという方式、
奥行き撮像装置により撮られた奥行き画像に基づいて、前記複数の点の奥行き情報を得るという方式、
レーザレーダ装置により得られたポイントクラウドデータに基づいて、前記複数の点の奥行き情報を得るという方式のうちのいずれか1つにより、前記複数の点の奥行き情報を得ることを特徴とする
請求項39に記載の装置。 - スマート運転制御装置であって、前記装置は、
車両に設けられた撮像装置により、前記車両が位置する路面のビデオストリームを取得するように構成される第3取得モジュールと、
前記ビデオストリームに含まれる少なくとも1つのビデオフレームに対して、ターゲット対象の向きの決定処理を行い、ターゲット対象の向きを得るように構成される請求項22−40のうちいずれか一項に記載の装置と、
前記ターゲット対象の向きに基づいて、前記車両の制御命令を生成して出力するように構成される制御モジュールと、を備えることを特徴とする、前記装置。 - 前記制御命令は、速度保持制御命令、速度調整制御命令、方向保持制御命令、方向調整制御命令、リマインド制御命令、運転モード切替制御命令、経路計画命令、軌跡追跡命令のうちのすくなくとも1つを含むことを特徴とする
請求項41に記載の装置。 - 電子機器であって、
コンピュータプログラムを記憶するように構成されるメモリと、
前記メモリに記憶されているコンピュータプログラムを実行するように構成されるプロセッサであって、請求項1〜21のうちいずれか一項に記載の方法を実現するように構成されるプロセッサと、を備えることを特徴とする、前記電子機器。 - コンピュータプログラムを記憶するコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサにより実行される時、請求項1〜21のうちいずれか一項に記載の方法を実現することを特徴とする、前記コンピュータ可読記憶媒体。
- コンピュータ命令を含むコンピュータプログラムであって、前記コンピュータ命令が機器のプロセッサで実行される時、請求項1〜21のうちいずれか一項に記載の方法を実現することを特徴とする、前記コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910470314.0 | 2019-05-31 | ||
CN201910470314.0A CN112017239B (zh) | 2019-05-31 | 2019-05-31 | 确定目标对象朝向方法、智能驾驶控制方法和装置及设备 |
PCT/CN2019/119124 WO2020238073A1 (zh) | 2019-05-31 | 2019-11-18 | 确定目标对象朝向方法、智能驾驶控制方法和装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021529370A true JP2021529370A (ja) | 2021-10-28 |
Family
ID=73502105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020568297A Pending JP2021529370A (ja) | 2019-05-31 | 2019-11-18 | ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210078597A1 (ja) |
JP (1) | JP2021529370A (ja) |
KR (1) | KR20210006428A (ja) |
CN (1) | CN112017239B (ja) |
SG (1) | SG11202012754PA (ja) |
WO (1) | WO2020238073A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112509126B (zh) * | 2020-12-18 | 2024-07-12 | 南京模数智芯微电子科技有限公司 | 三维物体检测的方法、装置、设备及存储介质 |
US11827203B2 (en) * | 2021-01-14 | 2023-11-28 | Ford Global Technologies, Llc | Multi-degree-of-freedom pose for vehicle navigation |
CN113378976B (zh) * | 2021-07-01 | 2022-06-03 | 深圳市华汉伟业科技有限公司 | 一种基于特征顶点组合的目标检测方法、可读存储介质 |
CN114419130A (zh) * | 2021-12-22 | 2022-04-29 | 中国水利水电第七工程局有限公司 | 一种基于图像特征和三维点云技术的散料体积测量方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008130059A (ja) * | 2006-11-27 | 2008-06-05 | Fuji Heavy Ind Ltd | 先行車両離脱判定装置 |
JP2015069229A (ja) * | 2013-09-26 | 2015-04-13 | 日立オートモティブシステムズ株式会社 | 先行車認識装置 |
JP2019028861A (ja) * | 2017-08-02 | 2019-02-21 | ソニー株式会社 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
Family Cites Families (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002319091A (ja) * | 2001-04-20 | 2002-10-31 | Fuji Heavy Ind Ltd | 後続車両認識装置 |
US6615158B2 (en) * | 2001-06-25 | 2003-09-02 | National Instruments Corporation | System and method for analyzing a surface by mapping sample points onto the surface and sampling the surface at the mapped points |
JP3861781B2 (ja) * | 2002-09-17 | 2006-12-20 | 日産自動車株式会社 | 前方車両追跡システムおよび前方車両追跡方法 |
US7135992B2 (en) * | 2002-12-17 | 2006-11-14 | Evolution Robotics, Inc. | Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system |
US7764808B2 (en) * | 2003-03-24 | 2010-07-27 | Siemens Corporation | System and method for vehicle detection and tracking |
KR100551907B1 (ko) * | 2004-02-24 | 2006-02-14 | 김서림 | 불규칙이동간 변위각에 대응하는 3차원 무게중심 이동 및수평유지장치 |
KR100657915B1 (ko) * | 2004-11-26 | 2006-12-14 | 삼성전자주식회사 | 코너 검출 방법 및 코너 검출 장치 |
JP4426436B2 (ja) * | 2004-12-27 | 2010-03-03 | 株式会社日立製作所 | 車両検知装置 |
WO2007030026A1 (en) * | 2005-09-09 | 2007-03-15 | Industrial Research Limited | A 3d scene scanner and a position and orientation system |
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
JP4231883B2 (ja) * | 2006-08-25 | 2009-03-04 | 株式会社東芝 | 画像処理装置及びその方法 |
KR100857330B1 (ko) * | 2006-12-12 | 2008-09-05 | 현대자동차주식회사 | 주차 궤적 인식 장치 및 자동 주차 시스템 |
JP5380789B2 (ja) * | 2007-06-06 | 2014-01-08 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP4933962B2 (ja) * | 2007-06-22 | 2012-05-16 | 富士重工業株式会社 | 分岐路進入判定装置 |
JP4801821B2 (ja) * | 2007-09-21 | 2011-10-26 | 本田技研工業株式会社 | 道路形状推定装置 |
JP2009129001A (ja) * | 2007-11-20 | 2009-06-11 | Sanyo Electric Co Ltd | 運転支援システム、車両、立体物領域推定方法 |
JP2009220630A (ja) * | 2008-03-13 | 2009-10-01 | Fuji Heavy Ind Ltd | 車両の走行制御装置 |
JP4557041B2 (ja) * | 2008-04-18 | 2010-10-06 | 株式会社デンソー | 車両用画像処理装置 |
US9008998B2 (en) * | 2010-02-05 | 2015-04-14 | Trimble Navigation Limited | Systems and methods for processing mapping and modeling data |
KR20110097140A (ko) * | 2010-02-24 | 2011-08-31 | 삼성전자주식회사 | 이동 로봇의 위치 추정 장치 및 방법 |
JP2011203823A (ja) * | 2010-03-24 | 2011-10-13 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
CN101964049A (zh) * | 2010-09-07 | 2011-02-02 | 东南大学 | 基于分段投影与乐符结构的谱线检测及删除方法 |
US9208563B2 (en) * | 2010-12-21 | 2015-12-08 | Metaio Gmbh | Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object |
US9129277B2 (en) * | 2011-08-30 | 2015-09-08 | Digimarc Corporation | Methods and arrangements for identifying objects |
WO2013038818A1 (ja) * | 2011-09-12 | 2013-03-21 | 日産自動車株式会社 | 立体物検出装置 |
US8798357B2 (en) * | 2012-07-09 | 2014-08-05 | Microsoft Corporation | Image-based localization |
RU2572954C1 (ru) * | 2012-07-27 | 2016-01-20 | Ниссан Мотор Ко., Лтд. | Устройство обнаружения трехмерных объектов и способ обнаружения трехмерных объектов |
US9142019B2 (en) * | 2013-02-28 | 2015-09-22 | Google Technology Holdings LLC | System for 2D/3D spatial feature processing |
US20160217578A1 (en) * | 2013-04-16 | 2016-07-28 | Red Lotus Technologies, Inc. | Systems and methods for mapping sensor feedback onto virtual representations of detection surfaces |
US10228242B2 (en) * | 2013-07-12 | 2019-03-12 | Magic Leap, Inc. | Method and system for determining user input based on gesture |
JP6188471B2 (ja) * | 2013-07-26 | 2017-08-30 | アルパイン株式会社 | 車両後側方警報装置、車両後側方警報方法および立体物検出装置 |
US9646384B2 (en) * | 2013-09-11 | 2017-05-09 | Google Technology Holdings LLC | 3D feature descriptors with camera pose information |
US9412040B2 (en) * | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
US10574974B2 (en) * | 2014-06-27 | 2020-02-25 | A9.Com, Inc. | 3-D model generation using multiple cameras |
CN105788248B (zh) * | 2014-12-17 | 2018-08-03 | 中国移动通信集团公司 | 一种车辆检测的方法、装置及车辆 |
WO2016113904A1 (ja) * | 2015-01-16 | 2016-07-21 | 株式会社日立製作所 | 3次元情報算出装置、3次元情報算出方法、および自律移動装置 |
US10133947B2 (en) * | 2015-01-16 | 2018-11-20 | Qualcomm Incorporated | Object detection using location data and scale space representations of image data |
DE102016200995B4 (de) * | 2015-01-28 | 2021-02-11 | Mando Corporation | System und Verfahren zum Erfassen von Fahrzeugen |
CN104677301B (zh) * | 2015-03-05 | 2017-03-01 | 山东大学 | 一种基于视觉检测的螺旋焊管管线外径测量装置和方法 |
CN204894524U (zh) * | 2015-07-02 | 2015-12-23 | 深圳长朗三维科技有限公司 | 3d打印机 |
US10260862B2 (en) * | 2015-11-02 | 2019-04-16 | Mitsubishi Electric Research Laboratories, Inc. | Pose estimation using sensors |
JP6572880B2 (ja) * | 2016-12-28 | 2019-09-11 | トヨタ自動車株式会社 | 運転支援装置 |
KR101915166B1 (ko) * | 2016-12-30 | 2018-11-06 | 현대자동차주식회사 | 자동 주차 시스템 및 자동 주차 방법 |
CN108416321A (zh) * | 2018-03-23 | 2018-08-17 | 北京市商汤科技开发有限公司 | 用于预测目标对象运动朝向的方法、车辆控制方法及装置 |
CN109102702A (zh) * | 2018-08-24 | 2018-12-28 | 南京理工大学 | 基于视频车辆检测和雷达信号融合的车辆测速方法 |
CN109815831B (zh) * | 2018-12-28 | 2021-03-23 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆朝向获取方法及相关装置 |
-
2019
- 2019-05-31 CN CN201910470314.0A patent/CN112017239B/zh active Active
- 2019-11-18 WO PCT/CN2019/119124 patent/WO2020238073A1/zh active Application Filing
- 2019-11-18 KR KR1020207034986A patent/KR20210006428A/ko not_active Application Discontinuation
- 2019-11-18 JP JP2020568297A patent/JP2021529370A/ja active Pending
- 2019-11-18 SG SG11202012754PA patent/SG11202012754PA/en unknown
-
2020
- 2020-11-30 US US17/106,912 patent/US20210078597A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008130059A (ja) * | 2006-11-27 | 2008-06-05 | Fuji Heavy Ind Ltd | 先行車両離脱判定装置 |
JP2015069229A (ja) * | 2013-09-26 | 2015-04-13 | 日立オートモティブシステムズ株式会社 | 先行車認識装置 |
JP2019028861A (ja) * | 2017-08-02 | 2019-02-21 | ソニー株式会社 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
Also Published As
Publication number | Publication date |
---|---|
US20210078597A1 (en) | 2021-03-18 |
KR20210006428A (ko) | 2021-01-18 |
CN112017239B (zh) | 2022-12-20 |
WO2020238073A1 (zh) | 2020-12-03 |
SG11202012754PA (en) | 2021-01-28 |
CN112017239A (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11138756B2 (en) | Three-dimensional object detection method and device, method and device for controlling smart driving, medium and apparatus | |
US11100310B2 (en) | Object three-dimensional detection method and apparatus, intelligent driving control method and apparatus, medium and device | |
US10846831B2 (en) | Computing system for rectifying ultra-wide fisheye lens images | |
JP2021529370A (ja) | ターゲット対象の向きの決定方法、スマート運転制御方法及び装置並びに機器 | |
CN109635685B (zh) | 目标对象3d检测方法、装置、介质及设备 | |
KR102240197B1 (ko) | 사발형 이미징 시스템에서의 물체 추적 | |
US9384556B2 (en) | Image processor configured for efficient estimation and elimination of foreground information in images | |
US20210117704A1 (en) | Obstacle detection method, intelligent driving control method, electronic device, and non-transitory computer-readable storage medium | |
JP7091485B2 (ja) | 運動物体検出およびスマート運転制御方法、装置、媒体、並びに機器 | |
US11747278B2 (en) | Deposit detection device for detecting a partial covering location, a not-adhere location, and a diffuse reflection location | |
CN110060230B (zh) | 三维场景分析方法、装置、介质及设备 | |
CN114170826B (zh) | 自动驾驶控制方法和装置、电子设备和存储介质 | |
CN112541553B (zh) | 目标对象的状态检测方法、装置、介质以及电子设备 | |
JP2009230233A (ja) | 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム | |
US20220319145A1 (en) | Image processing device, image processing method, moving device, and storage medium | |
CN115147809B (zh) | 一种障碍物检测方法、装置、设备以及存储介质 | |
US20210049382A1 (en) | Non-line of sight obstacle detection | |
Chan et al. | Raw camera data object detectors: an optimisation for automotive processing and transmission | |
JP2021051348A (ja) | 物体距離推定装置及び物体距離推定方法 | |
CN118135542B (zh) | 一种障碍物动静态判定方法及其相关设备 | |
CN110858281B (zh) | 图像处理方法、装置、电子眼及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230404 |