JP2020126626A - V2v通信を介して取得した情報とカメラを介して取得した情報とを融合してカメラのピッチキャリブレーションをより精巧に遂行することによって、カメラ基盤のロバスト物体距離の予測を提供する方法、及びこれを利用した装置 - Google Patents
V2v通信を介して取得した情報とカメラを介して取得した情報とを融合してカメラのピッチキャリブレーションをより精巧に遂行することによって、カメラ基盤のロバスト物体距離の予測を提供する方法、及びこれを利用した装置 Download PDFInfo
- Publication number
- JP2020126626A JP2020126626A JP2020006495A JP2020006495A JP2020126626A JP 2020126626 A JP2020126626 A JP 2020126626A JP 2020006495 A JP2020006495 A JP 2020006495A JP 2020006495 A JP2020006495 A JP 2020006495A JP 2020126626 A JP2020126626 A JP 2020126626A
- Authority
- JP
- Japan
- Prior art keywords
- target
- pitch
- height
- computing device
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000004891 communication Methods 0.000 title claims abstract description 48
- 230000004927 fusion Effects 0.000 title description 2
- 238000001514 detection method Methods 0.000 claims abstract description 52
- 238000004364 calculation method Methods 0.000 claims abstract description 50
- 230000008569 process Effects 0.000 claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 238000011176 pooling Methods 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000015654 memory Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 206010047513 Vision blurred Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096725—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/46—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
- Atmospheric Sciences (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
Abstract
Description
前記数式で、(x1,y1)は前記参照イメージ上における前記参照位置基準点のうち一つの座標を意味し、(X1,Z1)は、前記対象自律走行車両の位置を利用して原本地点が設定された前記空間座標系で(x1,y1)に対応する前記参照相対座標のうち一つを意味し、X1は前記横方向地面距離のうち一つを、Z1は前記縦方向地面距離のうち一つを、θは前記初期予測ピッチを、(cx,cy)は前記対象カメラの主点座標(coordinate of a principal point)を、Lは前記地面からの前記対象カメラの高さを意味し、fは前記対象カメラの焦点距離を意味することを特徴とする。
前記数式で、Z1は前記ターゲット相対座標(X1,Z1)の縦方向地面距離を、θは前記予測ピッチを、Lは前記地面からの前記対象カメラの高さを意味し、Z2は、前記ターゲット物体を含むターゲットバウンディングボックスの上段部分内の地点であるターゲット高さ予測基準点(x2,y2)を、前記対象自律走行車両を含む仮想空間に対応する空間座標系にマッピングして生成されたターゲット高さ予測地点の成分である縦方向投影距離を意味し、fは前記対象カメラの焦点距離を意味することを特徴とする。
前記数式で、vyは前記参照イメージの消失点(前記消失点に関する情報は、前記参照イメージの一つ以上の線が消失する地点を見出すことによって取得される)のy方向座標を、cyは前記参照イメージの主点のy方向座標を、そしてfyは前記参照イメージの焦点のy方向座標を意味することを特徴とする。
前記数式で、(x1,y1)は前記参照イメージ上における前記参照位置基準点のうち一つの座標を意味し、(X1,Z1)は、前記対象自律走行車両の位置を利用して原本地点が設定された前記空間座標系で(x1,y1)に対応する前記参照相対座標のうち一つを意味し、X1は前記横方向地面距離のうち一つを、Z1は前記縦方向地面距離のうち一つを、θは前記初期予測ピッチを、(cx,cy)は前記対象カメラの主点座標を、Lは前記地面からの前記対象カメラの高さを意味し、fは前記対象カメラの焦点距離を意味することを特徴とする。
前記数式で、Z1は前記ターゲット相対座標(X1,Z1)の縦方向地面距離を、θは前記予測ピッチを、Lは前記地面からの前記対象カメラの高さを意味し、Z2は、前記ターゲット物体を含むターゲットバウンディングボックスの上段部分内の地点であるターゲット高さ予測基準点(x2,y2)を、前記対象自律走行車両を含む仮想空間に対応する空間座標系にマッピングして生成されたターゲット高さ予測地点の成分である縦方向投影距離を意味し、fは前記対象カメラの焦点距離を意味することを特徴とする。
前記数式で、vyは前記参照イメージの消失点(前記消失点に関する情報は、前記参照イメージの一つ以上の線が消失する地点を見出すことによって取得される)のy方向座標を、cyは前記参照イメージの主点のy方向座標を、そしてfyは前記参照イメージの焦点のy方向座標を意味することを特徴とする。
本願発明は、V2V通信を介して取得した情報とカメラを介して取得した情報とを融合してカメラのピッチキャリブレーションをより精巧に遂行することによって、カメラ基盤のロバスト物体距離の予測を提供する方法、及びこれを利用した装置{METHOD FOR PROVIDING ROBUST OBJECT DISTANCE ESTIMATION BASED ON CAMERA BY PERFORMING PITCH CALIBRATION OF CAMERA MORE PRECISELY WITH FUSION OF INFORMATION ACQUIRED THROUGH CAMERA AND INFORMATION ACQUIRED THROUGH V2V COMMUNICATION AND DEVICE USING THE SAME}に関する。
Claims (22)
- V2V(Vehicle to Vehicle)通信を介して取得した追加情報を使用して少なくとも一つの対象カメラのピッチキャリブレーション(pitch calibration)をさらに精巧に遂行することによって、前記対象カメラを基盤とした物体距離予測の正確度を向上させる方法において、
(a)コンピューティング装置が、前記対象カメラを介して少なくとも一つの参照イメージを取得すると、(i)初期ピッチキャリブレーションモジュールをもって、前記参照イメージに少なくとも一つのピッチ計算演算を適用して、前記対象カメラの光軸と地面との間の角度を予測して生成された値である初期予測ピッチを生成させるプロセスと、(ii)物体検出ネットワークをもって、前記参照イメージに少なくとも一つのニューラルネットワーク演算を適用して、前記参照イメージに含まれている一つ以上の参照物体に関する参照物体検出情報を生成させるプロセスとを遂行させる段階;及び
(b)前記コンピューティング装置が、調整ピッチキャリブレーションモジュールをもって、(i)前記参照物体のうち少なくとも一つのターゲット物体を選択し、(ii)前記対象カメラを搭載した対象自律車両からの前記ターゲット物体の少なくとも一つの相対位置と前記初期予測ピッチとを参照して前記ターゲット物体の少なくとも一つの予測ターゲット高さを計算した後、(iii)前記予測ターゲット高さと予め取得された少なくとも一つの原本正解(Ground−Truth)ターゲット高さとを参照して、前記初期予測ピッチに対応する少なくとも一つの誤差を計算した後、(iv)前記誤差を利用して前記対象カメラに対する少なくとも一つの調整予測ピッチを決定させる段階;
を含むことを特徴とする方法。 - 前記コンピューティング装置が、前記調整ピッチキャリブレーションモジュールをもって、それぞれの前記参照物体が通信可能に対応する特定クラスを有するか否かに関する第1条件を満足する一つ以上の特定の参照物体を前記参照物体の中から選択させ、(i)それぞれの前記特定の参照物体を含むそれぞれの特定の参照バウンディングボックスが前記参照イメージの少なくとも一つのイラストレーションウィンドウ(illustration window)領域内に位置するか否かに関する第2条件、及び(ii)それぞれの前記特定の参照バウンディングボックスの縦横比(aspect ratio)が予測閾値未満であるか否かに関する第3条件のうち少なくとも一つを満足する前記少なくとも一つのターゲット物体を前記特定の参照物体の中から選択させることを特徴とする請求項1に記載の方法。
- 前記(b)段階以前に、
前記コンピューティング装置が、距離計算モジュールをもって、前記初期予測ピッチと、前記参照物体検出情報と、前記参照イメージとを参照して、それぞれの前記参照物体を含むそれぞれの参照バウンディングボックスの各下段部分内の地点である一つ以上の参照位置基準点それぞれを、前記対象自律走行車両を含む仮想空間に対応する空間座標系にマッピング(mapping)して、前記参照物体と前記対象自律走行車両との間の一つ以上の縦方向地面距離と一つ以上の横方向地面距離とを計算させ、前記縦方向地面距離及び前記横方向地面距離それぞれを成分として含むそれぞれの参照相対座標を生成させることを特徴とする請求項1に記載の方法。 - 前記(b)段階以前に、
前記コンピューティング装置が、前記距離計算モジュールをもって、下記数式を参照して前記参照位置基準点を前記空間座標系にマッピングし、
前記数式で、(x1,y1)は前記参照イメージ上における前記参照位置基準点のうち一つの座標を意味し、(X1,Z1)は、前記対象自律走行車両の位置を利用して原本地点が設定された前記空間座標系で(x1,y1)に対応する前記参照相対座標のうち一つを意味し、X1は前記横方向地面距離のうち一つを、Z1は前記縦方向地面距離のうち一つを、θは前記初期予測ピッチを、(cx,cy)は前記対象カメラの主点座標(coordinate of a principal point)を、Lは前記地面からの前記対象カメラの高さを意味し、fは前記対象カメラの焦点距離を意味することを特徴とする請求項3に記載の方法。 - 前記(b)段階以前に、
前記コンピューティング装置が、V2V通信モジュールをもって、前記対象自律走行車両から臨界距離より近いところに位置する一つ以上の通信可能な物体と通信を行って、一つ以上の通信可能な物体クラスと、一つ以上の通信可能な物体の原本正解高さと、一つ以上の通信可能な物体座標とに関する情報を取得させ、前記調整ピッチキャリブレーションモジュールをもって、通信可能に対応する特定クラスを有する特定の参照物体を前記参照物体の中から選択させた後、(i)前記通信可能な物体座標を利用して計算された、前記対象自律走行車両に対する通信可能な物体相対座標及び(ii)前記特定の参照物体の特定の参照相対座標を参照して、前記通信可能な物体の原本正解高さのうち少なくとも一部を前記特定の参照物体のうち少なくとも一部とペアリング(pairing)することによって、前記特定の参照物体に対する特定の参照原本正解高さを取得させることを特徴とする請求項3に記載の方法。 - 前記(b)段階で、
前記コンピューティング装置が、前記ターゲット物体が選択されると、前記調整ピッチキャリブレーションモジュールをもって、前記参照相対座標のうち、前記ターゲット物体に対応するターゲット相対座標を選択させ、前記初期予測ピッチを参照して高さ予測演算を遂行して前記予測ターゲット高さを計算させ、前記高さ予測演算は下記数式を参照して遂行され、
前記数式で、Z1は前記ターゲット相対座標(X1,Z1)の縦方向地面距離を、θは前記予測ピッチを、Lは前記地面からの前記対象カメラの高さを意味し、Z2は、前記ターゲット物体を含むターゲットバウンディングボックスの上段部分内の地点であるターゲット高さ予測基準点(x2,y2)を、前記対象自律走行車両を含む仮想空間に対応する空間座標系にマッピングして生成されたターゲット高さ予測地点の成分である縦方向投影距離を意味し、fは前記対象カメラの焦点距離を意味することを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記コンピューティング装置が、前記ターゲット物体の個数が1つである場合、前記調整ピッチキャリブレーションモジュールをもって、(i)前記原本正解ターゲット高さを参照して過大予測範囲及び過小予測範囲を設定させ、(ii−1)前記予測ターゲット高さが前記過大予測範囲に含まれる場合、前記初期予測ピッチを予め設定された調整割合だけ減少させる調整を遂行させるか、(ii−2)前記予測ターゲット高さが前記過小予測範囲に含まれる場合、前記初期予測ピッチを前記予め設定された調整割合だけ増加させる調整を遂行させることを特徴とする請求項1に記載の方法。 - 前記(b)段階で、
前記コンピューティング装置が、前記ターゲット物体の個数が2個以上である場合、前記調整ピッチキャリブレーションモジュールをもって、(i)前記原本正解ターゲット高さを参照して過大予測範囲及び過小予測範囲を設定させ、(ii)前記過大予測範囲に対応する過大予測誤差の割合及び前記過小予測範囲に対応する過小予測誤差の割合のうち少なくとも一つに関する情報を取得させ、(iii)前記取得された情報を参照して前記初期予測ピッチを調整させることを特徴とする請求項1に記載の方法。 - 前記(a)段階で、
前記コンピューティング装置が、前記初期ピッチキャリブレーションモジュールをもって、前記参照イメージに前記ピッチ計算演算を適用して前記初期予測ピッチを生成させ、前記ピッチ計算演算は下記数式を参照して遂行され、
前記数式で、vyは前記参照イメージの消失点(前記消失点に関する情報は、前記参照イメージの一つ以上の線が消失する地点を見出すことによって取得される)のy方向座標を、cyは前記参照イメージの主点のy方向座標を、そしてfyは前記参照イメージの焦点のy方向座標を意味することを特徴とする請求項1に記載の方法。 - 前記(a)段階で、
前記コンピューティング装置が、(i)前記物体検出ネットワークに含まれているコンボリューションレイヤをもって、前記ニューラルネットワーク演算の一部である少なくとも一つのコンボリューション演算を前記参照イメージに適用して少なくとも一つの参照コンボリューション特徴マップを生成させ、(ii)前記物体検出ネットワークに含まれているROIプーリングレイヤをもって、前記参照コンボリューション特徴マップにおいて前記参照イメージのROIに対応する値をプーリングする、前記ニューラルネットワーク演算の一部である少なくとも一つのプーリング演算を適用することによって、少なくとも一つの参照ROIプーリング済み特徴マップを生成させた後、(iii)前記物体検出ネットワークに含まれているFCレイヤをもって、前記ニューラルネットワーク演算の一部である少なくとも一つのFC演算を前記参照ROIプーリング済み特徴マップに適用することによって、前記参照物体の参照クラスに関する情報と前記参照物体の参照バウンディングボックスに関する情報とを含む前記参照物体検出情報を生成させることを特徴とする請求項1に記載の方法。 - (c)前記コンピューティング装置が、前記物体検出ネットワーク及び前記距離計算モジュールをもって、前記調整予測ピッチを参照して計算された、自律走行イメージに含まれている周辺物体と前記対象自律走行車両との間の距離に関する情報を含む自律走行情報を生成させる段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - V2V(Vehicle to Vehicle)通信を介して取得した追加情報を使用して少なくとも一つの対象カメラのピッチキャリブレーション(pitch calibration)をさらに精巧に遂行することによって、前記対象カメラを基盤とした物体距離予測の正確度を向上させるコンピューティング装置において、
各インストラクションを格納する一つ以上のメモリと、
(I)前記対象カメラを介して少なくとも一つの参照イメージを取得すると、(i)初期ピッチキャリブレーションモジュールをもって、前記参照イメージに少なくとも一つのピッチ計算演算を適用して、前記対象カメラの光軸と地面との間の角度を予測して生成された値である初期予測ピッチを生成させるプロセス、(ii)物体検出ネットワークをもって、前記参照イメージに少なくとも一つのニューラルネットワーク演算を適用して、前記参照イメージに含まれている一つ以上の参照物体に関する参照物体検出情報を生成させるプロセスを遂行させるプロセス、及び(II)調整ピッチキャリブレーションモジュールをもって、(i)前記参照物体のうち少なくとも一つのターゲット物体を選択し、(ii)前記対象カメラを搭載した対象自律車両からの前記ターゲット物体の少なくとも一つの相対位置と前記初期予測ピッチとを参照して前記ターゲット物体の少なくとも一つの予測ターゲット高さを計算した後、(iii)前記予測ターゲット高さと予め取得された少なくとも一つの原本正解(Ground−Truth)ターゲット高さとを参照して、前記初期予測ピッチに対応する少なくとも一つの誤差を計算した後、(iv)前記誤差を利用して前記対象カメラに対する少なくとも一つの調整予測ピッチを決定させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とするコンピューティング装置。 - 前記プロセッサが、前記調整ピッチキャリブレーションモジュールをもって、それぞれの前記参照物体が通信可能に対応する特定クラスを有するか否かに関する第1条件を満足する一つ以上の特定の参照物体を前記参照物体の中から選択させ、(i)それぞれの前記特定の参照物体を含むそれぞれの特定の参照バウンディングボックスが前記参照イメージの少なくとも一つのイラストレーションウィンドウ(illustration window)領域内に位置するか否かに関する第2条件、及び(ii)それぞれの前記特定の参照バウンディングボックスの縦横比(aspect ratio)が予測閾値未満であるか否かに関する第3条件のうち少なくとも一つを満足する前記少なくとも一つのターゲット物体を前記特定の参照物体の中から選択させることを特徴とする請求項12に記載のコンピューティング装置。
- 前記(II)プロセス以前に、
前記プロセッサが、距離計算モジュールをもって、前記初期予測ピッチと、前記参照物体検出情報と、前記参照イメージとを参照して、それぞれの前記参照物体を含むそれぞれの参照バウンディングボックスの各下段部分内の地点である一つ以上の参照位置基準点それぞれを、前記対象自律走行車両を含む仮想空間に対応する空間座標系にマッピング(mapping)して、前記参照物体と前記対象自律走行車両との間における一つ以上の縦方向地面距離と一つ以上の横方向地面距離とを計算させ、前記縦方向地面距離及び前記横方向地面距離それぞれを成分として含むそれぞれの参照相対座標を生成させることを特徴とする請求項12に記載のコンピューティング装置。 - 前記(II)プロセス以前に、
前記プロセッサが、前記距離計算モジュールをもって、下記数式を参照して前記参照位置基準点を前記空間座標系にマッピングし、
前記数式で、(x1,y1)は前記参照イメージ上における前記参照位置基準点のうち一つの座標を意味し、(X1,Z1)は、前記対象自律走行車両の位置を利用して原本地点が設定された前記空間座標系で(x1,y1)に対応する前記参照相対座標のうち一つを意味し、X1は前記横方向地面距離のうち一つを、Z1は前記縦方向地面距離のうち一つを、θは前記初期予測ピッチを、(cx,cy)は前記対象カメラの主点座標を、Lは前記地面からの前記対象カメラの高さを意味し、fは前記対象カメラの焦点距離を意味することを特徴とする請求項14に記載のコンピューティング装置。 - 前記(II)プロセス以前に、
前記プロセッサが、V2V通信モジュールをもって、前記対象自律走行車両から臨界距離より近いところに位置する一つ以上の通信可能な物体と通信を行って、一つ以上の通信可能な物体クラスと、一つ以上の通信可能な物体の原本正解高さと、一つ以上の通信可能な物体座標とに関する情報を取得させ、前記調整ピッチキャリブレーションモジュールをもって、通信可能に対応する特定クラスを有する特定の参照物体を前記参照物体の中から選択させた後、(i)前記通信可能な物体座標を利用して計算された、前記対象自律走行車両に対する通信可能な物体相対座標、及び(ii)前記特定の参照物体の特定の参照相対座標を参照して、前記通信可能な物体の原本正解高さのうち少なくとも一部を前記特定の参照物体のうち少なくとも一部とペアリング(pairing)することによって、前記特定の参照物体に対する特定の参照原本正解高さを取得させることを特徴とする請求項14に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記ターゲット物体が選択されると、前記調整ピッチキャリブレーションモジュールをもって、前記参照相対座標のうち前記ターゲット物体に対応するターゲット相対座標を選択させ、前記初期予測ピッチを参照して高さ予測演算を遂行して前記予測ターゲット高さを計算させ、前記高さ予測演算は下記数式を参照して遂行され、
前記数式で、Z1は前記ターゲット相対座標(X1,Z1)の縦方向地面距離を、θは前記予測ピッチを、Lは前記地面からの前記対象カメラの高さを意味し、Z2は、前記ターゲット物体を含むターゲットバウンディングボックスの上段部分内の地点であるターゲット高さ予測基準点(x2,y2)を、前記対象自律走行車両を含む仮想空間に対応する空間座標系にマッピングして生成されたターゲット高さ予測地点の成分である縦方向投影距離を意味し、fは前記対象カメラの焦点距離を意味することを特徴とする請求項12に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記ターゲット物体の個数が1つである場合、前記調整ピッチキャリブレーションモジュールをもって、(i)前記原本正解ターゲット高さを参照して過大予測範囲及び過小予測範囲を設定させ、(ii−1)前記予測ターゲット高さが前記過大予測範囲に含まれる場合、前記初期予測ピッチを予め設定された調整割合だけ減少させる調整を遂行させるか、(ii−2)前記予測ターゲット高さが前記過小予測範囲に含まれる場合、前記初期予測ピッチを前記予め設定された調整割合だけ増加させる調整を遂行させることを特徴とする請求項12に記載のコンピューティング装置。 - 前記(II)プロセスで、
前記プロセッサが、前記ターゲット物体の個数が2個以上である場合、前記調整ピッチキャリブレーションモジュールをもって、(i)前記原本正解ターゲット高さを参照して過大予測範囲及び過小予測範囲を設定させ、(ii)前記過大予測範囲に対応する過大予測誤差の割合及び前記過小予測範囲に対応する過小予測誤差の割合のうち少なくとも一つに関する情報を取得させ、(iii)前記取得された情報を参照して前記初期予測ピッチを調整させることを特徴とする請求項12に記載のコンピューティング装置。 - 前記(I)プロセスで、
前記プロセッサが、前記初期ピッチキャリブレーションモジュールをもって、前記参照イメージに前記ピッチ計算演算を適用して前記初期予測ピッチを生成させ、前記ピッチ計算演算は下記数式を参照して遂行され、
前記数式で、vyは前記参照イメージの消失点(前記消失点に関する情報は、前記参照イメージの一つ以上の線が消失する地点を見出すことによって取得される)のy方向座標を、cyは前記参照イメージの主点のy方向座標を、そしてfyは前記参照イメージの焦点のy方向座標を意味することを特徴とする請求項12に記載のコンピューティング装置。 - 前記(I)プロセスで、
前記プロセッサが、(i)前記物体検出ネットワークに含まれているコンボリューションレイヤをもって、前記ニューラルネットワーク演算の一部である少なくとも一つのコンボリューション演算を前記参照イメージに適用して少なくとも一つの参照コンボリューション特徴マップを生成させ、(ii)前記物体検出ネットワークに含まれているROIプーリングレイヤをもって、前記参照コンボリューション特徴マップにおいて前記参照イメージのROIに対応する値をプーリングする、前記ニューラルネットワーク演算の一部である少なくとも一つのプーリング演算を適用することによって、少なくとも一つの参照ROIプーリング済み特徴マップを生成させた後、(iii)前記物体検出ネットワークに含まれているFCレイヤをもって、前記ニューラルネットワーク演算の一部である少なくとも一つのFC演算を前記参照ROIプーリング済み特徴マップに適用することによって、前記参照物体の参照クラスに関する情報と前記参照物体の参照バウンディングボックスに関する情報とを含む前記参照物体検出情報を生成させることを特徴とする請求項12に記載のコンピューティング装置。 - 前記プロセッサが、(III)前記物体検出ネットワーク及び前記距離計算モジュールをもって、前記調整予測ピッチを参照して計算された、自律走行イメージに含まれている周辺物体と前記対象自律走行車両との間の距離に関する情報を含む自律走行情報を生成させるプロセスをさらに遂行することを特徴とする請求項12に記載のコンピューティング装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962799238P | 2019-01-31 | 2019-01-31 | |
US62/799238 | 2019-01-31 | ||
US16/724,617 US10748032B1 (en) | 2019-01-31 | 2019-12-23 | Method for providing robust object distance estimation based on camera by performing pitch calibration of camera more precisely with fusion of information acquired through camera and information acquired through V2V communication and device using the same |
US16/724617 | 2019-12-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126626A true JP2020126626A (ja) | 2020-08-20 |
JP6890350B2 JP6890350B2 (ja) | 2021-06-18 |
Family
ID=69191928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020006495A Active JP6890350B2 (ja) | 2019-01-31 | 2020-01-20 | V2v通信を介して取得した情報とカメラを介して取得した情報とを融合してカメラのピッチキャリブレーションをより精巧に遂行することによって、カメラ基盤のロバスト物体距離の予測を提供する方法、及びこれを利用した装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10748032B1 (ja) |
EP (1) | EP3690817B1 (ja) |
JP (1) | JP6890350B2 (ja) |
KR (1) | KR102296496B1 (ja) |
CN (1) | CN111508272B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113811886B (zh) * | 2019-03-11 | 2024-03-19 | 辉达公司 | 自主机器应用中的路口检测和分类 |
CN114688976B (zh) * | 2020-12-29 | 2023-07-18 | 北京金风科创风电设备有限公司 | 风电机组的测距设备标定方法、装置、系统及设备 |
DE102021107793A1 (de) | 2021-03-29 | 2022-09-29 | Ford Global Technologies, Llc | Verfahren zum Betreiben einer Fahrerassistenzfunktion |
KR20230075683A (ko) | 2021-11-23 | 2023-05-31 | 주식회사 인포웍스 | 심층 신경망 알고리즘 기반 4채널 중장비 avm 영상 융합 오토캘리브레이션 시스템 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007256030A (ja) * | 2006-03-23 | 2007-10-04 | Clarion Co Ltd | 車載カメラのキャリブレーション装置およびキャリブレーション方法 |
JP2008187566A (ja) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | カメラ校正装置及び方法並びに車両 |
EP3159828A1 (en) * | 2015-10-19 | 2017-04-26 | Continental Automotive GmbH | Adaptive calibration using visible car details |
US20180365858A1 (en) * | 2017-06-14 | 2018-12-20 | Hyundai Mobis Co., Ltd. | Calibration method and apparatus |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001320652A (ja) * | 2000-05-11 | 2001-11-16 | Nec Corp | プロジェクタ装置 |
JP3650578B2 (ja) * | 2000-09-28 | 2005-05-18 | 株式会社立山アールアンドディ | 画像の歪みを補正するためのニューラル・ネットワークを用いたパノラマ画像ナビゲーションシステム |
JP3718747B2 (ja) * | 2001-04-27 | 2005-11-24 | 日産自動車株式会社 | 車両用走行制御装置 |
JP4914019B2 (ja) * | 2005-04-06 | 2012-04-11 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP4831374B2 (ja) * | 2009-03-27 | 2011-12-07 | アイシン・エィ・ダブリュ株式会社 | 運転支援装置、運転支援方法、及び運転支援プログラム |
JP4636346B2 (ja) * | 2009-03-31 | 2011-02-23 | アイシン精機株式会社 | 車載カメラの校正装置、方法、及びプログラム |
JP5240527B2 (ja) * | 2010-11-25 | 2013-07-17 | アイシン精機株式会社 | 車載カメラの校正装置、方法、及びプログラム |
WO2012145818A1 (en) * | 2011-04-25 | 2012-11-01 | Magna International Inc. | Method and system for dynamically calibrating vehicular cameras |
US9749594B2 (en) * | 2011-12-22 | 2017-08-29 | Pelco, Inc. | Transformation between image and map coordinates |
US9286678B2 (en) * | 2011-12-28 | 2016-03-15 | Pelco, Inc. | Camera calibration using feature identification |
JP5905846B2 (ja) * | 2013-03-29 | 2016-04-20 | 株式会社日本自動車部品総合研究所 | 横断判定装置およびプログラム |
EP3885217A1 (en) * | 2015-02-10 | 2021-09-29 | Mobileye Vision Technologies Ltd. | Sparse map for autonomous vehicle navigation |
JP6593588B2 (ja) * | 2015-02-16 | 2019-10-23 | パナソニックIpマネジメント株式会社 | 物体検出装置および物体検出方法 |
KR102278387B1 (ko) * | 2015-07-07 | 2021-07-16 | 주식회사 만도 | 거리 산출 장치, 거리 산출 방법, 운전 지원 장치 및 운전 지원 시스템 |
EP3174007A1 (en) * | 2015-11-30 | 2017-05-31 | Delphi Technologies, Inc. | Method for calibrating the orientation of a camera mounted to a vehicle |
CN106650705B (zh) * | 2017-01-17 | 2020-04-24 | 深圳地平线机器人科技有限公司 | 区域标注方法、装置和电子设备 |
US10268203B2 (en) * | 2017-04-20 | 2019-04-23 | GM Global Technology Operations LLC | Calibration validation for autonomous vehicle operations |
JP6799325B2 (ja) * | 2017-05-29 | 2020-12-16 | 地方独立行政法人東京都立産業技術研究センター | 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム |
CN107390205B (zh) | 2017-07-20 | 2019-08-09 | 清华大学 | 一种利用车联网获取前车特征的单目视觉车辆测距方法 |
CN108983248A (zh) * | 2018-06-26 | 2018-12-11 | 长安大学 | 一种基于3d激光雷达及v2x的网联车定位方法 |
CN109062209A (zh) * | 2018-08-07 | 2018-12-21 | 安徽工程大学 | 一种智能辅助驾驶控制系统及其控制方法 |
-
2019
- 2019-12-23 US US16/724,617 patent/US10748032B1/en active Active
-
2020
- 2020-01-06 KR KR1020200001727A patent/KR102296496B1/ko active IP Right Grant
- 2020-01-08 CN CN202010017326.0A patent/CN111508272B/zh active Active
- 2020-01-20 JP JP2020006495A patent/JP6890350B2/ja active Active
- 2020-01-24 EP EP20153532.5A patent/EP3690817B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007256030A (ja) * | 2006-03-23 | 2007-10-04 | Clarion Co Ltd | 車載カメラのキャリブレーション装置およびキャリブレーション方法 |
JP2008187566A (ja) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | カメラ校正装置及び方法並びに車両 |
EP3159828A1 (en) * | 2015-10-19 | 2017-04-26 | Continental Automotive GmbH | Adaptive calibration using visible car details |
US20180365858A1 (en) * | 2017-06-14 | 2018-12-20 | Hyundai Mobis Co., Ltd. | Calibration method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
EP3690817A1 (en) | 2020-08-05 |
CN111508272A (zh) | 2020-08-07 |
CN111508272B (zh) | 2022-04-26 |
KR102296496B1 (ko) | 2021-09-02 |
EP3690817B1 (en) | 2022-09-28 |
US20200250470A1 (en) | 2020-08-06 |
KR20200095361A (ko) | 2020-08-10 |
US10748032B1 (en) | 2020-08-18 |
JP6890350B2 (ja) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6890350B2 (ja) | V2v通信を介して取得した情報とカメラを介して取得した情報とを融合してカメラのピッチキャリブレーションをより精巧に遂行することによって、カメラ基盤のロバスト物体距離の予測を提供する方法、及びこれを利用した装置 | |
US9990736B2 (en) | Robust anytime tracking combining 3D shape, color, and motion with annealed dynamic histograms | |
US11338807B2 (en) | Dynamic distance estimation output generation based on monocular video | |
EP3673233A2 (en) | Vehicle environment modeling with a camera | |
JP2019517089A (ja) | 地面マーキングを認識するための画像処理方法、および地面マーキングを検出するためのシステム | |
CN109074490B (zh) | 通路检测方法、相关装置及计算机可读存储介质 | |
CN109902637A (zh) | 车道线检测方法、装置、计算机设备和存储介质 | |
US11348263B2 (en) | Training method for detecting vanishing point and method and apparatus for detecting vanishing point | |
CN110956069B (zh) | 一种行人3d位置的检测方法及装置、车载终端 | |
JP6986290B2 (ja) | V2x情報融合を利用してhdマップをアップデートするための自車両位置決定を遂行する方法及び装置 | |
KR102373492B1 (ko) | 자체적으로 생성된 정보 및 다른 개체에 의해 생성된 정보를 선택적으로 사용하여 카메라의 오정렬을 보정하는 방법 및 이를 이용한 장치 | |
KR20200095330A (ko) | 세그먼테이션 스코어 맵 및 클러스터링 맵을 이용하여 자율 주행 차량의 주행 경로를 계획하기 위해 차선을 검출하는 포스트 프로세싱 방법 및 장치 | |
KR20190030474A (ko) | 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치 | |
CN110766760B (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
JP2020119523A (ja) | 疑似3dバウンディングボックスを検出する方法及びこれを利用した装置 | |
US11373328B2 (en) | Method, device and storage medium for positioning object | |
CN108363387A (zh) | 传感器控制方法及装置 | |
KR102618951B1 (ko) | 시각적 매핑 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
KR102626574B1 (ko) | 카메라 및 라이다의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
KR102616437B1 (ko) | 라이다 및 관성측정장치의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
KR102674613B1 (ko) | 차로 결정 방법 및 차로 결정 장치 | |
US20230296407A1 (en) | Apparatus, method, and computer program for determining sections for map update | |
KR20240022986A (ko) | 카메라 포즈 정보와 장면 이전 정보의 융합을 이용하여유클리드 공간 내의 객체들의 거리를 추정하는 방법 및 장치 | |
KR20210061069A (ko) | 3차원 객체를 표시하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200120 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200710 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210518 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6890350 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |