JP2020061114A - 奥行き推定装置、奥行き推定装置を使用する自動運転車両、及び自動運転車両に使用する奥行き推定方法 - Google Patents
奥行き推定装置、奥行き推定装置を使用する自動運転車両、及び自動運転車両に使用する奥行き推定方法 Download PDFInfo
- Publication number
- JP2020061114A JP2020061114A JP2018220031A JP2018220031A JP2020061114A JP 2020061114 A JP2020061114 A JP 2020061114A JP 2018220031 A JP2018220031 A JP 2018220031A JP 2018220031 A JP2018220031 A JP 2018220031A JP 2020061114 A JP2020061114 A JP 2020061114A
- Authority
- JP
- Japan
- Prior art keywords
- sensor data
- depth
- algorithm
- depth estimation
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 96
- 230000011218 segmentation Effects 0.000 claims abstract description 165
- 230000001360 synchronised effect Effects 0.000 claims abstract description 51
- 238000012545 processing Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 claims description 42
- 238000005070 sampling Methods 0.000 claims description 16
- 238000003702 image correction Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 8
- 238000009434 installation Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 23
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000002596 correlated effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241001125929 Trisopterus luscus Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
[外1]
)を生成する。より詳細に述べれば、奥行きに基づく前処理は、360°のFOV及び(例えば20 Hz)の周波数fLのサンプリングレートを有する1個以上のアクティブな3D奥行きセンサ(即ちLiDAR変換器アレイ702)を必要とする。奥行きに基づくセンサ(即ちLiDAR変換器アレイ702)のデータとRGBに基づくセンサ(即ち、RGBカメラアレイ701)との間でデータの同期を可能とするために、疎な3D点群体積データ(例えば(LT=[LX,LY,LZ])の空間情報(又は座標系)は、RGBに基づくセンサの密なRGB画像(例えばCT=[Ci,Cj])と同期させる必要がある。
[外2]
とを整列させて同期化第2センサデータを生成する。時間整列アルゴリズムは、第1セグメンテーション結果のサンプリングレートと、整列化第2センサデータとを同期させることを含む。より詳細に述べれば、LiDAR変換器アレイ702のサンプリングレートは、RGBカメラアレイ701のサンプリングレートよりも小さい。
[外3]
)における各セグメンテーション(例えばセグメントSEG)の一連の点群(例えば点Pt1〜Pt2)を、各フレーム(例えばフレームt-1、フレームt)にて、新たに取得された点群体積
[外4]
で認識する(ここにtは、画像データの時間インデックスを表す)。この場合、セグメントの一部のみが複数の点群を含むことができる。換言すれば、図示の各セグメントSEGは、複数の点群を含むセグメントのうちの1つを示す。他の実施形態においては、複数のセグメントのそれぞれが複数の点群を含むことができる。このことは、当業者であれば、実際の状況及び要求に従って調整可能であることに留意されたい。プロセッサは、セグメントSEG(例えば点Pout)内とは異なる点はフィルタリングする。なぜなら、点Pout及びセグメントSEGは異なる物体に位置するからである。プロセッサはその後、次式で表される通り、対になった点群と点群との間の最小ユークリッド距離を見出すことにより、
[外5]
の中の
各点群(例えばPt3,Pt4)を
[外6]
の中の
各点群(例えばPt1,Pt2)と対にする:
[外7]
は、各セグメントSEGにおける各点群値の奥行き及び反射率値を表す。
[外8]
を、第1セグメンテーション結果(即ち図10Bに示す、色に基づくセグメントマップ(Sc))に関連付けるよう処理し、(図10Bに示すように)2D‐30 Hzの疎な点群
[外9]
を生成する。
[外10]
における全てのセグメントを走査する。例えばセグメントSEGは、2D‐30 Hzの疎な点群
[外11]
における複数のセグメントのうちの1つである。プロセッサはその後、複数の各セグメントにおける複数の一連の点群を認識し、複数のセグメントにおける各部分のオクルード点(セグメントSEGの例えばオクルード点P100)及び複数の非オクルード点(セグメントSEGにおける他の点)を見出す。プロセッサはその後、オクルード点P100の奥行き値を、複数のセグメントの各部分における走査ウィンドウSW1内にて複数の非オクルード点の平均奥行き値で置き換える。このようにして、オクルード点P100は、非オクルード点に相関させることができる。この段階で、プロセッサは、相関奥行き体積データステップS740aにて、同期化第2センサデータ(即ち、相関させた同期化第2センサデータ)を生成する。この相関させた同期化第2センサデータは、疎な奥行きデータである。
[外12]
)における複数のセグメント(例えばセグメントSEG)の各部分における複数の点群(即ち、図11Aに示すセグメントSEGの点群)の平均奥行き値を計算する。
[外13]
)とを融合させて第1奥行き結果(即ち、図11Bに示す高解像度の奥行きマップ(D))を生成することができる。
210 第1タイプのセンサ
220 第2タイプのセンサ
230 プロセッサ
300 自動運転車両
S410 方法ステップ
S412 方法ステップ
S420 方法ステップ
S421 方法ステップ
S422 方法ステップ
S430 方法ステップ
501 RGBカメラアレイ
502 LiDAR変換器アレイ
S510 RGB画像データステップ
S511 画像修正ステップ
S512a 色に基づくセグメンテーションステップ
S512b 物体に基づくセグメンテーションステップ
S520 奥行き体積データステップ
S521 データ整列ステップ
S522 色ガイドされた奥行き推定ステップ
S530 物体ガイドされた奥行き推定ステップ
701 RGBカメラアレイ
702 LiDAR変換器アレイ
703 変換行列
S710 RGB画像データステップ
S711 画像修正ステップ
S711a 修正済みRGB画像データステップ
S712a 色に基づくセグメンテーションステップ
S712b 物体に基づくセグメンテーションステップ
S721a 空間整列ステップ
S721b 時間整列ステップ
S722 色ガイドされた奥行き推定ステップ
S730 物体ガイドされた奥行き推定ステップ
S740 オクルージョン相関ステップ
S740a 相関奥行き体積データステップ
SEG セグメンテーション
Pt1〜Pt6、Pout 点
t、t-1、t+1 時間
OB1、OB2、OBS 物体
V100 車両
SW1、SW2 スキャンウィンドウ
P100 オクルージョン点
UNR 未規定の奥行き値領域
1300 奥行き推定装置
1301 フロントカメラ
1302a フロント右側LiDAR
1302b フロント左側LiDAR
1303 処理ユニット
V1310 自動運転車両
1400 奥行き推定装置
1401 ステレオカメラ
1402 Velodyne社のレーザースキャナー
1403 プロセッサ
1404 GPS
V1410 自動運転車両
Claims (22)
- 奥行き推定装置であって、
・第1センサデータを生成するための第1タイプのセンサと、
・第2センサデータを生成するための第2タイプのセンサと、
・前記第1タイプのセンサ及び前記第2タイプのセンサに結合されたプロセッサとを備え、該プロセッサが、
第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して第1セグメンテーション結果を生成し、第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して第2セグメンテーション結果を生成し、
データ整列アルゴリズムを使用することにより、前記第1セグメンテーション結果のパラメータと、前記第2センサデータのパラメータとを同期させて複数のセグメントを含む同期化第2センサデータを生成し、前記複数のセグメントの一部が複数の点群を含み、
第1奥行き推定アルゴリズムを使用することにより、前記第1セグメンテーション結果と、前記同期化第2センサデータとを融合させて第1奥行き結果を生成し、
第2奥行き推定アルゴリズムを使用することにより、前記第2セグメンテーション結果と、前記第1奥行き結果とを融合させて第2奥行き結果を生成するよう少なくとも構成されている奥行き推定装置。 - 請求項1に記載の奥行き推定装置であって、前記プロセッサが、前記第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理するよう少なくとも構成され、前記第1セグメンテーションアルゴリズムが、前記第1センサデータの色情報に基づいて、前記第1センサデータを処理することを含み、前記プロセッサが、前記第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理するよう少なくとも構成され、前記第2セグメンテーションアルゴリズムが、前記第1センサデータの物体情報に基づいて、前記第1センサデータを処理することを含む奥行き推定装置。
- 請求項1又は2に記載の奥行き推定装置であって、第1奥行き推定アルゴリズムを使用することにより、前記第1セグメンテーション結果と、前記同期化第2センサデータとを融合させて第1奥行き結果を生成する前に、前記プロセッサが、オクルージョン相関アルゴリズムを使用することにより、前記同期化第2センサデータを処理するよう更に構成され、前記オクルージョン相関アルゴリズムが、
前記全てのセグメントを走査すること、
前記複数の各セグメントにおける一連の点群を認識して、前記複数のセグメントの各部分におけるオクルード点及び複数の非オクルード点を見出すこと、
前記オクルード点の奥行き値を、前記複数のセグメントの各部分における前記複数の非オクルード点の平均奥行き値で置き換えることを含む奥行き推定装置。 - 請求項1〜3の何れか一項に記載の奥行き推定装置であって、前記第1奥行き推定アルゴリズムが、
前記複数のセグメントの各部分における前記複数の点群の平均奥行き値を計算すること、
前記複数のセグメントの各部分に対応する平均奥行き値で、前記複数のセグメントの各部分における奥行値を埋めることを含む奥行き推定装置。 - 請求項1〜4の何れか一項に記載の奥行き推定装置であって、前記第2奥行き推定アルゴリズムが、
前記複数の一連のセグメントを認識して、未規定奥行き値領域を見出すこと、
前記複数のセグメントを走査して、前記複数のセグメントにおける、前記未規定奥行き値領域近傍の最小の奥行き値を見出すこと、
前記未規定領域の奥行き値を、最小の奥行き値で埋めることを含む奥行き推定装置。 - 請求項1〜5の何れか一項に記載の奥行き推定装置であって、前記データ整列アルゴリズムが、
変換行列を使用することにより、前記第2センサデータの空間パラメータを整列させて整列化第2センサデータを生成すること、
時間整列アルゴリズムを使用することにより、前記第1セグメンテーション結果の時間パラメータと、前記整列化第2センサデータの時間パラメータとを整列させて同期化第2センサデータを生成することを含む奥行き推定装置。 - 請求項6に記載の奥行き推定装置であって、前記時間整列アルゴリズムが、前記第1セグメンテーション結果のサンプリングレートと、前記整列化第2センサデータのサンプリングレートとを同期させることを含む奥行き推定装置。
- 請求項1〜7の何れか一項に記載の奥行き推定装置であって、前記第1タイプのセンサが、前記第2タイプのセンサよりも低い設置箇所を有する奥行き推定装置。
- 請求項1〜8の何れか一項に記載の奥行き推定装置であって、前記第1タイプのセンサがカメラを含み、前記第2タイプのセンサがLiDARセンサを含む奥行き推定装置。
- 請求項1〜9の何れか一項に記載の奥行き推定装置であって、前記第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して前記第1セグメンテーション結果を生成し、前記第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して前記第2セグメンテーション結果を生成する前に、前記プロセッサが、画像修正アルゴリズムを使用することにより、前記第1センサデータを処理して前記第1センサデータの空間的歪みを除去するよう更に構成されている奥行き推定装置。
- 奥行き推定装置を備える自動運転車両であって、前記奥行き推定装置が、
・第1センサデータを生成するための第1タイプのセンサと、
・第2センサデータを生成するための第2タイプのセンサと、
・前記第1タイプのセンサ及び前記第2タイプのセンサに結合されたプロセッサとを備え、該プロセッサが、
第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して第1セグメンテーション結果を生成し、第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して第2セグメンテーション結果を生成し、
データ整列アルゴリズムを使用することにより、前記第1セグメンテーション結果のパラメータと、前記第2センサデータのパラメータとを同期させて複数のセグメントを含む同期化第2センサデータを生成し、前記複数のセグメントの一部が複数の点群を含み、
第1奥行き推定アルゴリズムを使用することにより、前記第1セグメンテーション結果と、前記同期化第2センサデータとを融合させて第1奥行き結果を生成し、
第2奥行き推定アルゴリズムを使用することにより、前記第2セグメンテーション結果と、前記第1奥行き結果とを融合させて第2奥行き結果を生成するよう少なくとも構成されている自動運転車両。 - 請求項11に記載の自動運転車両であって、前記プロセッサが、前記第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理するよう少なくとも構成され、前記第1セグメンテーションアルゴリズムが、前記第1センサデータの色情報に基づいて、前記第1センサデータを処理することを含み、前記プロセッサが、前記第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理するよう少なくとも構成され、前記第2セグメンテーションアルゴリズムが、前記第1センサデータの物体情報に基づいて、前記第1センサデータを処理することを含む自動運転車両。
- 請求項11又は12に記載の自動運転車両であって、第1奥行き推定アルゴリズムを使用することにより、前記第1セグメンテーション結果と、前記同期化第2センサデータとを融合させて第1奥行き結果を生成する前に、前記プロセッサが、オクルージョン相関アルゴリズムを使用することにより、前記同期化第2センサデータを処理するよう更に構成され、前記オクルージョン相関アルゴリズムが、
前記全てのセグメントを走査すること、
前記複数の各セグメントにおける一連の点群を認識して、前記複数のセグメントの各部分におけるオクルード点及び複数の非オクルード点を見出すこと、
前記オクルード点の奥行き値を、前記複数のセグメントの各部分における前記複数の非オクルード点の平均奥行き値で置き換えることを含む自動運転車両。 - 自動運転車両に使用する奥行き推定方法であって、該方法が、
第1タイプのセンサを使用することにより、第1センサデータを生成するステップを含み、
第2タイプのセンサを使用することにより、第2センサデータを生成するステップを含み、
第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して第1セグメンテーション結果を生成し、第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して第2セグメンテーション結果を生成するステップを含み、
データ整列アルゴリズムを使用することにより、前記第1セグメンテーション結果のパラメータと、前記第2センサデータのパラメータとを同期させて複数のセグメントを含む同期化第2センサデータを生成するステップを含み、前記複数のセグメントの一部が複数の点群を含み、
第1奥行き推定アルゴリズムを使用することにより、前記第1セグメンテーション結果と、前記同期化第2センサデータとを融合させて第1奥行き結果を生成するステップを含み、
第2奥行き推定アルゴリズムを使用することにより、前記第2セグメンテーション結果と、前記第1奥行き結果とを融合させて第2奥行き結果を生成するステップを含む奥行き推定方法。 - 請求項14に記載の奥行き推定方法であって、前記プロセッサが、前記第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理するよう少なくとも構成され、前記第1セグメンテーションアルゴリズムが、前記第1センサデータの色情報に基づいて、前記第1センサデータを処理することを含み、前記プロセッサが、前記第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理するよう少なくとも構成され、前記第2セグメンテーションアルゴリズムが、前記第1センサデータの物体情報に基づいて、前記第1センサデータを処理することを含む奥行き推定方法。
- 請求項14又は15に記載の奥行き推定方法であって、第1奥行き推定アルゴリズムを使用することにより、前記第1セグメンテーション結果と、前記同期化第2センサデータとを融合させて第1奥行き結果を生成するステップの前に、前記奥行き推定方法が、オクルージョン相関アルゴリズムを使用することにより、同期化第2センサデータを処理するステップを更に含み、前記オクルージョン相関アルゴリズムが、
前記全てのセグメントを走査すること、
前記複数の各セグメントにおける一連の点群を認識して、前記複数のセグメントの各部分におけるオクルード点及び複数の非オクルード点を見出すこと、
前記オクルード点の奥行き値を、前記複数のセグメントの各部分における前記複数の非オクルード点の平均奥行き値で置き換えることを含む奥行き推定方法。 - 請求項14〜16の何れか一項に記載の奥行き推定方法であって、前記第1奥行き推定アルゴリズムが、
前記複数のセグメントの各部分における前記複数の点群の平均奥行き値を計算すること、
前記複数のセグメントの各部分に対応する平均奥行き値で、前記複数のセグメントの各部分における奥行値を埋めることを含む奥行き推定方法。 - 請求項14〜17の何れか一項に記載の奥行き推定方法であって、前記第2奥行き推定アルゴリズムが、
前記複数の一連のセグメントを認識して、未規定奥行き値領域を見出すこと、
前記複数のセグメントを走査して、前記複数のセグメントにおける、前記未規定奥行き値領域近傍の最小の奥行き値を見出すこと、
前記未規定領域の奥行き値を、最小の奥行き値で埋めることを含む奥行き推定方法。 - 請求項14〜18の何れか一項に記載の奥行き推定方法であって、前記データ整列アルゴリズムが、
変換行列を使用することにより、前記第2センサデータの空間パラメータを整列させて整列化第2センサデータを生成すること、
時間整列アルゴリズムを使用することにより、前記第1セグメンテーション結果の時間パラメータと、前記整列化第2センサデータの時間パラメータとを整列させて同期化第2センサデータを生成することを含む奥行き推定方法。 - 請求項19に記載の奥行き推定方法であって、前記時間整列アルゴリズムが、前記第1セグメンテーション結果のサンプリングレートと、前記整列化第2センサデータのサンプリングレートとを同期させることを含む奥行き推定方法。
- 請求項14〜20の何れか一項に記載の奥行き推定方法であって、前記第1タイプのセンサが、前記第2タイプのセンサよりも低い設置箇所を有する奥行き推定方法。
- 請求項14〜21に記載の奥行き推定方法であって、前記第1セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して前記第1セグメンテーション結果を生成し、前記第2セグメンテーションアルゴリズムを使用することにより、前記第1センサデータを処理して前記第2セグメンテーション結果を生成するステップの前に、前記方法が、画像修正アルゴリズムを使用することにより、前記第1センサデータを処理して前記第1センサデータの空間的歪みを除去するステップを更に含む奥行き推定方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/154,738 US10699430B2 (en) | 2018-10-09 | 2018-10-09 | Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof |
US16/154,738 | 2018-10-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020061114A true JP2020061114A (ja) | 2020-04-16 |
JP6744900B2 JP6744900B2 (ja) | 2020-08-19 |
Family
ID=70052214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018220031A Active JP6744900B2 (ja) | 2018-10-09 | 2018-11-26 | 奥行き推定装置、奥行き推定装置を使用する自動運転車両、及び自動運転車両に使用する奥行き推定方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10699430B2 (ja) |
JP (1) | JP6744900B2 (ja) |
TW (1) | TWI709943B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023162497A1 (ja) * | 2022-02-22 | 2023-08-31 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11244464B2 (en) * | 2018-03-09 | 2022-02-08 | Samsung Electronics Co., Ltd | Method and apparatus for performing depth estimation of object |
US20200137380A1 (en) * | 2018-10-31 | 2020-04-30 | Intel Corporation | Multi-plane display image synthesis mechanism |
WO2020241954A1 (ko) * | 2019-05-31 | 2020-12-03 | 엘지전자 주식회사 | 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 |
US11151798B1 (en) * | 2019-11-13 | 2021-10-19 | Apple Inc. | Depth rate up-conversion |
CN111860425B (zh) * | 2020-07-30 | 2021-04-09 | 清华大学 | 一种深度多模态跨层交叉融合方法、终端设备及存储介质 |
TWI812888B (zh) * | 2020-10-14 | 2023-08-21 | 財團法人工業技術研究院 | 影像辨識方法及影像辨識系統 |
TWI802827B (zh) * | 2020-12-01 | 2023-05-21 | 財團法人國家實驗研究院 | 校正異常點雲資料之方法 |
CN112632201B (zh) * | 2020-12-12 | 2022-05-13 | 武汉中海庭数据技术有限公司 | 一种交通道路拓扑网构建方法及装置 |
CN112686204B (zh) * | 2021-01-12 | 2022-09-02 | 昆明理工大学 | 一种基于稀疏像素点跟踪的视频测流方法及装置 |
US11909950B1 (en) * | 2021-09-21 | 2024-02-20 | Amazon Technologies, Inc. | Three-dimensional (3D) sensor performance evaluation |
TWI830363B (zh) * | 2022-05-19 | 2024-01-21 | 鈺立微電子股份有限公司 | 用於提供三維資訊的感測裝置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012056686A1 (ja) * | 2010-10-27 | 2012-05-03 | パナソニック株式会社 | 3次元画像補間装置、3次元撮像装置および3次元画像補間方法 |
JP2014106543A (ja) * | 2012-11-22 | 2014-06-09 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
JP2015096812A (ja) * | 2013-11-15 | 2015-05-21 | キヤノン株式会社 | 画像処理装置、撮像装置および距離補正方法 |
JP2018526641A (ja) * | 2015-08-24 | 2018-09-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | レーザ深度マップサンプリングのためのシステム及び方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI225222B (en) | 2003-10-22 | 2004-12-11 | Leadtek Research Inc | Robust face detection algorithm for real-time video sequence |
EP2184713A1 (en) | 2008-11-04 | 2010-05-12 | Koninklijke Philips Electronics N.V. | Method and device for generating a depth map |
US8941597B2 (en) | 2009-10-09 | 2015-01-27 | Egalax—Empia Technology Inc. | Method and device for analyzing two-dimension sensing information |
US20130095920A1 (en) | 2011-10-13 | 2013-04-18 | Microsoft Corporation | Generating free viewpoint video using stereo imaging |
US9514522B2 (en) | 2012-08-24 | 2016-12-06 | Microsoft Technology Licensing, Llc | Depth data processing and compression |
TWI509560B (zh) | 2012-08-31 | 2015-11-21 | Egalax Empia Technology Inc | 影像分割的方法與裝置 |
CN104346608B (zh) | 2013-07-26 | 2017-09-08 | 株式会社理光 | 稀疏深度图稠密化方法和装置 |
US9275078B2 (en) * | 2013-09-05 | 2016-03-01 | Ebay Inc. | Estimating depth from a single image |
US9778363B2 (en) | 2013-10-24 | 2017-10-03 | Massachusetts Institute Of Technology | Methods and apparatus for coded time-of-flight camera |
US20150381972A1 (en) | 2014-06-30 | 2015-12-31 | Microsoft Corporation | Depth estimation using multi-view stereo and a calibrated projector |
WO2017014691A1 (en) | 2015-07-17 | 2017-01-26 | Heptagon Micro Optics Pte. Ltd. | Generating a distance map based on captured images of a scene |
CN106162147B (zh) | 2016-07-28 | 2018-10-16 | 天津大学 | 基于双目Kinect深度相机系统的深度恢复方法 |
US9972067B2 (en) | 2016-10-11 | 2018-05-15 | The Boeing Company | System and method for upsampling of sparse point cloud for 3D registration |
CN107767357B (zh) | 2017-09-14 | 2021-04-09 | 北京工业大学 | 一种基于多方向字典的深度图像超分辨率方法 |
-
2018
- 2018-10-09 US US16/154,738 patent/US10699430B2/en active Active
- 2018-11-26 TW TW107142123A patent/TWI709943B/zh active
- 2018-11-26 JP JP2018220031A patent/JP6744900B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012056686A1 (ja) * | 2010-10-27 | 2012-05-03 | パナソニック株式会社 | 3次元画像補間装置、3次元撮像装置および3次元画像補間方法 |
JP2014106543A (ja) * | 2012-11-22 | 2014-06-09 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
JP2015096812A (ja) * | 2013-11-15 | 2015-05-21 | キヤノン株式会社 | 画像処理装置、撮像装置および距離補正方法 |
JP2018526641A (ja) * | 2015-08-24 | 2018-09-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | レーザ深度マップサンプリングのためのシステム及び方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023162497A1 (ja) * | 2022-02-22 | 2023-08-31 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US10699430B2 (en) | 2020-06-30 |
TWI709943B (zh) | 2020-11-11 |
US20200111225A1 (en) | 2020-04-09 |
TW202014990A (zh) | 2020-04-16 |
JP6744900B2 (ja) | 2020-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6744900B2 (ja) | 奥行き推定装置、奥行き推定装置を使用する自動運転車両、及び自動運転車両に使用する奥行き推定方法 | |
WO2019220622A1 (ja) | 画像処理装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体 | |
EP3438777B1 (en) | Method, apparatus and computer program for a vehicle | |
JP7448485B2 (ja) | ポイントクラウドの着色において使用される方法及びシステム | |
US9129435B2 (en) | Method for creating 3-D models by stitching multiple partial 3-D models | |
WO2016199244A1 (ja) | 物体認識装置及び物体認識システム | |
KR100953076B1 (ko) | 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치 | |
CN112346073A (zh) | 一种动态视觉传感器与激光雷达数据融合方法 | |
JPWO2020179065A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN110738731B (zh) | 一种用于双目视觉的3d重建方法和系统 | |
KR20080002409A (ko) | 2차원 영상의 3차원 영상 변환 장치 및 방법 | |
EP3832601A1 (en) | Image processing device and three-dimensional measuring system | |
CN113711276A (zh) | 尺度感知单目定位和地图构建 | |
US9204130B2 (en) | Method and system for creating a three dimensional representation of an object | |
Hahne et al. | Depth imaging by combining time-of-flight and on-demand stereo | |
JP7184203B2 (ja) | 画像処理装置、3次元計測システム、画像処理方法 | |
US20220012905A1 (en) | Image processing device and three-dimensional measuring system | |
KR20160146567A (ko) | 가변적으로 빠르게 움직이는 객체를 검출하는 방법 및 장치 | |
KR20210108283A (ko) | 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법 | |
JPH11248431A (ja) | 3次元モデル生成装置および3次元モデル生成プログラムを記録したコンピュータ読取可能な記録媒体 | |
CN111105449B (zh) | 深度估计装置、自动驾驶车辆及其深度估计方法 | |
JP2016004382A (ja) | 動き情報推定装置 | |
JP2015033047A (ja) | 複数カメラを用いた奥行き推定装置 | |
KR101668649B1 (ko) | 주변 환경 모델링 방법 및 이를 수행하는 장치 | |
Tong et al. | Dual-band stereo vision based on heterogeneous sensor networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6744900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |