JP2022014921A - 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 - Google Patents
路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 Download PDFInfo
- Publication number
- JP2022014921A JP2022014921A JP2021178763A JP2021178763A JP2022014921A JP 2022014921 A JP2022014921 A JP 2022014921A JP 2021178763 A JP2021178763 A JP 2021178763A JP 2021178763 A JP2021178763 A JP 2021178763A JP 2022014921 A JP2022014921 A JP 2022014921A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- rotation matrix
- image
- sensing information
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 114
- 239000011159 matrix material Substances 0.000 claims abstract description 641
- 238000012545 processing Methods 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 34
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000004590 computer program Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 241000251468 Actinopterygii Species 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】路側カメラにより収集される画像における三次元感知情報を効果的且つ迅速に得る方法であって、第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成し、第1の回転行列と第2の回転行列に基づき、第3の回転行列を生成する。第2の回転行列は、第2のカメラのワールド座標系での回転行列を表し、第3の回転行列は、第1のカメラのワールド座標系での回転行列を表す。第3の回転行列に基づき、第1のカメラにより収集される画像の三次元感知情報を生成する。第1のカメラと、第2のカメラの間には、共通視認領域を有する。
【選択図】図2
Description
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得し、前記第1のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するステップと、
第2のカメラのワールド座標系での回転行列を表す第2の回転行列を取得し、前記第1の回転行列と前記第2の回転行列に基づき、第1のカメラのワールド座標系での回転行列を表す第3の回転行列を生成するステップと、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するステップと、を含む。
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得するための第1の取得ユニットと、
前記第1のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するための第1の生成ユニットと、
第2のカメラのワールド座標系での回転行列を表す第2の回転行列を取得するための第2の取得ユニットと、
前記第1の回転行列と前記第2の回転行列に基づき、第1のカメラのワールド座標系での回転行列を表す第3の回転行列を生成するための第2の生成ユニットと、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するための第3の生成ユニットと、を含む。
Claims (15)
- 路側カメラの外部パラメータに基づく三次元感知情報取得方法であって、前記路側カメラは、第1のカメラと第2のカメラを含み、前記第1のカメラと前記第2のカメラの間には、共通視認領域を有し、前記路側カメラの外部パラメータに基づく三次元感知情報取得方法は、
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得し、前記第1のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するステップと、
第2のカメラのワールド座標系での回転行列を表す第2の回転行列を取得し、前記第1の回転行列と前記第2の回転行列に基づき、第1のカメラのワールド座標系での回転行列を表す第3の回転行列を生成するステップと、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するステップと、を含む、路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得するステップは、
前記第1のカメラにより収集される画像に基づいて第1の歪み除去画像を生成し、前記第2のカメラにより収集される画像に基づいて第2の歪み除去画像を生成するステップであって、前記第1の歪み除去画像と前記第2の歪み除去画像は、それぞれ前記共通視認領域に位置する画像領域を有するステップと、
前記第1の歪み除去画像における、前記共通視認領域に位置する画像領域の第1の画像特徴を抽出し、前記第2の歪み除去画像における、前記共通視認領域に位置する画像領域の第2の画像特徴を抽出するステップと、
前記第1の画像特徴と前記第2の画像特徴に基づき、第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを決定するステップと、を含む、請求項1に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1の画像特徴と前記第2の画像特徴に基づき、第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを決定するステップは、
前記第1の画像特徴と前記第2の画像特徴に基づき、前記第1の歪み除去画像と前記第2の歪み除去画像に対して特徴マッチングを行い、前記第1のマッチングポイントペアを得るステップを含み、
前記第1のカメラにより収集される画像に基づいて第1の歪み除去画像を生成し、前記第2のカメラにより収集される画像に基づいて第2の歪み除去画像を生成するステップは、
前記第1のカメラにより収集される画像を球面に投影して球面画像を得、前記球面画像に対して歪み除去処理を行い、前記第1の歪み除去画像を得るステップと、
歪み除去関数を採用して前記第2のカメラにより収集される画像を調整し、前記第2の歪み除去画像を得るステップと、を含む、請求項2に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1のマッチングポイントペアに基づき、第1の回転行列を生成するステップは、
前記第1のマッチングポイントペアに基づき、第2のカメラの同等のカメラ座標系での回転行列を表す第4の回転行列を生成するステップと、
第1のカメラの同等のカメラ座標系での回転行列を表す第5の回転行列を取得し、前記第4の回転行列と前記第5の回転行列に基づき、前記第1の回転行列を生成するステップと、を含み、
前記第5の回転行列を取得するステップは、
所定のピッチ角とヨー角に基づき、前記第1のカメラにより収集される画像が位置する第1のカメラ座標系を変換し、前記第5の回転行列を得るステップを含む、請求項1-3のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第2の回転行列を取得するステップは、
マークポイントの三次元座標情報を取得し、前記第2のカメラにより収集される画像に基づき、前記第2のカメラにより収集される画像上の前記マークポイントの二次元座標情報を決定するステップと、
前記マークポイントの三次元座標情報と前記第2のカメラにより収集される画像上の前記マークポイントの二次元座標情報に対してレゾリューション処理を行い、前記第2の回転行列を得るステップと、を含む、請求項1-4のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するステップは、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像における二次元感知情報をワールド座標系に変換して、第1のカメラにより収集される画像の三次元感知情報を生成するステップを含む、請求項1-5のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記路側カメラの外部パラメータに基づく三次元感知情報取得方法は、さらに、
前記第2の回転行列に基づき、前記第2のカメラにより収集される画像における二次元感知情報をワールド座標系に変換し、第2のカメラにより収集される画像の三次元感知情報を生成するステップを含む、請求項1-6のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記三次元感知情報は、自動運転車両の三次元感知位置決めのために用いられ、
前記第2の回転行列は、前記第2のカメラのパラメータをキャリブレーションするために用いられ、前記第3の回転行列は、前記第1のカメラのパラメータをキャリブレーションするために用いられる、請求項1-7のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1のカメラが魚眼カメラであり、前記第2のカメラがリアビューガン型カメラであるか、
または、前記第1のカメラが魚眼カメラであり、前記第2のカメラがフロントビューガン型カメラである、請求項1-8のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記路側カメラは、さらに、第3のカメラを含み、前記第1のカメラと前記第3のカメラとの間には、共通視認領域を有し、前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成した後に、さらに、
第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを取得し、前記第2のマッチングポイントペアに基づき、第3のカメラの第1のカメラ座標系での回転行列を表す第6の回転行列を生成するステップと、
前記第3の回転行列と前記第6の回転行列に基づき、第3のカメラのワールド座標系での回転行列を表す第7の回転行列を生成するステップと、
前記第7の回転行列に基づいて前記第3のカメラにより収集される画像の三次元感知情報を生成するステップと、を含む、請求項1-9のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを取得するステップは、
前記第1のカメラにより収集される画像に基づいて第1の歪み除去画像を生成し、前記第3のカメラにより収集される画像に基づいて第3の歪み除去画像を生成するステップであって、前記第1の歪み除去画像と前記第3の歪み除去画像は、それぞれ前記共通視認領域に位置する画像領域を有するステップと、
前記第1の歪み除去画像における、前記共通視認領域に位置する画像領域の第1の画像特徴を抽出し、前記第3の歪み除去画像における、前記共通視認領域に位置する画像領域の第3の画像特徴を抽出するステップと、
前記第1の画像特徴と前記第3の画像特徴に基づき、第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを決定するステップと、を含み、
前記第1の画像特徴と前記第3の画像特徴に基づき、第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを決定するステップは、
前記第1の画像特徴と前記第3の画像特徴に基づき、前記第1の歪み除去画像と前記第3の歪み除去画像に対して特徴マッチングを行って、前記第2のマッチングポイントペアを得るステップを含み、
前記第3のカメラにより収集される画像に基づいて第3の歪み除去画像を生成するステップは、
歪み除去関数を採用して前記第3のカメラにより収集される画像を調整し、前記第3の歪み除去画像を得るステップを含む、請求項10に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第2のマッチングポイントペアに基づき、第6の回転行列を生成するステップは、
前記第2のマッチングポイントペアに基づき、第8の回転行列を生成し、前記第8の回転行列は、第3のカメラの同等のカメラ座標系での回転行列を表すステップと、
第1のカメラの同等のカメラ座標系での回転行列を表す第5の回転行列を取得し、前記第5の回転行列と前記第8の回転行列に基づき、前記第6の回転行列を生成するステップと、を含み、
第1のカメラが魚眼カメラであり、第2のカメラがリアビューガン型カメラである場合、第3のカメラがフロントビューガン型カメラであり、
第1のカメラが魚眼カメラであり、第2のカメラがフロントビューガン型カメラである場合、前記第3のカメラがリアビューガン型カメラであり、
前記第3のカメラにより収集される画像の三次元感知情報は、自動運転車両の三次元感知位置決めのために用いられ、
前記第7の回転行列は、前記第3のカメラのパラメータをキャリブレーションするために用いられる、請求項10に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記路側カメラの外部パラメータに基づく三次元感知情報取得方法は、さらに、
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第3のマッチングポイントペアを取得し、前記第3のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するステップと、
第1のカメラのワールド座標系での回転行列を表す第9の回転行列を取得し、前記第1の回転行列と前記第9の回転行列に基づき、第2のカメラのワールド座標系での回転行列を表す第10の回転行列を生成するステップと、
前記第9の回転行列に基づいて第1のカメラの三次元感知情報を生成し、前記第10の回転行列に基づいて第2のカメラにより収集される画像の三次元感知情報を生成するステップと、を含み、
前記第9の回転行列を取得するステップは、
マークポイントの三次元座標情報を取得し、前記第1のカメラにより収集される画像に基づき、前記第1のカメラにより収集される画像上の前記マークポイントの二次元座標情報を決定するステップと、
前記マークポイントの三次元座標情報と前記第1のカメラにより収集される画像上の前記マークポイントの二次元座標情報に対してレゾリューション処理を行い、前記第9の回転行列を得るステップと、を含み、
前記第9の回転行列は、前記第1のカメラのパラメータをキャリブレーションするために用いられ、前記第10の回転行列は、前記第2のカメラのパラメータをキャリブレーションするために用いられる、請求項1-9のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 路側カメラの外部パラメータに基づく三次元感知情報取得装置であって、前記路側カメラは、第1のカメラと第2のカメラを含み、前記第1のカメラと前記第2のカメラの間には、共通視認領域を有し、前記路側カメラの外部パラメータに基づく三次元感知情報取得装置は、請求項1-13のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法を実行するための用いられる、路側カメラの外部パラメータに基づく三次元感知情報取得装置。
- コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1-13のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法を実行させるために用いられる、非一時的なコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011630696.8A CN112668505A (zh) | 2020-12-30 | 2020-12-30 | 基于路侧相机的外参的三维感知信息获取方法和路侧设备 |
CN202011630696.8 | 2020-12-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022014921A true JP2022014921A (ja) | 2022-01-20 |
JP7321231B2 JP7321231B2 (ja) | 2023-08-04 |
Family
ID=75412940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021178763A Active JP7321231B2 (ja) | 2020-12-30 | 2021-11-01 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11893884B2 (ja) |
EP (1) | EP3940636A3 (ja) |
JP (1) | JP7321231B2 (ja) |
KR (1) | KR102571066B1 (ja) |
CN (1) | CN112668505A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742897B (zh) * | 2022-03-31 | 2023-02-28 | 阿波罗智联(北京)科技有限公司 | 路侧感知系统的相机安装信息的处理方法、装置及设备 |
CN115564877A (zh) * | 2022-10-13 | 2023-01-03 | 美的集团(上海)有限公司 | 虚拟人的驱动方法、装置、存储介质和电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003331383A (ja) * | 2002-05-14 | 2003-11-21 | Seiwa Electric Mfg Co Ltd | 画像処理方法及び物体表示装置 |
JP2008299458A (ja) * | 2007-05-30 | 2008-12-11 | Hitachi Ltd | 車両監視装置および車両監視方法 |
JP2012526995A (ja) * | 2009-05-15 | 2012-11-01 | パーデュー・リサーチ・ファウンデーション | 大規模カメラネットワークの較正 |
JP2013092871A (ja) * | 2011-10-25 | 2013-05-16 | Secom Co Ltd | カメラ姿勢算出装置 |
JP2013168757A (ja) * | 2012-02-15 | 2013-08-29 | Hitachi Ltd | 映像監視装置、監視システム、監視システム構築方法 |
JP2015232442A (ja) * | 2012-10-04 | 2015-12-24 | アルプス電気株式会社 | 画像処理装置及び車両前方監視装置 |
JP2018180860A (ja) * | 2017-04-11 | 2018-11-15 | 株式会社デンソー | 交通情報システム |
WO2019049331A1 (ja) * | 2017-09-08 | 2019-03-14 | 株式会社ソニー・インタラクティブエンタテインメント | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3608305B2 (ja) | 1996-08-14 | 2005-01-12 | 株式会社明電舎 | カメラ姿勢の検出装置 |
US7853038B2 (en) * | 2007-01-04 | 2010-12-14 | Industrial Technology Research Institute | Systems and methods for object dimension estimation |
US20090110267A1 (en) * | 2007-09-21 | 2009-04-30 | The Regents Of The University Of California | Automated texture mapping system for 3D models |
CN101894366B (zh) * | 2009-05-21 | 2014-01-29 | 北京中星微电子有限公司 | 一种获取标定参数的方法、装置及一种视频监控系统 |
CN104361603B (zh) * | 2014-11-28 | 2017-04-26 | 苏州科达科技股份有限公司 | 枪机图像目标标定方法及其系统 |
EP3057062A1 (en) | 2015-02-16 | 2016-08-17 | Application Solutions (Electronics and Vision) Limited | Method and device for stabilization of a surround view image |
WO2017217411A1 (ja) | 2016-06-17 | 2017-12-21 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び記憶媒体 |
CN107886547B (zh) | 2017-11-10 | 2020-04-28 | 长沙全度影像科技有限公司 | 一种鱼眼相机标定方法及系统 |
CN108447095A (zh) | 2018-01-31 | 2018-08-24 | 潍坊歌尔电子有限公司 | 一种鱼眼相机标定方法和装置 |
CN108711166B (zh) * | 2018-04-12 | 2022-05-03 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN108989796A (zh) * | 2018-08-09 | 2018-12-11 | 浙江大华技术股份有限公司 | 一种图像采集设备选择方法及装置 |
CN109509226B (zh) * | 2018-11-27 | 2023-03-28 | 广东工业大学 | 三维点云数据配准方法、装置、设备及可读存储介质 |
TWI745653B (zh) * | 2019-02-18 | 2021-11-11 | 宏碁股份有限公司 | 顧客行為分析方法與顧客行為分析系統 |
CN110988947B (zh) | 2019-02-20 | 2020-09-22 | 以见科技(上海)有限公司 | 一种基于实时动态载波相位差分技术的增强现实定位方法 |
CN109859314B (zh) * | 2019-03-12 | 2023-08-29 | 上海曼恒数字技术股份有限公司 | 三维重建方法、装置、电子设备和存储介质 |
CN110060304B (zh) * | 2019-03-31 | 2022-09-30 | 南京航空航天大学 | 一种生物体三维信息采集方法 |
CN111783502A (zh) * | 2019-04-03 | 2020-10-16 | 长沙智能驾驶研究院有限公司 | 基于车路协同的视觉信息融合处理方法、装置及存储介质 |
KR102235951B1 (ko) | 2019-06-20 | 2021-04-05 | 주식회사 아이닉스 | 차량용 영상 생성 장치 및 방법 |
CN110473262A (zh) * | 2019-08-22 | 2019-11-19 | 北京双髻鲨科技有限公司 | 多目相机的外参标定方法、装置、存储介质及电子设备 |
CN110599546A (zh) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | 一种获取三维空间数据的方法、系统、装置和存储介质 |
CN111223038B (zh) * | 2019-12-02 | 2023-06-09 | 上海赫千电子科技有限公司 | 一种车载环视图像的自动拼接方法及显示装置 |
CN111462029B (zh) * | 2020-03-27 | 2023-03-03 | 阿波罗智能技术(北京)有限公司 | 视觉点云与高精地图融合方法、装置和电子设备 |
CN111612760B (zh) * | 2020-05-20 | 2023-11-17 | 阿波罗智联(北京)科技有限公司 | 用于检测障碍物的方法和装置 |
CN111932627B (zh) * | 2020-09-15 | 2021-01-05 | 蘑菇车联信息科技有限公司 | 一种标识物绘制方法及系统 |
-
2020
- 2020-12-30 CN CN202011630696.8A patent/CN112668505A/zh active Pending
-
2021
- 2021-10-11 US US17/498,638 patent/US11893884B2/en active Active
- 2021-10-12 EP EP21202220.6A patent/EP3940636A3/en active Pending
- 2021-10-15 KR KR1020210137767A patent/KR102571066B1/ko active IP Right Grant
- 2021-11-01 JP JP2021178763A patent/JP7321231B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003331383A (ja) * | 2002-05-14 | 2003-11-21 | Seiwa Electric Mfg Co Ltd | 画像処理方法及び物体表示装置 |
JP2008299458A (ja) * | 2007-05-30 | 2008-12-11 | Hitachi Ltd | 車両監視装置および車両監視方法 |
JP2012526995A (ja) * | 2009-05-15 | 2012-11-01 | パーデュー・リサーチ・ファウンデーション | 大規模カメラネットワークの較正 |
JP2013092871A (ja) * | 2011-10-25 | 2013-05-16 | Secom Co Ltd | カメラ姿勢算出装置 |
JP2013168757A (ja) * | 2012-02-15 | 2013-08-29 | Hitachi Ltd | 映像監視装置、監視システム、監視システム構築方法 |
JP2015232442A (ja) * | 2012-10-04 | 2015-12-24 | アルプス電気株式会社 | 画像処理装置及び車両前方監視装置 |
JP2018180860A (ja) * | 2017-04-11 | 2018-11-15 | 株式会社デンソー | 交通情報システム |
WO2019049331A1 (ja) * | 2017-09-08 | 2019-03-14 | 株式会社ソニー・インタラクティブエンタテインメント | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220028260A1 (en) | 2022-01-27 |
EP3940636A3 (en) | 2022-04-27 |
JP7321231B2 (ja) | 2023-08-04 |
US11893884B2 (en) | 2024-02-06 |
KR20210132624A (ko) | 2021-11-04 |
KR102571066B1 (ko) | 2023-08-25 |
CN112668505A (zh) | 2021-04-16 |
EP3940636A2 (en) | 2022-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102581429B1 (ko) | 장애물을 탐지하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN107223269B (zh) | 三维场景定位方法和装置 | |
US11715238B2 (en) | Image projection method, apparatus, device and storage medium | |
KR102051889B1 (ko) | 스마트 글래스에서 2d 데이터를 기반으로 3d 증강현실을 구현하는 방법 및 시스템 | |
JP2022014921A (ja) | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 | |
CN110675635B (zh) | 相机外参的获取方法、装置、电子设备及存储介质 | |
CN113989450A (zh) | 图像处理方法、装置、电子设备和介质 | |
JP7351892B2 (ja) | 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム | |
CN111721281B (zh) | 位置识别方法、装置和电子设备 | |
CN112967345A (zh) | 鱼眼相机的外参标定方法、装置以及系统 | |
CN112184914A (zh) | 目标对象三维位置的确定方法、装置和路侧设备 | |
CN112150595A (zh) | 一种点云数据处理方法、装置、设备及介质 | |
JP7425169B2 (ja) | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
US12125221B2 (en) | Method and system for detecting a three-dimensional object in a two-dimensional image | |
CN115661493A (zh) | 一种对象位姿的确定方法及装置、设备及存储介质 | |
CN116129422A (zh) | 单目3d目标检测方法、装置、电子设备和存储介质 | |
CN115578432A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN116129087A (zh) | 定位方法、视觉地图的生成方法及其装置 | |
CN112417924A (zh) | 一种标志杆的空间坐标获取方法及装置 | |
CN117095131B (zh) | 物体运动关键点的三维重建方法、设备及存储介质 | |
CN117078752B (zh) | 车辆位姿估计方法、装置、车辆及存储介质 | |
CN113312979B (zh) | 图像处理方法、装置、电子设备、路侧设备及云控平台 | |
US20240331197A1 (en) | Method and apparatus for calibrating extrinsic parameters of surround-view cameras on a vehicle, vehicle and storage media | |
CN113129437B (zh) | 一种标志物的空间坐标确定方法及装置 | |
CN116596994A (zh) | 一种基于三目视觉的目标位姿确定方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211101 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230320 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7321231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |