JP7321231B2 - 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 - Google Patents
路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 Download PDFInfo
- Publication number
- JP7321231B2 JP7321231B2 JP2021178763A JP2021178763A JP7321231B2 JP 7321231 B2 JP7321231 B2 JP 7321231B2 JP 2021178763 A JP2021178763 A JP 2021178763A JP 2021178763 A JP2021178763 A JP 2021178763A JP 7321231 B2 JP7321231 B2 JP 7321231B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- rotation matrix
- image
- dimensional
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得し、前記第1のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するステップと、
第2のカメラのワールド座標系での回転行列を表す第2の回転行列を取得し、前記第1の回転行列と前記第2の回転行列に基づき、第1のカメラのワールド座標系での回転行列を表す第3の回転行列を生成するステップと、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するステップと、を含む。
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得するための第1の取得ユニットと、
前記第1のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するための第1の生成ユニットと、
第2のカメラのワールド座標系での回転行列を表す第2の回転行列を取得するための第2の取得ユニットと、
前記第1の回転行列と前記第2の回転行列に基づき、第1のカメラのワールド座標系での回転行列を表す第3の回転行列を生成するための第2の生成ユニットと、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するための第3の生成ユニットと、を含む。
Claims (14)
- 路側カメラの外部パラメータに基づく三次元感知情報取得方法であって、前記路側カメラは、第1のカメラと第2のカメラを含み、前記第1のカメラと前記第2のカメラの間には、共通視認領域を有し、前記路側カメラの外部パラメータに基づく三次元感知情報取得方法は、
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得し、前記第1のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するステップと、
第2のカメラのワールド座標系での回転行列を表す第2の回転行列を取得し、前記第1の回転行列と前記第2の回転行列に基づき、第1のカメラのワールド座標系での回転行列を表す第3の回転行列を生成するステップと、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するステップと、を含み、
前記第1のマッチングポイントペアに基づき、第1の回転行列を生成するステップは、
前記第1のマッチングポイントペアに基づき、第2のカメラの同等のカメラ座標系での回転行列を表す第4の回転行列を生成するステップと、
第1のカメラの同等のカメラ座標系での回転行列を表す第5の回転行列を取得し、前記第4の回転行列と前記第5の回転行列に基づき、前記第1の回転行列を生成するステップと、を含み、
前記第5の回転行列を取得するステップは、
所定のピッチ角とヨー角に基づき、前記第1のカメラにより収集される画像が位置する第1のカメラ座標系を変換し、前記第5の回転行列を得るステップを含む、路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを取得するステップは、
前記第1のカメラにより収集される画像に基づいて第1の歪み除去画像を生成し、前記第2のカメラにより収集される画像に基づいて第2の歪み除去画像を生成するステップであって、前記第1の歪み除去画像と前記第2の歪み除去画像は、それぞれ前記共通視認領域に位置する画像領域を有するステップと、
前記第1の歪み除去画像における、前記共通視認領域に位置する画像領域の第1の画像特徴を抽出し、前記第2の歪み除去画像における、前記共通視認領域に位置する画像領域の第2の画像特徴を抽出するステップと、
前記第1の画像特徴と前記第2の画像特徴に基づき、第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを決定するステップと、を含む、請求項1に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1の画像特徴と前記第2の画像特徴に基づき、第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第1のマッチングポイントペアを決定するステップは、
前記第1の画像特徴と前記第2の画像特徴に基づき、前記第1の歪み除去画像と前記第2の歪み除去画像に対して特徴マッチングを行い、前記第1のマッチングポイントペアを得るステップを含み、
前記第1のカメラにより収集される画像に基づいて第1の歪み除去画像を生成し、前記第2のカメラにより収集される画像に基づいて第2の歪み除去画像を生成するステップは、
前記第1のカメラにより収集される画像を球面に投影して球面画像を得、前記球面画像に対して歪み除去処理を行い、前記第1の歪み除去画像を得るステップと、
歪み除去関数を採用して前記第2のカメラにより収集される画像を調整し、前記第2の歪み除去画像を得るステップと、を含む、請求項2に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第2の回転行列を取得するステップは、
マークポイントの三次元座標情報を取得し、前記第2のカメラにより収集される画像に基づき、前記第2のカメラにより収集される画像上の前記マークポイントの二次元座標情報を決定するステップと、
前記マークポイントの三次元座標情報と前記第2のカメラにより収集される画像上の前記マークポイントの二次元座標情報に対してレゾリューション処理を行い、前記第2の回転行列を得るステップと、を含む、請求項1-3のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成するステップは、
前記第3の回転行列に基づき、前記第1のカメラにより収集される画像における二次元感知情報をワールド座標系に変換して、第1のカメラにより収集される画像の三次元感知情報を生成するステップを含む、請求項1-4のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記路側カメラの外部パラメータに基づく三次元感知情報取得方法は、さらに、
前記第2の回転行列に基づき、前記第2のカメラにより収集される画像における二次元感知情報をワールド座標系に変換し、第2のカメラにより収集される画像の三次元感知情報を生成するステップを含む、請求項1-5のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記三次元感知情報は、自動運転車両の三次元感知位置決めのために用いられ、
前記第2の回転行列は、前記第2のカメラのパラメータをキャリブレーションするために用いられ、前記第3の回転行列は、前記第1のカメラのパラメータをキャリブレーションするために用いられる、請求項1-6のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1のカメラが魚眼カメラであり、前記第2のカメラがリアビューガン型カメラであるか、
または、前記第1のカメラが魚眼カメラであり、前記第2のカメラがフロントビューガン型カメラである、請求項1-7のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記路側カメラは、さらに、第3のカメラを含み、前記第1のカメラと前記第3のカメラとの間には、共通視認領域を有し、前記第3の回転行列に基づき、前記第1のカメラにより収集される画像の三次元感知情報を生成した後に、さらに、
第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを取得し、前記第2のマッチングポイントペアに基づき、第3のカメラの第1のカメラ座標系での回転行列を表す第6の回転行列を生成するステップと、
前記第3の回転行列と前記第6の回転行列に基づき、第3のカメラのワールド座標系での回転行列を表す第7の回転行列を生成するステップと、
前記第7の回転行列に基づいて前記第3のカメラにより収集される画像の三次元感知情報を生成するステップと、を含む、請求項1-8のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを取得するステップは、
前記第1のカメラにより収集される画像に基づいて第1の歪み除去画像を生成し、前記第3のカメラにより収集される画像に基づいて第3の歪み除去画像を生成するステップであって、前記第1の歪み除去画像と前記第3の歪み除去画像は、それぞれ前記共通視認領域に位置する画像領域を有するステップと、
前記第1の歪み除去画像における、前記共通視認領域に位置する画像領域の第1の画像特徴を抽出し、前記第3の歪み除去画像における、前記共通視認領域に位置する画像領域の第3の画像特徴を抽出するステップと、
前記第1の画像特徴と前記第3の画像特徴に基づき、第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを決定するステップと、を含み、
前記第1の画像特徴と前記第3の画像特徴に基づき、第1のカメラにより収集される画像と第3のカメラにより収集される画像との間の第2のマッチングポイントペアを決定するステップは、
前記第1の画像特徴と前記第3の画像特徴に基づき、前記第1の歪み除去画像と前記第3の歪み除去画像に対して特徴マッチングを行って、前記第2のマッチングポイントペアを得るステップを含み、
前記第3のカメラにより収集される画像に基づいて第3の歪み除去画像を生成するステップは、
歪み除去関数を採用して前記第3のカメラにより収集される画像を調整し、前記第3の歪み除去画像を得るステップを含む、請求項9に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記第2のマッチングポイントペアに基づき、第6の回転行列を生成するステップは、
前記第2のマッチングポイントペアに基づき、第8の回転行列を生成し、前記第8の回転行列は、第3のカメラの同等のカメラ座標系での回転行列を表すステップと、
第1のカメラの同等のカメラ座標系での回転行列を表す第5の回転行列を取得し、前記第5の回転行列と前記第8の回転行列に基づき、前記第6の回転行列を生成するステップと、を含み、
第1のカメラが魚眼カメラであり、第2のカメラがリアビューガン型カメラである場合、第3のカメラがフロントビューガン型カメラであり、
第1のカメラが魚眼カメラであり、第2のカメラがフロントビューガン型カメラである場合、前記第3のカメラがリアビューガン型カメラであり、
前記第3のカメラにより収集される画像の三次元感知情報は、自動運転車両の三次元感知位置決めのために用いられ、
前記第7の回転行列は、前記第3のカメラのパラメータをキャリブレーションするために用いられる、請求項9に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 前記路側カメラの外部パラメータに基づく三次元感知情報取得方法は、さらに、
第1のカメラにより収集される画像と第2のカメラにより収集される画像との間の第3のマッチングポイントペアを取得し、前記第3のマッチングポイントペアに基づき、第1のカメラの第2のカメラ座標系での回転行列を表す第1の回転行列を生成するステップと、
第1のカメラのワールド座標系での回転行列を表す第9の回転行列を取得し、前記第1の回転行列と前記第9の回転行列に基づき、第2のカメラのワールド座標系での回転行列を表す第10の回転行列を生成するステップと、
前記第9の回転行列に基づいて第1のカメラの三次元感知情報を生成し、前記第10の回転行列に基づいて第2のカメラにより収集される画像の三次元感知情報を生成するステップと、を含み、
前記第9の回転行列を取得するステップは、
マークポイントの三次元座標情報を取得し、前記第1のカメラにより収集される画像に基づき、前記第1のカメラにより収集される画像上の前記マークポイントの二次元座標情報を決定するステップと、
前記マークポイントの三次元座標情報と前記第1のカメラにより収集される画像上の前記マークポイントの二次元座標情報に対してレゾリューション処理を行い、前記第9の回転行列を得るステップと、を含み、
前記第9の回転行列は、前記第1のカメラのパラメータをキャリブレーションするために用いられ、前記第10の回転行列は、前記第2のカメラのパラメータをキャリブレーションするために用いられる、請求項1-8のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法。 - 路側カメラの外部パラメータに基づく三次元感知情報取得装置であって、前記路側カメラは、第1のカメラと第2のカメラを含み、前記第1のカメラと前記第2のカメラの間には、共通視認領域を有し、前記路側カメラの外部パラメータに基づく三次元感知情報取得装置は、請求項1-12のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法を実行するための用いられる、路側カメラの外部パラメータに基づく三次元感知情報取得装置。
- コンピュータ命令が記憶された非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1-12のいずれか1項に記載の路側カメラの外部パラメータに基づく三次元感知情報取得方法を実行させるために用いられる、非一時的なコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011630696.8A CN112668505A (zh) | 2020-12-30 | 2020-12-30 | 基于路侧相机的外参的三维感知信息获取方法和路侧设备 |
CN202011630696.8 | 2020-12-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022014921A JP2022014921A (ja) | 2022-01-20 |
JP7321231B2 true JP7321231B2 (ja) | 2023-08-04 |
Family
ID=75412940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021178763A Active JP7321231B2 (ja) | 2020-12-30 | 2021-11-01 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11893884B2 (ja) |
EP (1) | EP3940636A3 (ja) |
JP (1) | JP7321231B2 (ja) |
KR (1) | KR102571066B1 (ja) |
CN (1) | CN112668505A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742897B (zh) * | 2022-03-31 | 2023-02-28 | 阿波罗智联(北京)科技有限公司 | 路侧感知系统的相机安装信息的处理方法、装置及设备 |
CN115564877A (zh) * | 2022-10-13 | 2023-01-03 | 美的集团(上海)有限公司 | 虚拟人的驱动方法、装置、存储介质和电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003331383A (ja) | 2002-05-14 | 2003-11-21 | Seiwa Electric Mfg Co Ltd | 画像処理方法及び物体表示装置 |
JP2012526995A (ja) | 2009-05-15 | 2012-11-01 | パーデュー・リサーチ・ファウンデーション | 大規模カメラネットワークの較正 |
JP2013168757A (ja) | 2012-02-15 | 2013-08-29 | Hitachi Ltd | 映像監視装置、監視システム、監視システム構築方法 |
JP2015232442A (ja) | 2012-10-04 | 2015-12-24 | アルプス電気株式会社 | 画像処理装置及び車両前方監視装置 |
JP2018180860A (ja) | 2017-04-11 | 2018-11-15 | 株式会社デンソー | 交通情報システム |
WO2019049331A1 (ja) | 2017-09-08 | 2019-03-14 | 株式会社ソニー・インタラクティブエンタテインメント | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3608305B2 (ja) | 1996-08-14 | 2005-01-12 | 株式会社明電舎 | カメラ姿勢の検出装置 |
US7853038B2 (en) * | 2007-01-04 | 2010-12-14 | Industrial Technology Research Institute | Systems and methods for object dimension estimation |
JP4793324B2 (ja) | 2007-05-30 | 2011-10-12 | 株式会社日立製作所 | 車両監視装置および車両監視方法 |
US20090110267A1 (en) * | 2007-09-21 | 2009-04-30 | The Regents Of The University Of California | Automated texture mapping system for 3D models |
CN101894366B (zh) * | 2009-05-21 | 2014-01-29 | 北京中星微电子有限公司 | 一种获取标定参数的方法、装置及一种视频监控系统 |
JP5804892B2 (ja) | 2011-10-25 | 2015-11-04 | セコム株式会社 | カメラ姿勢算出装置 |
CN104361603B (zh) * | 2014-11-28 | 2017-04-26 | 苏州科达科技股份有限公司 | 枪机图像目标标定方法及其系统 |
EP3057062A1 (en) | 2015-02-16 | 2016-08-17 | Application Solutions (Electronics and Vision) Limited | Method and device for stabilization of a surround view image |
JP6330987B2 (ja) | 2016-06-17 | 2018-05-30 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び記憶媒体 |
CN107886547B (zh) | 2017-11-10 | 2020-04-28 | 长沙全度影像科技有限公司 | 一种鱼眼相机标定方法及系统 |
CN108447095A (zh) | 2018-01-31 | 2018-08-24 | 潍坊歌尔电子有限公司 | 一种鱼眼相机标定方法和装置 |
CN108711166B (zh) * | 2018-04-12 | 2022-05-03 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN108989796A (zh) * | 2018-08-09 | 2018-12-11 | 浙江大华技术股份有限公司 | 一种图像采集设备选择方法及装置 |
CN109509226B (zh) * | 2018-11-27 | 2023-03-28 | 广东工业大学 | 三维点云数据配准方法、装置、设备及可读存储介质 |
TWI745653B (zh) * | 2019-02-18 | 2021-11-11 | 宏碁股份有限公司 | 顧客行為分析方法與顧客行為分析系統 |
CN110988947B (zh) | 2019-02-20 | 2020-09-22 | 以见科技(上海)有限公司 | 一种基于实时动态载波相位差分技术的增强现实定位方法 |
CN109859314B (zh) * | 2019-03-12 | 2023-08-29 | 上海曼恒数字技术股份有限公司 | 三维重建方法、装置、电子设备和存储介质 |
CN110060304B (zh) * | 2019-03-31 | 2022-09-30 | 南京航空航天大学 | 一种生物体三维信息采集方法 |
CN111783502A (zh) * | 2019-04-03 | 2020-10-16 | 长沙智能驾驶研究院有限公司 | 基于车路协同的视觉信息融合处理方法、装置及存储介质 |
KR102235951B1 (ko) | 2019-06-20 | 2021-04-05 | 주식회사 아이닉스 | 차량용 영상 생성 장치 및 방법 |
CN110473262A (zh) * | 2019-08-22 | 2019-11-19 | 北京双髻鲨科技有限公司 | 多目相机的外参标定方法、装置、存储介质及电子设备 |
CN110599546A (zh) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | 一种获取三维空间数据的方法、系统、装置和存储介质 |
CN111223038B (zh) * | 2019-12-02 | 2023-06-09 | 上海赫千电子科技有限公司 | 一种车载环视图像的自动拼接方法及显示装置 |
CN111462029B (zh) * | 2020-03-27 | 2023-03-03 | 阿波罗智能技术(北京)有限公司 | 视觉点云与高精地图融合方法、装置和电子设备 |
CN111612760B (zh) * | 2020-05-20 | 2023-11-17 | 阿波罗智联(北京)科技有限公司 | 用于检测障碍物的方法和装置 |
CN111932627B (zh) * | 2020-09-15 | 2021-01-05 | 蘑菇车联信息科技有限公司 | 一种标识物绘制方法及系统 |
-
2020
- 2020-12-30 CN CN202011630696.8A patent/CN112668505A/zh active Pending
-
2021
- 2021-10-11 US US17/498,638 patent/US11893884B2/en active Active
- 2021-10-12 EP EP21202220.6A patent/EP3940636A3/en active Pending
- 2021-10-15 KR KR1020210137767A patent/KR102571066B1/ko active IP Right Grant
- 2021-11-01 JP JP2021178763A patent/JP7321231B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003331383A (ja) | 2002-05-14 | 2003-11-21 | Seiwa Electric Mfg Co Ltd | 画像処理方法及び物体表示装置 |
JP2012526995A (ja) | 2009-05-15 | 2012-11-01 | パーデュー・リサーチ・ファウンデーション | 大規模カメラネットワークの較正 |
JP2013168757A (ja) | 2012-02-15 | 2013-08-29 | Hitachi Ltd | 映像監視装置、監視システム、監視システム構築方法 |
JP2015232442A (ja) | 2012-10-04 | 2015-12-24 | アルプス電気株式会社 | 画像処理装置及び車両前方監視装置 |
JP2018180860A (ja) | 2017-04-11 | 2018-11-15 | 株式会社デンソー | 交通情報システム |
WO2019049331A1 (ja) | 2017-09-08 | 2019-03-14 | 株式会社ソニー・インタラクティブエンタテインメント | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102571066B1 (ko) | 2023-08-25 |
CN112668505A (zh) | 2021-04-16 |
EP3940636A3 (en) | 2022-04-27 |
JP2022014921A (ja) | 2022-01-20 |
EP3940636A2 (en) | 2022-01-19 |
US11893884B2 (en) | 2024-02-06 |
US20220028260A1 (en) | 2022-01-27 |
KR20210132624A (ko) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7221324B2 (ja) | 障害物を検出するための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム | |
JP7222031B2 (ja) | 画像の投影方法、装置、デバイス及び記憶媒体 | |
JP7321231B2 (ja) | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 | |
CN108279670B (zh) | 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质 | |
CN109387186B (zh) | 测绘信息获取方法、装置、电子设备及存储介质 | |
CN113989450B (zh) | 图像处理方法、装置、电子设备和介质 | |
CN111046762A (zh) | 一种对象定位方法、装置电子设备及存储介质 | |
CN112967344B (zh) | 相机外参标定的方法、设备、存储介质及程序产品 | |
KR102694715B1 (ko) | 장애물의 검출 방법, 전자 기기, 노변 기기 및 클라우드 컨트롤 플랫폼 | |
CN115410167A (zh) | 目标检测与语义分割方法、装置、设备及存储介质 | |
CN112150595A (zh) | 一种点云数据处理方法、装置、设备及介质 | |
CN110163823B (zh) | 基于胶囊机器人面向排水管的多视角图像矫正方法及系统 | |
JP7425169B2 (ja) | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN115578432B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Justs et al. | Bird’s-eye view image acquisition from simulated scenes using geometric inverse perspective mapping | |
CN111191596A (zh) | 一种封闭区域制图方法、装置及存储介质 | |
US12125221B2 (en) | Method and system for detecting a three-dimensional object in a two-dimensional image | |
US20230068375A1 (en) | Method and system for detecting a three-dimensional object in a two-dimensional image | |
CN117095131B (zh) | 物体运动关键点的三维重建方法、设备及存储介质 | |
CN112308905B (zh) | 一种平面标志物的坐标确定方法及装置 | |
CN113129437B (zh) | 一种标志物的空间坐标确定方法及装置 | |
CN110969578B (zh) | 一种局部栅格地图快速拼接方法、介质、终端和装置 | |
US20240331197A1 (en) | Method and apparatus for calibrating extrinsic parameters of surround-view cameras on a vehicle, vehicle and storage media | |
CN110838163B (zh) | 贴图处理方法及装置 | |
CN115526995A (zh) | 地图要素生成方法及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211101 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230320 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7321231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |