KR20210132624A - 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기 - Google Patents
도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기 Download PDFInfo
- Publication number
- KR20210132624A KR20210132624A KR1020210137767A KR20210137767A KR20210132624A KR 20210132624 A KR20210132624 A KR 20210132624A KR 1020210137767 A KR1020210137767 A KR 1020210137767A KR 20210137767 A KR20210137767 A KR 20210137767A KR 20210132624 A KR20210132624 A KR 20210132624A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- rotation matrix
- image
- coordinate system
- image collected
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
본 출원은 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기를 개시하는데 이는 컴퓨터 기술에서의 자율 주행, 지능형 교통 및 컴퓨터 비전에 관한 것이다. 구체적인 구현 방안은, 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하고; 제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제3 회전 매트릭스를 생성하되, 제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내고 제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내며; 제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 것이다. 제1 카메라와 상기 제2 카메라 사이에는 공동 가시 영역이 구비된다. 이로써 효과적이고 신속하게 도로측 카메라가 수집한 영상에서의 3차원 감지 정보를 획득한다.
Description
본 출원은 컴퓨터 기술에서의 자율 주행, 지능형 교통 및 컴퓨터 비전에 관한 것으로, 특히 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기에 관한 것이다.
도로측 감지 시스템은 차량을 위해 3차원 감지 정보를 제공해야 하는데, 길목에 도로측 카메라를 설치하여 도로측 카메라를 통해 영상을 획득하고 도로측 카메라에 의해 획득된 영상에 근거하여 3차원 감지 정보를 획득할 수 있다. 도로측 카메라가 획득한 영상에 근거하여 3차원 감지 정보를 획득할 경우, 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 획득해야 한다.
종래 기술에서는, 고정밀 지도 또는 인위적인 실시간 동적(real-time kinematic, 약칭은 RTK) 기기 도팅 방식을 통해 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 미리 획득하여 3 차원 감지 정보를 생성할 수 있다.
그러나 종래 기술에서는, 고정밀 지도의 제작 원가가 비교적 높고 차선이 없을 경우 고정밀도 지도를 사용할 수 없어 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 결정하는 원가가 높아지게 하며; 인위적인 RTK 기기에 의한 도팅 방식은 효율이 낮고 신변이 위태로운 문제가 존재하며, 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 제때에 효과적으로 획득할 수 없다. 이상의 방식은 3차원 감지 정보를 효과적이고 신속하게 얻을 수 없다.
본 출원은 효과적이고 신속하게 3차원 감지 정보를 획득하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기를 제공한다.
본 출원의 제1 양태에 따르면, 제1 카메라와 제2 카메라를 포함하고 상기 제1 카메라와 상기 제2 카메라 사이에 공동 가시 영역이 구비되는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법을 제공하는 바, 상기 방법은,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하고 상기 제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 단계;
제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하고, 상기 제1 회전 매트릭스와 상기 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성하는 단계;
상기 제3 회전 매트릭스에 근거하여 상기 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 단계를 포함한다.
본 출원의 제2 양태에 따르면, 제1 카메라와 제2 카메라를 포함하고 상기 제1 카메라와 상기 제2 카메라 사이에 공동 가시 영역이 구비되는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 장치를 제공하는 바, 상기 장치는,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하는 제1 획득 유닛;
상기 제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 제1 생성 유닛;
제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하는 제2 획득 유닛;
상기 제1 회전 매트릭스와 상기 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성하는 제2 생성 유닛;
상기 제3 회전 매트릭스에 근거하여 상기 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 제3 생성 유닛을 포함한다.
본 출원의 제3 양태에 따르면, 전자기기를 제공하는 바, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하되, 상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서로 하여금 상기 방법을 수행할 수 있도록 한다.
본 출원의 제4 양태에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장 매체를 제공하는 바, 여기서, 상기 컴퓨터 명령은 컴퓨터로 하여금 상기 방법을 수행하도록 한다.
본 출원의 제5 양태에 따르면, 컴퓨터 프로그램이 포함되는 컴퓨터 프로그램 제품을 제공하는 바, 상기 컴퓨터 프로그램은 판독 가능 저장 매체에 저장되고, 전자기기의 적어도 하나의 프로세서는 상기 판독 가능 저장 매체로부터 상기 컴퓨터 프로그램을 판독할 수 있으며, 상기 적어도 하나의 프로세서는 상기 컴퓨터 프로그램을 실행하여 전자기기로 하여금 제1 양태에 따른 방법을 수행하도록 한다.
본 출원의 제6 양태에 따르면, 제3 양태에서 제공하는 전자기기를 포함하는 도로측 기기를 제공한다.
본 출원의 제7 양태에 따르면, 제3 양태에서 제공하는 전자기기를 포함하는 클라우드 제어 플랫폼을 제공한다.
본 출원의 제8 양태에 따르면, 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공하며, 상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 때, 상술한 제1 양태에 따른 방법을 실행하도록 한다.
본 출원의 방안에 따르면, 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성할 경우, 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 사용할 필요가 없어 원가를 절감하고 효율을 향상시켜 사람들의 안전을 확보하며; 더 나아가, 제1 카메라가 수집한 영상에서의 3차원 감지 정보를 효과적으로 획득할 수 있다. 또한, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라인 경우, 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며; 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라인 경우, 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있다.
본 명세서에서 설명한 내용은 본 출원의 실시예의 관건적이거나 중요한 특징을 표기하기 위한 것이 아니고 본 출원의 범위를 한정하기 위한 것도 아님을 이해해야 한다. 본 출원의 기타 특징은 아래의 명세서를 통해 더 용이하게 이해할 수 있을 것이다.
도면은 본 해결수단을 더 잘 이해하기 위한 것으로 본 출원에 대해 한정하는 것이 아니다. 여기서,
도 1은 어안 카메라가 촬영한 영상이다.
도 2는 본 출원의 제1 실시예에 따른 도면이다.
도 3은 본 출원의 제2 실시예에 따른 도면이다.
도 4는 본 출원의 실시예에서 제공하는 제1 왜곡 제거 영상의 도면이다.
도 5는 본 출원의 제3 실시예에 따른 도면이다.
도 6은 본 출원의 제4 실시예에 따른 도면이다.
도 7은 본 출원의 제5 실시예에 따른 도면이다.
도 8은 본 출원의 제6 실시예에 따른 도면이다.
도 9는 본 출원의 제7 실시예에 따른 도면이다.
도 10은 본 출원의 제8 실시예에 따른 도면이다.
도 11은 본 출원의 제9 실시예에 따른 도면이다.
도 12는 본 출원의 실시예의 예시적인 전자기기(1200)를 구현하기 위한 예시적인 블록도이다.
도 1은 어안 카메라가 촬영한 영상이다.
도 2는 본 출원의 제1 실시예에 따른 도면이다.
도 3은 본 출원의 제2 실시예에 따른 도면이다.
도 4는 본 출원의 실시예에서 제공하는 제1 왜곡 제거 영상의 도면이다.
도 5는 본 출원의 제3 실시예에 따른 도면이다.
도 6은 본 출원의 제4 실시예에 따른 도면이다.
도 7은 본 출원의 제5 실시예에 따른 도면이다.
도 8은 본 출원의 제6 실시예에 따른 도면이다.
도 9는 본 출원의 제7 실시예에 따른 도면이다.
도 10은 본 출원의 제8 실시예에 따른 도면이다.
도 11은 본 출원의 제9 실시예에 따른 도면이다.
도 12는 본 출원의 실시예의 예시적인 전자기기(1200)를 구현하기 위한 예시적인 블록도이다.
이하 도면과 결부하여 본 출원의 예시적인 실시예를 설명하되, 여기서 본 출원의 실시예를 포함하는 여러 가지 세부절차는 이해를 돕기 위한 것으로 이들은 응당 예시적인 것으로 간주해야 한다. 따라서 본 기술분야에서 통상의 지식을 가진 자들은 여기서 설명한 실시예에 대하여 여러 가지 변화와 수정을 진행할 수 있고 이는 본 출원의 범위와 정신을 벗어나지 않는다는 것을 알 수 있다. 마찬가지로 명확함과 간결함을 위하여 아래의 설명에서는 공지 기능과 구조에 대한 설명을 생략하였다.
도로측 감지 시스템에서는 차량에 3차원 감지 정보를 제공하여 길목의 장대에 어안 카메라, 레어 뷰 건 타입 카메라 및 프론트 뷰 건 타입 카메라를 포함하는 도로측 카메라를 설치할 수 있고; 일반적으로, 각 길목의 장대에 동시에 어안 카메라, 레어 뷰 건 타입 카메라 및 프론트 뷰 건 타입 카메라를 설치한다. 도로측 카메라를 통해 영상을 획득하고, 각 도로측 카메라가 획득한 영상에 근거하여 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 획득한다.
도로측 카메라가 획득한 영상에서 3차원 감지 정보를 획득할 경우, 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 획득한 다음 도로측 카메라의 세계 좌표계에서의 회전 매트릭스에 따라 도로측 카메라가 수집한 영상의 3차원 감지 정보를 획득해야 한다. 예를 들어 설명하면, 도 1은 어안 카메라가 촬영한 영상인데 어안 카메라가 수집한 영상은 왜곡된 것이므로 어안 카메라의 세계 좌표계에서의 회전 매트릭스를 획득하여 어안 카메라가 수집한 영상의 3차원 감지 정보를 획득해야 한다.
선행기술에서는, 미리 고정밀 지도 또는 RTK 기기 도팅 방식을 통해 각 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 획득하고, 나아가 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 하나의 예시에서, 미리 고정밀 지도 또는 RTK 기기 도팅 방식을 통해 마킹 포인트의 GPS(Global Positioning System) 3차원 좌표를 획득하고; 다음, 각 도로측 카메라가 영상을 수집하여 영상에서의 마킹 포인트의 2차원 좌표를 결정하며; 각 도로측 카메라에 대해, 마킹 포인트의 3차원 좌표, 마킹 포인트의 2차원 좌표에 근거하여 PNP(pespective-n-point, 약칭 PNP) 솔루션 처리를 진행함으로써 각 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 획득한다.
그러나 상기 방식에서, 고정밀 지도의 제작 원가가 비교적 높고 차선이 없을 경우 고정밀도 지도를 사용할 수 없어 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 결정하는 원가가 높아지게 하며; 인위적인 RTK 기기에 의한 도팅 방식은 효율이 낮고 신변이 위태로운 문제가 존재하며 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 제때에 효과적으로 획득할 수 없다.
본 출원은 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기를 제공하는데, 이는 컴퓨터 기술에서의 자율 주행, 지능형 교통 및 컴퓨터 비전에 응용되어 정확하고 신속하게 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 획득하며, 나아가 효과적이고 신속하게 3차원 감지 정보를 획득하도록 한다.
도 2는 본 출원의 제1 실시예에 따른 도면이고, 도 2에 도시된 바와 같이, 본 실시예에서 제공하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법은 아래와 같은 단계를 포함한다.
단계(201), 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하고 제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성한다.
예시적으로, 본 실시예에서의 도로측 카메라는 제1 카메라와 제2 카메라를 포함하고, 여기서, 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비된다. 하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이다.
본 실시예의 실행주체는 전자기기 일 수 있는데, 여기서 전자기기는 단말기 또는 서버 또는 기타 본 실시예의 방법을 수행할 수 있는 장치 또는 기기 일 수 있다. 또는 본 출원에서의 각 실시예의 실행주체는 여러 가지 도로측 기기 일 수 있는데, 여기서 도로측 기기는 예를 들어 컴퓨팅 기능을 구비한 도로측 감지 기기, 도로측 감지 기기와 연결되는 도로측 컴퓨팅 기기 일 수 있다. 본 출원에서의 각 실시예의 실행주체는 도로측 컴퓨팅 기기와 연결되는 서버 기기 또는 도로측 감지 기기와 직접적으로 연결되는 서버 기기 등 일 수도 있으며; 여기서 본 출원의 서버 기기는 예를 들어 클라우드 제어 플랫폼, 차량-도로 협업 관리 플랫폼, 중앙 서브 시스템, 에지 컴퓨팅 플랫폼, 클라우드 컴퓨팅 플랫폼 등 일 수도 있다. 여기서, 지능형 교통의 차량-도로 협업 시스템 구조에서, 도로측 기기는 도로측 감지 기기와 도로측 컴퓨팅 기기를 포함하고, 도로측 감지 기기(예를 들어 도로측 카메라)는 도로측 컴퓨팅 기기(예를 들어 도로측 컴퓨팅 유닛RSCU)에 연결되고, 도로측 컴퓨팅 기기는 서버기기에 연결되며, 서버기기는 여러 가지 방식을 통해 자율 주행 또는 보조 운전 차량과 통신할 수 있으며; 다른 시스템 구조에서, 도로측 감지 기기 자체가 컴퓨팅 기능을 포함하면 도로측 감지 기기는 상기 서버기기에 직접 연결된다. 이상의 연결은 유선 또는 무선일 수 있으며; 본 출원에서 서버 기기는 예를 들어 클라우드 제어 플랫폼, 차량-도로 협업 관리 플랫폼, 중앙 서브 시스템, 에지 컴퓨팅 플랫폼, 클라우드 컴퓨팅 플랫폼 등이다.
우선, 아래의 개념을 소개하는 바, "레어 뷰 건 타입 카메라 좌표계"는 레어 뷰 건 타입 카메라가 수집한 영상이 사용한 좌표계를 가리킨다. "프론트 뷰 건 타입 카메라 좌표계"는 프론트 뷰 건 타입 카메라가 수집한 영상이 사용한 좌표계를 가리킨다. "어안 카메라 좌표계"는 어안 카메라가 수집한 영상이 사용한 좌표계를 가리킨다.
제1 카메라와 제2 카메라는 공동 가시 영역을 구비하고, 나아가 공동 가시 영역에 대해, 제1 카메라가 수집한 영상의 상기 공동 가시 영역과 제2 카메라가 수집한 영상의 상기 공동 가시 영역 사이의 제1 매칭 포인트 쌍을 생성할 수 있으며; 제1 매칭 포인트 쌍은 N쌍의 영상 포인트를 포함하고, 각 쌍의 영상 포인트는 제1 카메라와 대응되는 왜곡 제거 영상의 하나의 영상 포인트, 제2 카메라와 대응되는 왜곡 제거 영상의 하나의 영상 포인트를 포함하는데, N은 1보다 크거나 같은 자연수이다. 여기서, 제1 매칭 포인트 쌍에서의 각 영상 포인트는 모두 2차원 영상 포인트이다.
다음, 에피폴라 기하 알고리즘을 이용하여 제1 매칭 포인트 쌍을 처리하여 제1 회전 매트릭스를 획득하는데, 여기서, 제1 회전 매트릭스는 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타낸다.
단계(202), 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하고, 제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성한다.
예시적으로, 고정밀 지도 또는 RTK 기기 도팅 방식을 통해 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득할 수 있다.
다음, 제1 회전 매트릭스와 제2 회전 매트릭스에 대해 매트릭스 곱셈 처리를 진행하여 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 얻는다.
단계(203), 제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성한다.
예시적으로, 제1 카메라가 수집한 영상에 포함된 것은 2차원 감지 정보이고, 제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내므로 제3 회전 매트릭스에 따라 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제1 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다.
여기서, 2차원 감지 정보란 2차원 영상에서의 물체의 픽셀 좌표를 가리킨다. 하나의 예시에서, 2차원 감지 정보는 영상에서의 물체의 2차원 감지 정보 일 수 있고, 여기서 물체는 자동차, 비동력 차량, 보행자 및 차선 등을 포함하나 이에 한정되지 않는다.
하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며; 나아가, 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있다. 이로써 "레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스", "어안 카메라의 세계 좌표계에서의 회전 매트릭스"를 획득하고, 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 사용할 필요가 없이 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있어 원가를 절감하고 효율을 향상시키며 효과적이고 신속하게 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 나아가 효과적이고 신속하게 어안 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다.
제1 카메라가 어안 카메라이고 제2 카메라가 레어 뷰 건 타입 카메라인 경우, 어안 카메라와 레어 뷰 건 타입 카메라는 공동 가시 영역을 구비하고, 나아가 공동 가시 영역에 대해 어안 카메라가 수집한 영상의 상기 공동 가시 영역과 레어 뷰 건 타입 카메라가 수집한 영상의 상기 공동 가시 영역 사이의 제1 매칭 포인트 쌍을 생성할 수 있으며; 제1 매칭 포인트 쌍은 N 쌍의 영상 포인트를 포함하고, 각 쌍의 영상 포인트는 어안 카메라와 대응되는 왜곡 제거 영상의 하나의 영상 포인트, 레어 뷰 건 타입 카메라와 대응되는 왜곡 제거 영상의 하나의 영상 포인트를 포함한다.
다음, 에피폴라 기하 알고리즘을 이용하여 제1 매칭 포인트 쌍을 처리하여 어안 카메라의 레어 뷰 건 타입 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 얻을 수 있다. 여기서, "레어 뷰 건 타입 카메라 좌표계"란 레어 뷰 건 타입 카메라가 수집한 영상이 사용하는 좌표계를 가리킨다.
고정밀 지도 또는 RTK 기기 도팅 방식을 통해 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 얻을 수 있다.
다음, 제1 회전 매트릭스와 제2 회전 매트릭스에 대해 매트릭스 곱셈 처리를 진행하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 획득한다. 제3 회전 매트릭스에 따라 어안 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 어안 카메라가 수집한 영상의 3차원 감지 정보를 얻는다.
다른 한 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며; 나아가, 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있다. 이로써 "프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스", "어안 카메라의 세계 좌표계에서의 회전 매트릭스"를 획득하고, 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 사용할 필요가 없이 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있어 원가를 절감하고 효율을 향상시키며 효과적이고 신속하게 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 나아가 효과적이고 신속하게 어안 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다.
제1 카메라가 어안 카메라이고 제2 카메라가 프론트 뷰 건 타입 카메라인 경우, 어안 카메라와 프론트 뷰 건 타입 카메라는 공동 가시 영역을 구비하고, 나아가 공동 가시 영역에 대해 어안 카메라가 수집한 영상의 상기 공동 가시 영역과 프론트 뷰 건 타입 카메라가 수집한 영상의 상기 공동 가시 영역 사이의 제1 매칭 포인트 쌍을 생성할 수 있으며; 제1 매칭 포인트 쌍은 N 쌍의 영상 포인트를 포함하고, 각 쌍의 영상 포인트는 어안 카메라와 대응되는 왜곡 제거 영상의 하나의 영상 포인트, 프론트 뷰 건 타입 카메라와 대응되는 왜곡 제거 영상의 하나의 영상 포인트를 포함한다.
다음, 에피폴라 기하 알고리즘을 이용하여 제1 매칭 포인트 쌍을 처리하여 어안 카메라의 프론트 뷰 건 타입 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 얻을 수 있다. 여기서, "프론트 뷰 건 타입 카메라 좌표계"란 프론트 뷰 건 타입 카메라가 수집한 영상이 사용하는 좌표계를 가리킨다.
고정밀 지도 또는 RTK 기기 도팅 방식을 통해 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 얻을 수 있다.
다음, 제1 회전 매트릭스와 제2 회전 매트릭스에 대해 매트릭스 곱셈 처리를 진행하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 획득한다. 제3 회전 매트릭스에 따라 어안 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 어안 카메라가 수집한 영상의 3차원 감지 정보를 얻는다.
본 실시예에서는, 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍에 따라 제1 회전 매트릭스를 생성하고; 제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제3 회전 매트릭스를 생성하는데; 제1 회전 매트릭스는 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내고, 제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내고, 나아가 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 획득함으로써; 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 획득한 다음 제3 회전 매트릭스에 근거하여, 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 3차원 감지 정보로 전환시킬 수 있다. 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성할 경우, 고정밀 지도 또는 인위적인 RTK 기기의 방식을 사용할 필요가 없어 원가를 절감하고 효율을 향상시켜 사람들의 안전을 확보하며; 더 나아가, 제1 카메라가 수집한 영상에서의 3차원 감지 정보를 효과적으로 획득할 수 있다. 또한, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라인 경우, 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며; 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라인 경우, 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있다.
도 3은 본 출원의 제2 실시예에 따른 도면이고, 도 3에 도시된 바와 같이, 본 실시예에서 제공하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법은 아래와 같은 단계를 포함한다.
단계(301), 제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고 제2 카메라가 수집한 영상에 근거하여, 제2 왜곡 제거 영상을 생성하되, 여기서, 제1 왜곡 제거 영상과 제2 왜곡 제거 영상은 공동 가시 영역에 위치한 영상 영역을 각각 구비한다.
하나의 예시에서, 단계(301)는, 제1 카메라가 수집한 영상을 구면에 투영시켜 구면 영상을 획득하는 단계; 구면 영상에 대해 왜곡 제거 처리를 진행하여 제1 왜곡 제거 영상을 획득하는 단계; 왜곡 제거 함수로 제2 카메라가 수집한 영상을 조절하여 제2 왜곡 제거 영상을 획득하는 단계를 포함한다.
예시적으로, 본 실시예에서의 도로측 카메라는 제1 카메라와 제2 카메라를 포함하고, 여기서 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비된다. 하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이다.
본 실시예의 실행주체는 전자기기일 수 있는데, 여기서 전자기기는 단말기 또는 서버 또는 기타 본 실시예의 방법을 수행할 수 있는 장치 또는 기기 일 수 있다.
우선, 제1 카메라가 수집한 영상 및 제2 카메라가 수집한 영상을 획득하고; 제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하며, 제2 카메라가 수집한 영상에 근거하여, 제2 왜곡 제거 영상을 생성한다. 하나의 예시에서, 제1 카메라와 제2 카메라가 공동 가시 영역을 구비하므로 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상은 공동 가시 영역(즉, 동일한 영역에 대하여 모두 해당 영역의 영상을 촬영)을 구비하게 되고, 이로써 제1 왜곡 제거 영상과 제2 왜곡 제거 영상은 공동 가시 영역에 위치한 영상 영역을 각각 구비한다.
하나의 예시에서, 제1 카메라는 어안 카메라이다. 제1 카메라가 수집한 영상을 구면에 투영시켜 구면 영상을 획득하는 바; 도 4는 본 출원의 실시예에서 제공하는 제1 왜곡 제거 영상의 도면이고, 도 4에 도시된 바와 같이, 구면 영상에 대해 왜곡 제거 처리를 진행하여 제1 왜곡 제거 영상을 획득한다. 이러한 과정에서는 현재의 왜곡 제거 영상의 생성 방식을 참조할 수 있다. 여기서, 제1 왜곡 제거 영상은 등가적인 건 타입 카메라에서의 영상이다. "등가적인 건 타입 카메라"란 상이한 도로측 카메라(어안 카메라, 레어 뷰 건 타입 카메라, 프론트 뷰 건 타입 카메라)가 수집한 영상이 하나의 건 타입 카메라(즉 건 타입의 카메라)에 매핑 될 경우, 상기 건 타입 카메라를 등가적인 건 타입 카메라라고 할 수 있다.
제2 카메라는 레어 뷰 건 타입 카메라, 또는 프론트 뷰 건 타입 카메라이다. 제2 카메라가 수집한 영상도 일정한 왜곡의 문제를 가지는데; 제2 카메라가 수집한 영상을 조절하여 제2 카메라의 제2 왜곡 제거 영상을 획득할 수 있다. 하나의 예시에서, opencv의 왜곡 제거 함수를 이용하여 제2 카메라가 수집한 영상을 조절하여 제2 왜곡 제거 영상을 획득할 수 있다.
예를 들어 설명하면, opencv의 왜곡 제거 함수를 이용하여 레어 뷰 건 타입 카메라가 수집한 영상에 대해 왜곡 제거 처리를 진행하여 레어 뷰 건 타입 카메라의 제2 왜곡 제거 영상을 얻을 수 있다.
이상의 방식을 통해 제1 카메라가 수집한 영상을 조절하여 제1 왜곡 제거 영상을 획득할 수 있고; 제2 카메라가 수집한 영상을 조절하여 제2 왜곡 영상을 획득함으로써 제1 매칭 포인트 쌍을 획득할 수 있다.
단계(302), 제1 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제1 영상 특징을 추출하고 제2 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제2 영상 특징을 추출한다.
예시적으로, 제1 왜곡 제거 영상과 제2 왜곡 제거 영상이 동일한 공동 가시 영역에서의 영상 영역을 구비하므로 공동 가시 영역에 대하여 제1 왜곡 제거 영상의 제1 영상 특징을 추출하고 제2 왜곡 제거 영상의 제2 영상 특징을 추출한다. 여기서, 제1 영상 특징은 예를 들어 각도 스케일 불변 특성 변환(scale-invariant feature transform, 약칭 SIFT) 특징, ORB(oriented fast and rotated brief, 약칭 ORB) 특징이고; 제2 영상 특징은 예를 들어 각도 SIFT특징, ORB 특징이다.
단계(303), 제1 영상 특징과 제2 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 결정한다.
하나의 예시에서, 단계(303)는, 제1 영상 특징과 제2 영상 특징에 기반하여 제1 왜곡 제거 영상과 제2 왜곡 제거 영상에 대해 특징 매칭을 진행하여 제1 매칭 포인트 쌍을 획득하는 단계를 포함한다.
예시적으로, 제1 영상 특징과 제2 영상 특징에 기반하여 제1 왜곡 제거 영상의 공동 가시 영역에서의 영상, 제2 왜곡 제거 영상의 공동 가시 영역에서의 영상에 대해 특징 매칭 처리를 진행하여 제1 매칭 포인트 쌍을 획득한다. 제1 매칭 포인트 쌍은 N쌍의 영상 포인트를 포함하고 각 쌍의 영상 포인트는 제1 카메라와 대응되는 제1 왜곡 제거 영상의 하나의 영상 포인트, 제2 카메라와 대응되는 제2 왜곡 제거 영상의 하나의 영상 포인트를 포함하며, N은 1보다 크거나 같은 자연수이다. 여기서, 제1 매칭 포인트 쌍에서의 각 영상 포인트는 모두 2차원 영상 포인트이다.
제1 카메라와 제2 카메라가 공동 가시 영역을 구비하고 제1 왜곡 제거 영상에 상기 공동 가시 영역에서의 영상이 구비되며 제2 왜곡 제거 영상에 상기 공동 가시 영역에서의 영상이 구비되므로 공동 가시 영역에 대하여, 제1 왜곡 제거 영상의 공동 가시 영역에서의 영상, 제2 왜곡 제거 영상의 공동 가시 영역에서의 영상에 대해 특징 매칭 처리를 진행하며, 이로써 얻은 제1 매칭 포인트 쌍에서의 각 쌍의 영상 포인트는 공동 가시 영역에 대한 것으로서 사후 회전 매트릭스의 분석을 진행하는데 용이하다.
단계(304), 제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성한다.
하나의 예시에서, 단계(304)는 아래와 같은 단계를 포함한다.
제1 단계, 제1 매칭 포인트 쌍에 근거하여, 제2 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제4 회전 매트릭스를 생성한다.
제2 단계, 제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스를 획득한다.
제3 단계, 제4 회전 매트릭스와 제5 회전 매트릭스에 근거하여, 제1 회전 매트릭스를 생성한다.
하나의 예시에서, 상기 제2 단계는 구체적으로, 기설정 부앙각과 편주각에 따라 제1 카메라가 수집한 영상이 위치한 제1 카메라 좌표계를 변환시켜 제5 회전 매트릭스를 획득하는 단계를 포함한다.
예시적으로, 에피폴라 기하 알고리즘을 이용하여 제1 매칭 포인트 쌍을 처리함으로써 제2 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제4 회전 매트릭스(R_tmp)를 획득한다.
이때, 제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스(R)를 더 획득한다. 하나의 예시에서, 제1 카메라가 수집한 영상에 대해 부앙각과 편주각의 왜곡 제거 처리를 진행, 즉, 부앙각, 편주각에 따라 제1 카메라가 수집한 영상이 위치한 제1 카메라 좌표계를 회전 변환시켜 제5 회전 매트릭스를 획득할 수 있다. 예를 들어 설명하면, 제1 카메라는 어안 카메라이고 어안 카메라가 수집한 영상은 원형 영상이며; 어안 카메라가 수집한 원형 영상에 대해 부앙각(예를 들어 58도)과 편주각(예를 들어 90도)의 왜곡 제거를 진행할 수 있는데, 이때, 제5 회전 매트릭스(R)(즉, 부앙각, 편주각에 따라 어안 카메라 좌표계를 회전시켜 제5 회전 매트릭스(R)를 획득)를 획득할 수 있으며, 이때, 제5 회전 매트릭스는 어안 카메라의 등가 카메라 좌표계에서의 회전 매트릭스이다. 여기서, "어안 카메라 좌표계"란, 어안 카메라가 수집한 영상이 사용한 좌표계이다. "등가 카메라 좌표계"란, 등가적인 건 타입 카메라가 수집한 영상이 사용한 좌표계이다. 상기 과정에서, 기설정된 부앙각과 기설정된 편주각에 따라 제1 카메라가 수집한 영상이 위치한 제1 카메라 좌표계를 변환시켜 제5 회전 매트릭스를 정확하게 획득할 수 있다.
다음, 제4 회전 매트릭스(R_tmp)와 제5 회전 매트릭스(R)에 대해 매트릭스 곱셈 처리를 진행하여 제1 회전 매트릭스 A=R* R_tmp-1를 생성한다.
상기 과정에서, 제4 회전 매트릭스는 제2 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내고 제5 회전 매트릭스는 제1 카메라가 등가 카메라 좌표계에서의 회전 매트릭스를 나타내며, 나아가 이 두 개의 매트릭스에 따라 제1 회전 매트릭스(제1 회전 매트릭스는 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타냄)를 얻을 수 있다.
단계(305), 마크 포인트의 3차원 좌표 정보를 획득하고 제2 카메라가 수집한 영상에 근거하여 제2 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보를 결정하고; 마크 포인트의 3차원 좌표 정보 및 제2 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보에 대해 솔루션 처리를 진행하여 제2 회전 매트릭스를 획득한다. 제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타낸다.
예시적으로, 제2 회전 매트릭스를 획득할 경우(제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄), 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 통해 마크 포인트의 3차원 좌표 정보를 얻을 수 있고; 그 다음, 제2 카메라가 수집한 영상을 통해 상기 영상에서의 마킹 포인트의 2차원 좌표 정보를 결정할 수 있으며; 마킹 포인트의 3차원 좌표 정보, 마킹 포인트의 2차원 좌표 정보에 근거하여 pnp솔루션 처리를 진행함으로써 제2 회전 매트릭스를 획득할 수 있는데, 여기서, 제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타낸다.
이때, 비록 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식에 따라 제2 회전 매트릭스(제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 얻을 수 있으나, 제2 회전 매트릭스(제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 따라 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 얻음에 있어서, 제1 카메라에 대하여, 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 사용하여 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 얻을 필요가 없으므로 일정한 정도에서 원가와 시간을 절약할 수 있다.
단계(306), 제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성한다.
예시적으로, 제1 회전 매트릭스(A)와 제2 회전 매트릭스(B)에 대해 매트릭스 곱셈 처리를 진행하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스 R_fisheye=A*B를 획득할 수 있다.
단계(307), 제3 회전 매트릭스에 따라 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제1 카메라가 수집한 영상을 생성하는 3차원 감지 정보를 생성한다.
예시적으로, 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성할 경우, 제3 회전 매트릭스가 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내고, 제1 카메라가 수집한 영상에서의 감지 정보가 2차원 감지 정보이므로 제3 회전 매트릭스에 따라 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 나아가 신속하고 정확하게 제1 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다.
단계(308), 제2 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성한다.
하나의 예시에서, 제1 카메라가 수집한 영상의 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하기 위한 것이다. 제2 카메라가 수집한 영상의 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하기 위한 것이다.
하나의 예시에서, 제2 회전 매트릭스는 제2 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이고, 제3 회전 매트릭스는 제1 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이다.
예시적으로, 상기 과정에서 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 더 획득하고, 제2 카메라가 수집한 영상에서의 감지 정보가 2차원 감지 정보이므로 제2 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 나아가 신속하고 정확하게 제2 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다.
본 실시예는 정확하고 신속하게 제1 카메라가 수집한 영상의 3차원 감지 정보, 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 여기서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이다.
획득한 각 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하기 위한 것이다. 하나의 예시에서, 자율 주행 차량은 자율 주행을 진행하는 과정에서 3차원 감지 정보에 따라 자율 주행 과정에서의 3차원 감지 포지셔닝을 진행해야 하는 바; 본 실시예를 통해 어안 카메라의 3차원 감지 정보, 레어 뷰 건 타입 카메라의 3차원 감지 정보 및 프론트 뷰 건 타입 카메라의 3차원 감지 정보를 획득할 수 있으며, 나아가 자율 주행 차량은 이러한 3차원 감지 정보를 획득한 다음 자율 주행 차량은 이러한 3차원 감지 정보에 따라 3차원 감지 포지셔닝을 완성하여 자율 주행 차량의 자동 주행에 편리하도록 할 수 있다.
3차원 감지 포지셔닝을 진행할 경우, 자율 주행 차량은 동시에 도로측 카메라가 세계 좌표계에서의 회전 매트릭스와 평행이동 매트릭스에 따라 3차원 감지 포지셔닝을 완성할 수 있다. 하나의 예시에서, RTK 기기로 각 도로측 카메라(프론트 뷰 건 타입 카메라, 레어 뷰 건 타입 카메라 및 어안 카메라)를 도팅하여 각 도로측 카메라의 세계 좌표계에서의 평행이동 파라미터 매트릭스를 획득하는데, 여기서, 평행이동 파라미터 매트릭스가 나타내는 것은 도로측 카메라의 세계 좌표계에서의 위치(즉, 평행이동)이고; 그 다음, 본 실시예의 상기 과정을 통해 각 도로측 카메라의 세계 좌표계에서의 회전 매트릭스(제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 포함한다. 여기서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이다)를 획득하고, 나아가 각 도로측 카메라가 세계 좌표계에서의 회전 매트릭스에 따라 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 획득하며; 그 다음 자율 주행 차량은 각 도로측 카메라의 세계 좌표계에서의 평행이동 파라미터 매트릭스, 각 도로측 카메라가 수집한 영상의 3차원 감지 정보에 근거하여 3차원 감지 포지셔닝을 진행할 수 있다.
이 외에, 본 실시예는 제2 회전 매트릭스(제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄), 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 더 획득하는데; 제2 회전 매트릭스를 이용하여 제2 카메라의 파라미터에 대해 캘리브레이션을 진행하고 제3 회전 매트릭스를 이용하여 제1 카메라의 파라미터에 대해 캘리브레이션을 진행할 수 있다. 이로써 도로측 카메라의 파라미터(즉, 외부 파라미터)를 보정한다.
하나의 예시에서, 외력 요소인 바람 진동 등으로 인해 도로측 카메라에 약간의 회전이 발생하여 도로측 카메라의 외부 파라미터를 다시 캘리브레이션 해야 하는데; 우선, “영상 안정화 알고리즘” 또는 "영상 매칭 검출 알고리즘”을 통해 위치 이동이 발생한 도로측 카메라, 위치 이동이 발생하지 않은 도로측 카메라를 검출할 수 있고; 나아가 위치 이동이 발생하지 않은 도로측 카메라의 외부 파라미터에 따라 위치 이동이 발생한 도로측 카메라의 외부 파라미터를 획득하며; 그 다음, 위치 이동이 발생한 도로측 카메라의 세계 좌표계에서의 회전 매트릭스에 따라 위치 이동이 발생한 도로측 카메라의 외부 파라미터를 캘리브레이션 할 수 있다. 예를 들어, 제1 카메라가 어안 카메라이고, 어안 카메라에 위치 이동이 발생하였다고 결정하면 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 근거하여 어안 카메라의 외부 파라미터를 캘리브레이션 할 수 있다.
본 실시예의 이상의 과정에 의하면, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며; 나아가, 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있다. 이로써 레어 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보, 어안 카메라가 수집한 영상의 3차원 감지 정보를 획득한다.
제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며; 나아가, 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있다. 이로써 프론트 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보, 어안 카메라가 수집한 영상의 3차원 감지 정보를 획득한다.
알 수 있다 시피, 본 실시예의 과정을 통해 어안 카메라가 수집한 영상의 3차원 감지 정보, 레어 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보, 프론트 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다. 나아가 자율 주행의 3차원 감지 포지셔닝 또는 도로측 카메라에 대해 외부 파라미터의 캘리브레이션을 진행하는데 응용될 수 있다.
본 실시예에서는, 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍에 따라 제4 회전 매트릭스를 생성(제4 회전 매트릭스는 제2 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타냄)하고; 제4 회전 매트릭스와 제5 회전 매트릭스(제5 회전 매트릭스는 제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타냄)에 근거하여 제1 회전 매트릭스를 생성(제1 회전 매트릭스는 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타냄)하며; 그 다음, 제1 회전 매트릭스는 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내고, 제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내므로, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 획득함으로써; 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 획득하고, 그 다음 제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 생성하여 3차원 감지 정보로 전환시키고; 또한 제2 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이다. 나아가 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다. 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 사용하여 3차원 감지 정보를 얻을 필요가 없으므로 원가를 절감하고 효율을 향상시켜 사람들의 안전을 확보한다. 어안 카메라가 수집한 영상의 3차원 감지 정보, 레어 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보, 프론트 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다. 나아가, 자율 주행의 3차원 감지 포지셔닝 또는 도로측 카메라에 대해 외부 파라미터의 캘리브레이션을 진행하는데 응용될 수 있다.
도 5는 본 출원의 제3 실시예에 따른 도면이고, 도 5에 도시된 바와 같이, 본 실시예에서 제공하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법은 아래와 같은 단계를 포함한다.
단계(501), 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하고 제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성한다.
단계(502), 제2 카메라가 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하고, 제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성한다.
단계(503), 제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성한다.
예시적으로, 본 실시예에서의 도로측 카메라는 제1 카메라, 제2 카메라 및 제3 카메라를 포함하되, 여기서, 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비되고, 제1 카메라와 제3 카메라 사이에는 공동 가시 영역이 구비된다. 하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며 제3 카메라는 프론트 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며 제3 카메라는 레어 뷰 건 타입 카메라이다.
본 실시예의 실행주체는 전자기기 일 수 있고, 여기서, 전자기기는 단말기 또는 서버 또는 기타 본 실시예의 방법을 수행할 수 있는 장치 또는 기기 일 수 있다.
단계(501)-단계(503)를 수행함에 있어서, 제2 회전 매트릭스(제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 따라 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 얻을 수 있는데; 이 과정은 상기 임의의 실시예를 참조할 수 있으므로 여기서 더 이상 설명하지 않는다.
단계(504), 제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 획득하고 제2 매칭 포인트 쌍에 근거하여, 제3 카메라의 제1 카메라 좌표계에서의 회전 매트릭스를 나타내는 제6 회전 매트릭스를 생성한다.
예시적으로, 단계(503) 다음에, 제1 카메라와 제3 카메라가 공동 가시 영역을 구비하므로 공동 가시 영역에 대하여, 제1 카메라가 수집한 영상에서의 상기 공동 가시 영역과 제3 카메라가 수집한 영상에서의 상기 공동 가시 영역 사이의 제2 매칭 포인트 쌍을 생성할 수 있는데; 제2 매칭 포인트 쌍은 N쌍의 영상 포인트를 포함하고 각 영상 포인트는 제1 카메라와 대응되는 왜곡 제거 영상에서의 하나의 영상 포인트, 제3 카메라와 대응되는 왜곡 제거 영상에서의 하나의 영상 포인트를 포함하며, N은 1보다 크거나 같은 자연수이다. 여기서, 제2 매칭 포인트 쌍에서의 각 영상 포인트는 모두 2차원 영상 포인트이다.
다음, 에피폴라 기하 알고리즘으로 제2 매칭 포인트 쌍을 처리하여, 제3 카메라의 제1 카메라 좌표계에서의 회전 매트릭스를 나타내는 제6 회전 매트릭스를 얻을 수 있다.
단계(505), 제3 회전 매트릭스와 제6 회전 매트릭스에 근거하여, 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제7 회전 매트릭스를 생성한다.
예시적으로, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 이미 생성하였으므로 제3 회전 매트릭스와 제6 회전 매트릭스에 대해 매트릭스 곱셈 처리를 진행하여, 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제7 회전 매트릭스를 얻을 수 있다.
단계(506), 제7 회전 매트릭스에 근거하여 제3 카메라가 수집한 영상의 3차원 감지 정보를 생성한다.
예시적으로, 제3 카메라가 수집한 영상에 2차원 감지 정보가 포함되고 제7 회전 매트릭스가 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내므로 제7 회전 매트릭스에 근거하여 제3 카메라가 수집한 영상에서의 2차원 감지 정보를 생성하여 세계 좌표계로 전환시킴으로써 제3 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다.
여기서, 2차원 감지 정보란 2차원 영상에서의 물체의 픽셀 좌표를 가리킨다. 하나의 예시에서, 2차원 감지 정보는 영상에서의 물체의 2차원 감지 정보 일 수 있고, 여기서 물체는 자동차, 비동력 차량, 보행자 및 차선 등을 포함하나 이에 한정되지 않는다.
하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며 제3 카메라는 프론트 뷰 건 타입 카메라이고; 나아가, 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 그 다음 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)에 근거하여 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제7 회전 매트릭스)를 획득할 수 있다.
다른 한 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며 제3 카메라는 레어 뷰 건 타입 카메라이고; 나아가, 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 그 다음 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)에 근거하여 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제7 회전 매트릭스)를 획득할 수 있다.
본 실시예에서는, 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 획득한 후, 제3 회전 매트릭스와 제6 회전 매트릭스(제6 회전 매트릭스는 제3 카메라의 제1 카메라 좌표계에서의 회전 매트릭스를 나타냄)에 근거하여 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제7 회전 매트릭스를 획득할 수 있다. 이로써 제2 회전 매트릭스(제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 따라 순차적으로 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄), 제7 회전 매트릭스(제7 회전 매트릭스는 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 획득할 수 있다. 이로써 도로측 카메라의 세계 좌표계에서의 회전 매트릭스에 따라 기타 두 개의 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 획득한다. 다음, 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 획득한다. 각 도로측 카메라에 대해 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 사용하여 도로측 카메라가 세계 좌표계에서의 회전 매트릭스를 획득할 필요가 없으므로 효과적이고 신속하게 각 도로측 카메라의 세계 좌표계에서의 회전 매트릭스를 획득하여 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 획득하는데 용이하도록 한다.
도 6은 본 출원의 제4 실시예에 따른 도면이고, 도 6에 도시된 바와 같이, 본 실시예에서 제공하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법은 아래와 같은 단계를 포함한다.
단계(601), 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하고 제1 매칭 포인트 쌍에 근거하여, 제1 카메라가 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성한다.
단계(602), 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하고, 제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성한다.
단계(603), 제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성한다.
하나의 예시에서, 제1 카메라가 어안 카메라이고 제2 카메라가 레어 뷰 건 타입 카메라이면 제3 카메라는 프론트 뷰 건 타입 카메라이며, 제1 카메라가 어안 카메라이고 제2 카메라가 프론트 뷰 건 타입 카메라이면 제3 카메라는 레어 뷰 건 타입 카메라이다.
예시적으로, 본 실시예에서 도로측 카메라는 제1 카메라, 제2 카메라 및 제3 카메라를 포함하되, 여기서, 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비되고, 제1 카메라와 제3 카메라 사이에는 공동 가시 영역(제1 카메라와 제2 카메라 사이의 공동 가시 영역, 제1 카메라와 제3 카메라 사이의 공동 가시 영역은 상이하다)이 구비된다. 하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며 제3 카메라는 프론트 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며 제3 카메라는 레어 뷰 건 타입 카메라이다.
본 실시예의 실행주체는 전자기기 일 수 있고, 여기서, 전자기기는 단말기 또는 서버 또는 기타 본 실시예의 방법을 수행할 수 있는 장치 또는 기기 일 수 있다.
단계(601)-단계(603)를 수행함에 있어서, 제2 회전 매트릭스(제2 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 따라 제3 회전 매트릭스(제3 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 획득할 수 있는데; 이 과정은 상기 임의의 실시예를 참조할 수 있으므로 여기서 더 이상 설명하지 않는다.
단계(604), 제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고 제3 카메라가 수집한 영상에 근거하여 제3 왜곡 제거 영상을 생성하되, 여기서, 제1 왜곡 제거 영상과 제3 왜곡 제거 영상은 공동 가시 영역에 위치한 영상 영역을 각각 구비한다.
하나의 예시에서, 단계(604)에서의 "제3 카메라가 수집한 영상에 근거하여 제3 왜곡 제거 영상을 생성"하는 것은, 왜곡 제거 함수로 제3 카메라가 수집한 영상을 조절하여 제3 왜곡 제거 영상을 획득하는 것을 포함한다.
예시적으로, 제1 카메라와 제3 카메라 사이에는 공동 가시 영역이 구비된다. 상기 실시예에서 이미 제1 왜곡 제거 영상을 획득하였으므로 제3 카메라가 수집한 영상에 근거하여 제3 왜곡 제거 영상을 생성해야 한다. 하나의 예시에서, 제1 카메라와 제3 카메라가 공동 가시 영역을 구비하므로 제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상은 공동 가시 영역(즉, 동일한 영역에 대하여 모두 상기 영역의 영상을 촬영)을 구비하고, 이로써 제1 왜곡 제거 영상과 제3 왜곡 제거 영상은 공동 가시 영역에 위치한 영상 영역을 각각 구비한다.
제3 카메라가 수집한 영상도 일정한 왜곡 문제가 존재하는 바; 제3 카메라가 수집한 영상을 조절하여 제3 카메라의 제3 왜곡 제거 영상을 얻을 수 있다. 하나의 예시에서, opencv에서의 왜곡 제거 함수를 이용하여 제3 카메라가 수집한 영상을 조절함으로써 제3 왜곡 제거 영상을 획득할 수 있다.
예를 들어 설명하면, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며 제3 카메라는 프론트 뷰 건 타입 카메라이고; opencv의 왜곡 제거 함수를 사용하여 프론트 뷰 건 타입 카메라가 수집한 영상에 대해 왜곡 제거 처리를 진행함으로써 레어 뷰 건 타입 카메라의 제3 왜곡 제거 영상을 얻을 수 있다.
이상의 방식을 통해 제3 카메라가 수집한 영상을 조절하여 제3 왜곡 제거 영상을 획득함으로써 제2 매칭 포인트 쌍을 획득하기 편리하도록 할 수 있다.
단계(605), 제1 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제1 영상 특징을 추출하고 제3 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제3 영상 특징을 추출한다.
예시적으로, 제1 왜곡 제거 영상과 제3 왜곡 제거 영상이 동일한 공동 가시 영역에서의 영상 영역을 구비하므로, 공동 가시 영역에 대하여, 제1 왜곡 제거 영상의 제1 영상 특징을 추출하고 제3 왜곡 제거 영상의 제3 영상 특징을 추출한다. 여기서, 제1 영상 특징은 예를 들어 SIFT특징, ORB특징이고; 제3 영상 특징은 예를 들어 각도SIFT특징, ORB특징이다.
단계(606), 제1 영상 특징과 제3 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 결정한다.
하나의 예시에서, 단계(606)는, 제1 영상 특징과 제3 영상 특징에 기반하여 제1 왜곡 제거 영상과 제3 왜곡 제거 영상에 대해 특징 매칭을 진행함으로써 제2 매칭 포인트 쌍을 획득하는 단계를 포함한다.
예시적으로, 제1 영상 특징과 제3 영상 특징에 기반하여 제1 왜곡 제거 영상에서의 공동 가시 영역의 영상, 제3 왜곡 제거 영상에서의 공동 가시 영역의 영상에 대해 특징 매칭 처리를 진행함으로써 제2 매칭 포인트 쌍을 획득한다. 제2 매칭 포인트 쌍은 N쌍의 영상 포인트를 포함하고 각 쌍의 영상 포인트는 제1 카메라와 대응되는 제1 왜곡 제거 영상에서의 하나의 영상 포인트, 제3 카메라와 대응되는 제3 왜곡 제거 영상에서의 하나의 영상 포인트를 포함하며, N은 1보다 크거나 같은 자연수이다. 여기서, 제2 매칭 포인트 쌍에서의 각 영상 포인트는 모두 2차원 영상 포인트이다.
제1 카메라와 제3 카메라가 공동 가시 영역을 구비하고 제1 왜곡 제거 영상에 상기 공동 가시 영역에서의 영상이 구비되며 제3 왜곡 제거 영상에 상기 공동 가시 영역에서의 영상이 구비되므로 공동 가시 영역에 대하여, 제1 왜곡 제거 영상에서의 공동 가시 영역의 영상, 제3 왜곡 제거 영상에서의 공동 가시 영역의 영상에 대해 특징 매칭 처리를 진행함으로써 획득한 제2 매칭 포인트 쌍에서의 각 쌍의 영상 포인트는 공동 가시 영역에 대한 것으로서 사후 회전 매트릭스의 분석을 진행하는데 용이하다.
단계(607), 제2 매칭 포인트 쌍에 근거하여, 제3 카메라의 제1 카메라 좌표계에서의 회전 매트릭스를 나타내는 제6 회전 매트릭스를 생성한다.
하나의 예시에서, 단계(607)는 구체적으로, 제2 매칭 포인트 쌍에 근거하여, 제3 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제8 회전 매트릭스를 생성하는 단계; 제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스를 획득하고, 제5 회전 매트릭스와 제8 회전 매트릭스에 근거하여 제6 회전 매트릭스를 생성하는 단계를 포함한다.
예시적으로, 에피폴라 기하 알고리즘으로 제2 매칭 포인트 쌍을 처리하여 제3 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제8 회전 매트릭스(M)를 얻는다.
상기 실시예의 단계(304)를 이용하여, 제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스(R)를 획득한다. 다음, 제5 회전 매트릭스(R)와 제8 회전 매트릭스(M)를 이용하여 제6 회전 매트릭스 P=R*M-1을 생성한다.
상기 과정에서, 제8 회전 매트릭스는 제3 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내고 제5 회전 매트릭스는 제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내며, 나아가 이 두 개의 매트릭스에 따라 제6 회전 매트릭스(제6 회전 매트릭스는 제3 카메라의 제1 카메라 좌표계에서의 회전 매트릭스를 나타냄)를 얻을 수 있다.
단계(608), 제3 회전 매트릭스와 제6 회전 매트릭스에 근거하여, 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제7 회전 매트릭스를 생성한다.
예시적으로, 단계(602)에서 이미 제3 회전 매트릭스를 획득하였으므로 제3 회전 매트릭스(K)와 제6 회전 매트릭스(P)에 대해 매트릭스 곱셈 처리를 진행하여, 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제7 회전 매트릭스 Q=K*P를 획득할 수 있다.
단계(609), 제7 회전 매트릭스에 근거하여 제3 카메라가 수집한 영상의 3차원 감지 정보를 생성한다.
하나의 예시에서, 제3 카메라가 수집한 영상의 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하기 위한 것이다. 제7 회전 매트릭스는 제3 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이다.
예시적으로, 제3 카메라가 수집한 영상의 3차원 감지 정보를 생성할 경우, 제7 회전 매트릭스가 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내고 제3 카메라가 수집한 영상에서의 감지 정보가 2차원 감지 정보이므로, 제7 회전 매트릭스에 따라 제3 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제3 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 나아가 신속하고 정확하게 제3 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다.
하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며 제3 카메라는 프론트 뷰 건 타입 카메라이고; 나아가 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 그 다음 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)에 근거하여 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제7 회전 매트릭스)를 얻을 수 있다.
다른 한 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며 제3 카메라는 레어 뷰 건 타입 카메라이고; 나아가 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 그 다음 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)에 근거하여 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제7 회전 매트릭스)를 얻을 수 있다.
획득한 각 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하는데 사용된다. 하나의 예시에서, 자율 주행 차량은 자율 주행을 진행하는 과정에서 3차원 감지 정보에 따라 자율 주행 과정에서의 3차원 감지 포지셔닝을 진행해야 하는데; 본 실시예를 통해 어안 카메라의 3차원 감지 정보, 레어 뷰 건 타입 카메라의 3차원 감지 정보 및 프론트 뷰 건 타입 카메라의 3차원 감지 정보를 얻을 수 있고, 나아가 자율 주행 차량은 이러한 3차원 감지 정보를 획득할 수 있으며, 그 다음 자율 주행 차량은 이러한 3차원 감지 정보에 따라 3차원 감지 포지셔닝을 완성하여 자율 주행 차량의 자율 주행에 용이하다.
이 외에, 본 실시예는 제7 회전 매트릭스(제7 회전 매트릭스는 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 더 획득하는데; 제7 회전 매트릭스를 이용하여 제3 카메라의 파라미터에 대해 캘리브레이션을 진행함으로써 도로측 카메라의 파라미터(즉, 외부 파라미터)를 보정할 수 있다.
하나의 예시에서, 외력 요소인 바람 진동 등으로 인해 도로측 카메라에 약간의 회전이 발생하여 도로측 카메라의 외부 파라미터를 다시 캘리브레이션 해야 하는데; 우선, “영상 안정화 알고리즘” 또는 "영상 매칭 검출 알고리즘”을 통해 위치 이동이 발생한 도로측 카메라, 위치 이동이 발생하지 않은 도로측 카메라를 검출할 수 있고; 나아가 위치 이동이 발생하지 않은 도로측 카메라의 외부 파라미터에 따라 위치 이동이 발생한 도로측 카메라의 외부 파라미터를 획득하며; 그 다음, 위치 이동이 발생한 도로측 카메라가 세계 좌표계에서의 회전 매트릭스에 따라 위치 이동이 발생한 도로측 카메라의 외부 파라미터를 캘리브레이션 할 수 있다. 예를 들어, 제3 카메라가 프론트 뷰 건 타입 카메라 좌표계이고, 프론트 뷰 건 타입 카메라 좌표계에 위치 이동이 발생하였다고 결정하면 제7 회전 매트릭스(제7 회전 매트릭스는 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 근거하여 프론트 뷰 건 타입 카메라 좌표계의 외부 파라미터를 캘리브레이션 할 수 있다.
본 실시예에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이며 제3 카메라는 프론트 뷰 건 타입 카메라이면; 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 그 다음 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)에 근거하여 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제7 회전 매트릭스)를 얻을 수 있다. 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며 제3 카메라는 레어 뷰 건 타입 카메라이면; 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제2 회전 매트릭스)에 근거하여 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)를 획득할 수 있으며, 그 다음 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제3 회전 매트릭스)에 근거하여 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제7 회전 매트릭스)를 얻을 수 있다. 이로써 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다. 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 이용하여 3차원 감지 정보를 얻을 필요가 없어 원가를 절감하고 효율을 향상시켜 사람들의 안전을 확보한다. 어안 카메라가 수집한 영상의 3차원 감지 정보, 레어 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보, 프론트 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다. 나아가 자율 주행의 3차원 감지 포지셔닝 또는 도로측 카메라의 외부 파라미터에 대해 진행하는 캘리브레이션에 응용할 수 있다.
도 7은 본 출원의 제5 실시예에 따른 도면이고, 도 7에 도시된 바와 같이, 본 실시예에서 제공하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법은 아래와 같은 단계를 포함한다.
단계(701), 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제3 매칭 포인트 쌍을 획득하고 제3 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성한다.
예시적으로, 본 실시예의 실행주체는 전자기기 일 수 있고, 여기서, 전자기기는 단말기 또는 서버 또는 기타 본 실시예의 방법을 수행할 수 있는 장치 또는 기기 일 수 있다.
본 실시예에서 제공하는 단계(701)-단계(704)는 제1 실시예 또는 제2 실시예의 기초상에 수행될 수도 있고 단독으로 수행될 수도 있다.
단계(701)-단계(704)에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라 또는 프론트 뷰 건 타입 카메라이다.
제1 카메라와 제2 카메라가 공동 가시 영역을 구비하므로 공동 가시 영역에 대하여 제1 카메라가 수집한 영상에서의 상기 공동 가시 영역과 제2 카메라가 수집한 영상에서의 상기 공동 가시 영역 사이의 제3 매칭 포인트 쌍을 생성할 수 있으며; 제3 매칭 포인트 쌍은 N쌍의 영상 포인트를 포함하고 각 쌍의 영상 포인트는 제1 카메라와 대응되는 왜곡 제거 영상에서의 하나의 영상 포인트, 제2 카메라와 대응되는 왜곡 제거 영상에서의 하나의 영상 포인트를 포함하며 N은 1보다 크거나 같은 자연수이다. 여기서, 제3 매칭 포인트 쌍에서의 각 영상 포인트는 모두 2차원 영상 포인트이다.
다음, 에피폴라 기하 알고리즘을 사용하여 제3 매칭 포인트 쌍을 처리함으로써 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 얻는다.
하나의 예시에서, 제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고 제2 카메라가 수집한 영상에 근거하여, 제2 왜곡 제거 영상을 생성하되, 여기서, 제1 왜곡 제거 영상과 제2 왜곡 제거 영상은 공동 가시 영역에 위치한 영상 영역을 각각 구비할 수 있다. 다음, 제1 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제1 영상 특징을 추출하고 제2 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제2 영상 특징을 추출한다. 제1 영상 특징과 제2 영상 특징에 기반하여 제1 왜곡 제거 영상의 공동 가시 영역에서의 영상, 제2 왜곡 제거 영상의 공동 가시 영역에서의 영상에 대해 특징 매칭 처리를 진행하여 제3 매칭 포인트 쌍을 얻는다. 본 실시예에서, 제3 매칭 포인트 쌍은 상기 제1 매칭 포인트 쌍과 동일할 수 있다.
다음, 제3 매칭 포인트 쌍에 근거하여, 제2 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제4 회전 매트릭스를 생성한다. 제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스를 획득한다. 제4 회전 매트릭스와 제5 회전 매트릭스에 근거하여, 제1 회전 매트릭스를 생성한다. 이 과정은 상기 실시예에서의 단계(304)를 참조할 수 있는 바, 더 이상 설명하지 않는다.
단계(702), 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제9 회전 매트릭스를 획득한다.
하나의 예시에서, 단계(702)는, 마크 포인트의 3차원 좌표 정보를 획득하고 제1 카메라가 수집한 영상에 근거하여 제1 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보를 결정하는 단계; 마크 포인트의 3차원 좌표 정보 및 제1 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보에 대해 솔루션 처리를 진행하여 제9 회전 매트릭스를 획득하는 단계를 포함한다.
예시적으로, 고정밀 지도 또는 RTK 기기 도팅 방식을 통해 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제9 회전 매트릭스를 획득할 수 있다.
하나의 예시에서, 제9 회전 매트릭스를 획득할 경우(제9 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄), 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 통해 마크 포인트의 3차원 좌표 정보를 얻을 수 있고; 그 다음, 제1 카메라가 수집한 영상을 통해 상기 영상에서의 마킹 포인트의 2차원 좌표 정보를 결정할 수 있으며; 마킹 포인트의 3차원 좌표 정보, 제1 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보에 근거하여 pnp솔루션 처리를 진행함으로써 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제9 회전 매트릭스를 획득할 수 있다.
이때, 비록 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식에 따라 제9 회전 매트릭스(제9 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 얻으나, 제9 회전 매트릭스(제9 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 따라 제10 회전 매트릭스(제10 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 얻으므로 제2 카메라에 있어서, 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식으로 제10 회전 매트릭스(제10 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 얻을 필요가 없어 원가와 시간을 어느 정도 절약하게 된다.
단계(703), 제1 회전 매트릭스와 제9 회전 매트릭스에 근거하여, 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제10 회전 매트릭스를 생성한다.
예시적으로, 제1 회전 매트릭스와 제9 회전 매트릭스에 대해 매트릭스 곱셈 처리를 진행하여 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제10 회전 매트릭스를 얻는다.
단계(704), 제9 회전 매트릭스에 근거하여 제1 카메라의 3차원 감지 정보를 생성하고 제10 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성한다.
하나의 예시에서, 제9 회전 매트릭스는 제1 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이고 제10 회전 매트릭스는 제2 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이다.
예시적으로, 제9 회전 매트릭스가 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내고, 제1 카메라가 수집한 영상에서의 감지 정보는 2차원 감지 정보이므로 제9 회전 매트릭스에 따라 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 나아가 신속하고 정확하게 제1 카메라가 수집한 영상의 3차원 감지 정보를 얻는다.
또한, 제10 회전 매트릭스가 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내고 제2 카메라가 수집한 영상에서의 감지 정보가 2차원 감지 정보이므로 제10 회전 매트릭스에 따라 제2 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성할 수 있다. 나아가 신속하고 정확하게 제2 카메라가 수집한 영상의 3차원 감지 정보를 얻는다. 각 3차원 감지 정보는 자율 주행 차량에 사용되어 3차원 감지 포지셔닝을 진행할 수 있다.
또한, 본 실시예는 제9 회전 매트릭스(제9 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)와 제10 회전 매트릭스(제10 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)를 더 얻을 수 있는 바, 제9 회전 매트릭스를 이용하여 제1 카메라의 파라미터에 대해 캘리브레이션을 진행할 수 있고, 제10 회전 매트릭스를 이용하여 제2 카메라의 파라미터에 대해 캘리브레이션을 진행할 수 있다. 이로써 도로측 카메라의 파라미터(즉, 외부 파라미터)를 보정한다.
본 실시예의 이상의 과정을 통해, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이면; 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제9 회전 매트릭스)에 근거하여 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제10 회전 매트릭스)를 얻을 수 있다. 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이면; 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제9 회전 매트릭스)에 근거하여 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제10 회전 매트릭스)를 얻을 수 있다.
본 실시예에서는, 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제3 매칭 포인트 쌍에 따라 제1 회전 매트릭스를 생성(제1 회전 매트릭스는 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타냄)하고; 제1 회전 매트릭스와 제9 회전 매트릭스(제9 회전 매트릭스는 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)에 따라 제10 회전 매트릭스를 생성(제10 회전 매트릭스는 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타냄)한다. 이로써 제9 회전 매트릭스에 근거하여 제1 카메라의 3차원 감지 정보를 생성하고 제10 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성한다. 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이면; 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제9 회전 매트릭스)에 근거하여 레어 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제10 회전 매트릭스)를 얻을 수 있다. 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이며; 나아가 어안 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제9 회전 매트릭스)에 근거하여 프론트 뷰 건 타입 카메라의 세계 좌표계에서의 회전 매트릭스(즉, 제10 회전 매트릭스)를 얻을 수 있다. 나아가 각 도로측 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다. 고정밀 지도 또는 인위적인 RTK 기기 도팅 방식을 사용하여 3차원 감지 정보를 얻을 필요가 없으므로 원가를 절감하고 효율을 향상시켜 사람들의 안전을 확보한다. 어안 카메라가 수집한 영상의 3차원 감지 정보, 레어 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보, 프론트 뷰 건 타입 카메라가 수집한 영상의 3차원 감지 정보를 얻을 수 있다. 나아가 자율 주행의 3차원 감지 포지셔닝 또는 도로측 카메라의 외부 파라미터에 대한 캘리브레이션에 응용될 수 있다.
도 8은 본 출원의 제6 실시예에 따른 도면이고, 도 8에 도시된 바와 같이, 본 실시예는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 장치(800)를 제공하는 바, 도로측 카메라는 제1 카메라와 제2 카메라를 포함하고, 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비되며, 상기 장치(800)는,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하는 제1 획득 유닛(801);
제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 제1 생성 유닛(802);
제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하는 제2 획득 유닛(803);
제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성하는 제2 생성 유닛(804);
제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 제3 생성 유닛(805)을 포함한다.
본 실시예의 장치는 상기 방법에서의 기술적 해결수단을 수행할 수 있는 바, 이의 구체적인 구현과정과 기술적 원리는 동일하므로 여기서 더 이상 설명하지 않는다.
도 9는 본 출원의 제7 실시예에 따른 도면이고, 도 9에 도시된 바와 같이, 본 실시예는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 장치(900)를 제공하는 바, 도로측 카메라는 제1 카메라와 제2 카메라를 포함하고, 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비되며, 상기 장치(900)는,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하는 제1 획득 유닛(901);
제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 제1 생성 유닛(902);
제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하는 제2 획득 유닛(903);
제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성하는 제2 생성 유닛(904);
제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 제3 생성 유닛(905)을 포함한다.
하나의 예시에서, 제1 획득 유닛(901)은,
제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고 제2 카메라가 수집한 영상에 근거하여, 제2 왜곡 제거 영상을 생성하되, 여기서, 제1 왜곡 제거 영상과 제2 왜곡 제거 영상은 공동 가시 영역에 위치한 영상 영역을 각각 구비하는 제1 생성 모듈(9011);
제1 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제1 영상 특징을 추출하고 제2 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제2 영상 특징을 추출하는 제1 추출 모듈(9012);
제1 영상 특징과 제2 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 결정하는 제1 결정 모듈(9013)을 포함한다.
하나의 예시에서, 제1 결정 모듈(9013)은 구체적으로, 제1 영상 특징과 제2 영상 특징에 기반하여 제1 왜곡 제거 영상과 제2 왜곡 제거 영상에 대해 특징 매칭을 진행하여 제1 매칭 포인트 쌍을 획득한다.
하나의 예시에서, 제1 생성 모듈(9011)은,
제1 카메라가 수집한 영상을 구면에 투영시켜 구면 영상을 획득하고; 구면 영상에 대해 왜곡 제거 처리를 진행하여 제1 왜곡 제거 영상을 획득하는 투영 서브 모듈(90111);
왜곡 제거 함수로 제2 카메라가 수집한 영상을 조절하여 제2 왜곡 제거 영상을 획득하는 조절 서브 모듈(90112)을 포함한다.
하나의 예시에서, 제1 생성 유닛(902)은,
제1 매칭 포인트 쌍에 근거하여, 제2 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제4 회전 매트릭스를 생성하는 제2 생성 모듈(9021);
제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스를 획득하는 제1 획득 모듈(9022);
제4 회전 매트릭스와 제5 회전 매트릭스에 근거하여, 제1 회전 매트릭스를 생성하는 제2 생성 모듈(9023)을 포함한다.
하나의 예시에서, 제1 획득 모듈(9022)은 구체적으로, 기설정 부앙각과 편주각에 따라 제1 카메라가 수집한 영상이 위치한 제1 카메라 좌표계를 변환시켜 제5 회전 매트릭스를 획득한다.
하나의 예시에서, 제2 획득 유닛(903)은,
마크 포인트의 3차원 좌표 정보를 획득하고 제2 카메라가 수집한 영상에 근거하여 제2 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보를 결정하는 제2 결정 모듈(9031);
마크 포인트의 3차원 좌표 정보 및 제2 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보에 대해 솔루션 처리를 진행하여 제2 회전 매트릭스를 획득하는 제1 솔루션 모듈(9032)을 포함한다.
하나의 예시에서, 제3 생성 유닛(905)은 구체적으로, 제3 회전 매트릭스에 따라 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제1 카메라가 수집한 영상을 생성하는 3차원 감지 정보를 생성한다.
하나의 예시에서, 본 실시예에서 제공하는 장치(900)는,
제2 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 제4 생성 유닛(906)을 더 포함한다.
하나의 예시에서, 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하는데 사용된다.
하나의 예시에서, 제2 회전 매트릭스는 제2 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이고 제3 회전 매트릭스는 제1 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이다.
하나의 예시에서, 제1 카메라는 어안 카메라이고 제2 카메라는 레어 뷰 건 타입 카메라이거나; 또는 제1 카메라는 어안 카메라이고 제2 카메라는 프론트 뷰 건 타입 카메라이다.
본 실시예의 장치는 상기 방법에서의 기술적 해결수단을 수행할 수 있는 바, 이의 구체적인 구현과정과 기술적 원리는 동일하므로 여기서 더 이상 설명하지 않는다.
도 10은 본 출원의 제8 실시예에 따른 도면이고, 도 10에 도시된 바와 같이, 본 실시예는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 장치(1000)를 제공하는 바, 도로측 카메라는 제1 카메라와 제2 카메라를 포함하고, 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비되며, 상기 장치(1000)는,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하는 제1 획득 유닛(1001);
제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 제1 생성 유닛(1002);
제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하는 제2 획득 유닛(1003);
제1 회전 매트릭스와 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성하는 제2 생성 유닛(1004);
제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 제3 생성 유닛(1005)을 포함한다.
하나의 예시에서, 도로측 카메라는 제3 카메라를 더 포함하고 제1 카메라와 제3 카메라 사이에는 공동 가시 영역이 구비되며; 본 실시예에서 제공하는 장치(1000)는,
제3 생성 유닛은 제3 회전 매트릭스에 근거하여 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성한 다음에, 제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 획득하는 제3 획득 유닛(1006);
제2 매칭 포인트 쌍에 근거하여, 제3 카메라의 제1 카메라 좌표계에서의 회전 매트릭스를 나타내는 제6 회전 매트릭스를 생성하는 제4 생성 유닛(1007);
제3 회전 매트릭스와 제6 회전 매트릭스에 근거하여, 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제7 회전 매트릭스를 생성하는 제5 생성 유닛(1008);
제7 회전 매트릭스에 근거하여 제3 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 제6 생성 유닛(1009)을 더 포함한다.
하나의 예시에서, 제3 획득 유닛(1006)은,
제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고 제3 카메라가 수집한 영상에 근거하여 제3 왜곡 제거 영상을 생성하되, 여기서, 제1 왜곡 제거 영상과 제3 왜곡 제거 영상은 공동 가시 영역에 위치한 영상 영역을 각각 구비하는 제3 생성 모듈;
제1 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제1 영상 특징을 추출하고 제3 왜곡 제거 영상에서 공동 가시 영역에 위치한 영상 영역의 제3 영상 특징을 추출하는 제2 추출 모듈;
제1 영상 특징과 제3 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 결정하는 제3 결정 모듈을 포함한다.
하나의 예시에서, 제3 결정 모듈은 구체적으로, 제1 영상 특징과 제3 영상 특징에 기반하여 제1 왜곡 제거 영상과 제3 왜곡 제거 영상에 대해 특징 매칭을 진행함으로써 제2 매칭 포인트 쌍을 획득한다.
하나의 예시에서, 제3 생성 모듈은 제3 카메라가 수집한 영상에 근거하여 제3 왜곡 제거 영상을 생성할 경우, 구체적으로, 왜곡 제거 함수로 제3 카메라가 수집한 영상을 조절하여 제3 왜곡 제거 영상을 획득한다.
하나의 예시에서, 제5 생성 유닛(1008)은,
제2 매칭 포인트 쌍에 근거하여, 제3 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제8 회전 매트릭스를 생성하는 제4 생성 모듈;
제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스를 획득하는 제2 획득 모듈;
제5 회전 매트릭스와 제8 회전 매트릭스에 근거하여 제6 회전 매트릭스를 생성하는 제5 생성 모듈을 포함한다.
하나의 예시에서, 제1 카메라가 어안 카메라이고 제2 카메라가 레어 뷰 건 타입 카메라이면 제3 카메라는 프론트 뷰 건 타입 카메라이며, 제1 카메라가 어안 카메라이고 제2 카메라가 프론트 뷰 건 타입 카메라이면 제3 카메라는 레어 뷰 건 타입 카메라이다.
하나의 예시에서, 제3 카메라가 수집한 영상의 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하기 위한 것이고; 제7 회전 매트릭스는 제3 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이다.
본 실시예의 장치는 상기 방법에서의 기술적 해결수단을 수행할 수 있는 바, 이의 구체적인 구현과정과 기술적 원리는 동일하므로 여기서 더 이상 설명하지 않는다.
도 11은 본 출원의 제9 실시예에 따른 도면이고, 도 11에 도시된 바와 같이, 본 실시예는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 장치(1100)를 제공하는 바, 도로측 카메라는 제1 카메라와 제2 카메라를 포함하고, 제1 카메라와 제2 카메라 사이에는 공동 가시 영역이 구비되며, 상기 장치(1100)는 아래와 같은 구성을 포함한다.
우선, 본 실시예에서 제공하는 장치(1100)는 도 8 또는 도 9에서의 각 유닛과 모듈을 포함할 수도 있고 도 8 또는 도 9의 각 유닛과 모듈을 포함하지 않을 수도 있다(도 8 또는 도 9의 각 유닛과 모듈은 도 11에 도시되지 않음).
상기 장치(1100)는,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제3 매칭 포인트 쌍을 획득하는 제4 획득 유닛(1101);
제3 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 제7 생성 유닛(1102);
제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제9 회전 매트릭스를 획득하는 제5 획득 유닛(1103);
제1 회전 매트릭스와 제9 회전 매트릭스에 근거하여, 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제10 회전 매트릭스를 생성하는 제8 생성 유닛(1104)
제9 회전 매트릭스에 근거하여 제1 카메라의 3차원 감지 정보를 생성하고 제10 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 제9 생성 유닛(1105)을 포함한다.
하나의 예시에서, 제5 획득 유닛(1103)은,
마크 포인트의 3차원 좌표 정보를 획득하고 제1 카메라가 수집한 영상에 근거하여 제1 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보를 결정하는 제4 결정 모듈;
마크 포인트의 3차원 좌표 정보 및 제1 카메라가 수집한 영상에서의 마크 포인트의 2차원 좌표 정보에 대해 솔루션 처리를 진행하여 제9 회전 매트릭스를 획득하는 제2 솔루션 모듈을 포함한다.
하나의 예시에서, 제9 회전 매트릭스는 제1 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이고 제10 회전 매트릭스는 제2 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이다.
본 실시예의 장치는 상기 방법에서의 기술적 해결수단을 수행할 수 있는 바, 이의 구체적인 구현과정과 기술적 원리는 동일하므로 여기서 더 이상 설명하지 않는다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독 가능 저장매체를 더 제공한다.
본 출원의 실시예에 따르면, 본 출원은 또한 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공하며, 상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 때, 상기 임의의 한 실시예에서 제공하는 방법을 구현한다.
본 출원의 실시예에 따르면, 본 출원은 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 더 제공하는데, 컴퓨터 프로그램은 판독 가능 저장 매체에 저장되고, 전자기기의 적어도 하나의 프로세서는 판독 가능 저장 매체로부터 컴퓨터 프로그램을 판독할 수 있으며, 적어도 하나의 프로세서는 컴퓨터 프로그램을 실행하여 전자기기로 하여금 상기 임의의 한 실시예에서 제공하는 방안을 수행하도록 한다.
도 12는 본 출원의 실시예에서 예시한 전자기기(1200)를 실시할 수 있는 예시적인 블록도를 도시한다. 전자기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 벤치, 개인용 정보 단말기, 서버, 블레이드 서버, 메인 프레임 컴퓨터 및 다른 적합한 컴퓨터 등의 다양한 형태의 디지털 컴퓨터를 가리킨다. 전자기기는 또한 개인용 정보 단말기, 셀룰러 폰, 스마트 폰, 웨어러블 장치 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수 있다. 본 명세서에 도시된 구성 요소, 그들의 연결 및 관계 및 그 기능은 단지 예시에 불과하며, 본 명세서에 기술되거나 및/또는 요구된 본 개시의 구현을 한정하고자 하는 것이 아니다.
도 12에 도시된 바와 같이, 전자기기(1200)는 컴퓨팅 유닛(1201)을 포함할 수 있는데 이는 읽기 전용 메모리(ROM)(1202)에 저장된 컴퓨터 프로그램 또는 저장 유닛(1208)으로부터 랜덤 액세스 메모리(RAM)(1203)에 로딩된 컴퓨터 프로그램에 근거하여 여러 가지 적당한 동작과 처리를 수행할 수 있다. RAM(1203)에는 기기(1200)의 동작에 필요한 여러 가지 프로그램과 데이터가 더 저장될 수 있다. 컴퓨팅 유닛(201), ROM(1202) 및 RAM(1203)은 버스(1204)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(1205)도 버스(1204)에 연결된다.
기기(1200)에서의 키보드, 마우스 등과 같은 입력 유닛(1206); 여러 가지 유형의 디스플레이, 스피커 등과 같은 출력 유닛(1207); 자기 디스크, 시디 롬 등과 같은 저장 유닛(1208); 및 네트워크 카드, 모뎀, 무선 통신 트랜시버와 같은 통신 유닛(1209)을 포함하는 다수의 부품은 I/O인터페이스(1205)에 연결된다. 통신 유닛(1209)은 기기(1200)로 하여금 인터넷과 같은 컴퓨터 네트워크 및/또는 여러 가지 전신 네트워크를 통해 기타 기기와 정보/데이터를 교환하도록 허용한다.
컴퓨팅 유닛(1201)은 처리 및 컴퓨팅 능력을 가지는 여러 가지 범용 및/또는 전용 처리 모듈 일 수 있다. 컴퓨팅 유닛(1201)의 일부 예시는 중앙 처리 유닛(CPU), 그래픽스 처리 유닛(GPU), 여러 가지 전용 인공 지능(AI) 컴퓨팅 칩, 여러 가지 기계 학습 모델 알고리즘을 운행하는 컴퓨팅 유닛, 디지털 신호 프로세서(DSP) 및 임의의 적당한 프로세서, 제어기, 마이크로 제어기 등을 포함하나 이에 한정되지 않는다. 컴퓨팅 유닛(1201)은 상기에서 설명한 각 방법과 처리, 예를 들어 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보의 획득을 수행한다. 예를 들어, 일부 실시예에서, 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보의 획득은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있고, 이는 저장 유닛(1208)과 같은 기계 판독 가능 매체에 유형적으로 포함될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(1202) 및/또는 통신 유닛(1209)을 거쳐 기기(1200)에 로딩되거나 및/또는 장착될 수 있다. 컴퓨터 프로그램이 RAM(1203)에 로딩되어 컴퓨팅 유닛(1201)에 의해 실행될 경우, 상기 내용에서 설명한 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보의 획득에서의 하나 또는 다수의 단계를 수행할 수 있다. 대안적으로, 기타 실시예에서, 컴퓨팅 유닛(1201)은 기타 임의의 적당한 방식(예를 들어, 펌웨어)에 의해 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보의 획득을 수행하도록 배치될 수 있다.
본 명세서에서 설명한 시스템과 기술적인 내용의 여러 가지 실시형태는 디지털 전자회로 시스템, 집적 회로 시스템, 필드 프로그램 가능 게이트 어레이(FPGA), 전용 집적 회로(ASIC), 특정 용도 표준 제품(ASSP), 시스템 온 칩 시스템(SOC), 복합 프로그래머블 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 구현될 수 있다. 이러한 여러 가지 실시형태는, 하나 또는 다수의 컴퓨터 프로그램에서 실시되되, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서의 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있고, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서로서, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터와 명령을 수신할 수 있고 데이터와 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치 및 상기 적어도 하나의 출력 장치에 전송하는 방식을 포함할 수 있다.
본 개시의 방법을 실시하기 위한 프로그램 코드는 하나 또는 다수의 프로그래밍 언어의 임의의 조합을 이용하여 프로그래밍 할 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그래밍 가능 데이터 처리 장치의 프로세서 또는 제어기에 제공되어 프로그램 코드가 프로세서 또는 제어기에 의해 실행될 때 흐름도 및/또는 블록도에서 규정한 기능/동작이 실시되도록 할 수 있다. 프로그램 코드는 완전히 기계에서 실행될 수도 있고 일부가 기계에서 실행될 수도 있으며, 독립적인 소프트웨어 패키지로서 일부가 기계에서 실행되는 동시에 일부가 원격 기계에서 실행되거나 또는 전부가 원격 기계 또는 서버에서 실행될 수 있다.
본 개시의 상하문에서, 기계 판독 가능 매체는 유형적인 매체일 수 있는 바, 이는 명령 실행 시스템, 장치 또는 기기에 제공되어 사용하거나 또는 명령 실행 시스템, 장치 또는 기기와 결합하여 사용하는 프로그램을 포함하거나 저장할 수 있다, 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체 일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상기 내용의 임의의 적합한 조합일 수 있다. 기계 판독 가능 저장 매체의 더 구체적인 예는 하나 또는 다수의 라인의 전기 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 및 프로그램 가능 읽기 전용 메모리 (EPROM 또는 플래시 메모리), 광섬유, 휴대용 콤팩트 디스크 읽기 전용 메모리(CD-ROM), 광학 저장 기기, 자기 저장 기기 또는 상기 내용의 임의의 적합한 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위해, 여기에 설명된 시스템 및 기술을 컴퓨터에서 구현할 수 있는데, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 디스플레이 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 디스플레이) 모니터)와 키보드 및 포인팅 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하고, 사용자는 상기 키보드 및 상기 포인팅 장치를 통해 정보를 입력하여 컴퓨터에 제공할 수 있다. 다른 종류의 장치를 사용하여 사용자와의 인터랙션을 제공할 수도 있는 바, 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감각 피드백(예를 들어, 시각적 피드백, 청각 피드백 또는 촉각 피드백) 일 수 있고, 임의의 형태(소리 입력, 음성 입력 또는 촉각 입력 포함)로 사용자에 의해 발송된 정보를 수신할 수 있다.
여기에서 설명된 시스템 및 기술은 백 엔드 구성 요소(예를 들어, 데이터 서버)를 포함하는 컴퓨팅 시스템 또는 미들웨어 구성 요소(예를 들어, 애플리케이션 서버)를 포함하는 컴퓨팅 시스템 또는 프론트 엔드 구성 요소(예를 들어, 예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비한 사용자 컴퓨터일 수 있으며, 사용자는 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기에 설명된 시스템 및 기술의 실시형태와 인터랙션 할 수 있음)를 포함하는 컴퓨팅 시스템 또는 이러한 백 엔드 구성 요소, 미들웨어 구성 요소 또는 프론트 엔드 구성 요소의 임의의 조합을 포함하는 컴퓨팅 시스템에 의해 구현될 수 있다. 시스템의 구성 요소는 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)에 의해 상호 연결될 수 있다. 통신 네트워크의 예로는 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷이 포함될 수 있다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며, 일반적으로 통신 네트워크를 통해 인터랙션 한다. 클라이언트와 서버 간의 관계는 해당 컴퓨터에서 실행되고 서로 클라이언트-서버 관계가 있는 컴퓨터 프로그램에 의해 발생된다.
본 실시예는 상기 실시예에서 제공하는 전자기기를 포함하는 도로측 기기를 더 제공한다.
도로측 기기는 예를 들어 컴퓨팅 기능을 가지는 도로측 감지 기기, 도로측 감지 기기와 연결되는 도로측 컴퓨팅 기기이다.
지능형 교통 차량-도로 협업 시스템 구조에서, 도로측 기기는 도로측 감지 기기와 도로측 컴퓨팅 기기를 포함하고, 도로측 감지 기기(예를 들어 도로측 카메라)는 도로측 컴퓨팅 기기(예를 들어 도로측 컴퓨팅 유닛(RSCU))에 연결되며, 도로측 컴퓨팅 기기는 서버 기기에 연결되고, 서버 기기는 여러 가지 방식을 통해 자율 주행 또는 보조 운전 차량과 통신할 수 있으며; 다른 한가지 시스템 구조에서, 도로측 감지 기기 자체가 컴퓨팅 기능을 포함하면 도로측 감지 기기는 상기 서버 기기에 직접 연결된다. 이상의 연결은 유선 또는 무선 일 수 있고; 본 출원에서 서버 기기는 예를 들어 클라우드 제어 플랫폼, 차량-도로 협업 관리 플랫폼, 중앙 서브 시스템, 에지 컴퓨팅 플랫폼, 클라우드 컴퓨팅 플랫폼 등이다.
본 실시예는 상기 실시예에서 제공하는 전자기기를 포함하는 클라우드 제어 플랫폼을 더 제공한다.
이해해야 할 것은, 이상에서 설명한 여러 가지 형태의 프로세스를 사용하고 단계를 다시 정렬, 증가 또는 삭제할 수 있다. 예를 들면 본 출원에서 기재한 각 단계는 동시에 수행할 수도 있고 순차적으로 수행할 수도 있으며 상이한 순서로 수행할 수도 있는 바, 본 출원에서 개시한 기술적 해결수단에서 기대하는 결과를 실현할 수만 있다면 본문에서는 이에 대해 한정하지 않는다.
상기 구체적인 실시형태는 본 출원의 보호범위를 한정하지 않는다. 본 기술분야에서 통상의 지식을 가진 자들은 설계 요구와 기타 요소에 근거하여 여러 가지 수정, 조합, 하위 조합과 대체를 진행할 수 있다는 것을 이해할 수 있다. 본 출원의 정신과 원칙 내에서 진행한 그 어떤 수정, 균등한 대체와 개선은 모두 본 출원의 보호범위 내에 포함된다.
Claims (21)
- 제1 카메라와 제2 카메라를 포함하고, 상기 제1 카메라와 상기 제2 카메라 사이에는 공동 가시 영역이 구비되는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법에 있어서,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하고 상기 제1 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 단계;
제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제2 회전 매트릭스를 획득하고 상기 제1 회전 매트릭스와 상기 제2 회전 매트릭스에 근거하여, 제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제3 회전 매트릭스를 생성하는 단계;
상기 제3 회전 매트릭스에 근거하여 상기 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 획득하는 상기 단계는,
상기 제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고, 상기 제2 카메라가 수집한 영상에 근거하여 제2 왜곡 제거 영상을 생성하되, 여기서, 상기 제1 왜곡 제거 영상과 상기 제2 왜곡 제거 영상은 상기 공동 가시 영역에 위치한 영상 영역을 각각 구비하는 단계;
상기 제1 왜곡 제거 영상에서 상기 공동 가시 영역에 위치한 영상 영역의 제1 영상 특징을 추출하고 상기 제2 왜곡 제거 영상에서 상기 공동 가시 영역에 위치한 영상 영역의 제2 영상 특징을 추출하는 단계;
상기 제1 영상 특징과 상기 제2 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 결정하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제2항에 있어서,
상기 제1 영상 특징과 상기 제2 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제1 매칭 포인트 쌍을 결정하는 단계는,
상기 제1 영상 특징과 상기 제2 영상 특징에 기반하여 상기 제1 왜곡 제거 영상과 상기 제2 왜곡 제거 영상에 대해 특징 매칭을 진행하여 상기 제1 매칭 포인트 쌍을 획득하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제2항에 있어서,
상기 제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고, 상기 제2 카메라가 수집한 영상에 근거하여 제2 왜곡 제거 영상을 생성하는 단계는,
상기 제1 카메라가 수집한 영상을 구면에 투영하여 구면 영상을 획득하고; 상기 구면 영상에 대해 왜곡 제거 처리를 진행하여 상기 제1 왜곡 제거 영상을 획득하는 단계;
왜곡 제거 함수로 상기 제2 카메라가 수집한 영상을 조절하여 상기 제2 왜곡 제거 영상을 획득하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
상기 제1 매칭 포인트 쌍에 근거하여, 제1 회전 매트릭스를 생성하는 단계는,
상기 제1 매칭 포인트 쌍에 근거하여, 제2 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제4 회전 매트릭스를 생성하는 단계;
제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스를 획득하고 상기 제4 회전 매트릭스와 상기 제5 회전 매트릭스에 근거하여 상기 제1 회전 매트릭스를 생성하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제5항에 있어서,
제5 회전 매트릭스를 획득하는 상기 단계는,
기설정 부앙각과 편주각에 따라 상기 제1 카메라가 수집한 영상이 위치한 제1 카메라 좌표계를 변환하여 상기 제5 회전 매트릭스를 획득하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
제2 회전 매트릭스를 획득하는 상기 단계는,
마크 포인트의 3차원 좌표 정보를 획득하고 상기 제2 카메라가 수집한 영상에 근거하여 상기 제2 카메라가 수집한 영상에서의 상기 마크 포인트의 2차원 좌표 정보를 결정하는 단계;
상기 마크 포인트의 3차원 좌표 정보 및 상기 제2 카메라가 수집한 영상에서의 상기 마크 포인트의 2차원 좌표 정보에 대해 솔루션 처리를 진행하여 상기 제2 회전 매트릭스를 획득하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
상기 제3 회전 매트릭스에 근거하여 상기 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 단계는,
상기 제3 회전 매트릭스에 따라 상기 제1 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제1 카메라가 수집한 영상을 생성하는 3차원 감지 정보를 생성하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
상기 제2 회전 매트릭스에 근거하여 상기 제2 카메라가 수집한 영상에서의 2차원 감지 정보를 세계 좌표계로 전환시켜 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 단계를 더 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
상기 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하기 위한 것인 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
상기 제2 회전 매트릭스는 상기 제2 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이고, 제3 회전 매트릭스는 상기 제1 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것인 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
상기 제1 카메라는 어안 카메라이고 상기 제2 카메라는 레어 뷰 건 타입 카메라이거나;
또는 상기 제1 카메라는 어안 카메라이고 상기 제2 카메라는 프론트 뷰 건 타입 카메라인 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
상기 도로측 카메라는 제3 카메라를 더 포함하고 상기 제1 카메라와 상기 제3 카메라 사이에는 공동 가시 영역이 구비되며;
상기 제3 회전 매트릭스에 근거하여 상기 제1 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 단계 다음에,
제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 획득하고 상기 제2 매칭 포인트 쌍에 근거하여, 제3 카메라의 제1 카메라 좌표계에서의 회전 매트릭스를 나타내는 제6 회전 매트릭스를 생성하는 단계;
상기 제3 회전 매트릭스와 상기 제6 회전 매트릭스에 근거하여, 제3 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제7 회전 매트릭스를 생성하는 단계;
상기 제7 회전 매트릭스에 근거하여 상기 제3 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 단계를 더 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 획득하는 상기 단계는,
상기 제1 카메라가 수집한 영상에 근거하여 제1 왜곡 제거 영상을 생성하고 상기 제3 카메라가 수집한 영상에 근거하여 제3 왜곡 제거 영상을 생성하되, 여기서, 상기 제1 왜곡 제거 영상과 상기 제3 왜곡 제거 영상은 상기 공동 가시 영역에 위치한 영상 영역을 각각 구비하는 단계;
상기 제1 왜곡 제거 영상에서 상기 공동 가시 영역에 위치한 영상 영역의 제1 영상 특징을 추출하고 상기 제3 왜곡 제거 영상에서 상기 공동 가시 영역에 위치한 영상 영역의 제3 영상 특징을 추출하는 단계;
상기 제1 영상 특징과 상기 제3 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 결정하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제14항에 있어서,
상기 제1 영상 특징과 상기 제3 영상 특징에 기반하여 제1 카메라가 수집한 영상과 제3 카메라가 수집한 영상 사이의 제2 매칭 포인트 쌍을 결정하는 단계는,
상기 제1 영상 특징과 상기 제3 영상 특징에 기반하여 상기 제1 왜곡 제거 영상과 상기 제3 왜곡 제거 영상에 대해 특징 매칭을 진행함으로써 상기 제2 매칭 포인트 쌍을 획득하는 단계를 포함하고,
상기 제3 카메라가 수집한 영상에 근거하여 제3 왜곡 제거 영상을 생성하는 단계는,
왜곡 제거 함수로 상기 제3 카메라가 수집한 영상을 조절하여 상기 제3 왜곡 제거 영상을 획득하는 단계를 포함하는 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제13항에 있어서,
상기 제2 매칭 포인트 쌍에 근거하여, 제6 회전 매트릭스를 생성하는 단계는,
상기 제2 매칭 포인트 쌍에 근거하여, 제3 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제8 회전 매트릭스를 생성하는 단계;
제1 카메라의 등가 카메라 좌표계에서의 회전 매트릭스를 나타내는 제5 회전 매트릭스를 획득하고 상기 제5 회전 매트릭스와 상기 제8 회전 매트릭스에 근거하여 상기 제6 회전 매트릭스를 생성하는 단계를 포함하고,
제1 카메라가 어안 카메라이고 제2 카메라가 레어 뷰 건 타입 카메라이면 제3 카메라는 프론트 뷰 건 타입 카메라이며, 제1 카메라가 어안 카메라이고 제2 카메라가 프론트 뷰 건 타입 카메라이면 상기 제3 카메라는 레어 뷰 건 타입 카메라인 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제13항에 있어서,
상기 제3 카메라가 수집한 영상의 3차원 감지 정보는 자율 주행 차량의 3차원 감지 포지셔닝을 진행하기 위한 것이고;
상기 제7 회전 매트릭스는 상기 제3 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것인 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 제1항에 있어서,
제1 카메라가 수집한 영상과 제2 카메라가 수집한 영상 사이의 제3 매칭 포인트 쌍을 획득하고 상기 제3 매칭 포인트 쌍에 근거하여, 제1 카메라의 제2 카메라 좌표계에서의 회전 매트릭스를 나타내는 제1 회전 매트릭스를 생성하는 단계;
제1 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제9 회전 매트릭스를 획득하고 상기 제1 회전 매트릭스와 상기 제9 회전 매트릭스에 근거하여, 제2 카메라의 세계 좌표계에서의 회전 매트릭스를 나타내는 제10 회전 매트릭스를 생성하는 단계;
상기 제9 회전 매트릭스에 근거하여 제1 카메라의 3차원 감지 정보를 생성하고 상기 제10 회전 매트릭스에 근거하여 제2 카메라가 수집한 영상의 3차원 감지 정보를 생성하는 단계를 더 포함하고,
제9 회전 매트릭스를 획득하는 상기 단계는,
마크 포인트의 3차원 좌표 정보를 획득하고 상기 제1 카메라가 수집한 영상에 근거하여 상기 제1 카메라가 수집한 영상에서의 상기 마크 포인트의 2차원 좌표 정보를 결정하는 단계;
상기 마크 포인트의 3차원 좌표 정보 및 상기 제1 카메라가 수집한 영상에서의 상기 마크 포인트의 2차원 좌표 정보에 대해 솔루션 처리를 진행하여 상기 제9 회전 매트릭스를 획득하는 단계를 포함하고,
상기 제9 회전 매트릭스는 상기 제1 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것이고 상기 제10 회전 매트릭스는 상기 제2 카메라의 파라미터에 대해 캘리브레이션을 진행하기 위한 것인 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법. - 적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결하는 메모리를 포함하되,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서로 하여금 제1항 내지 제18항 중 어느 한 항에 따른 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법을 수행할 수 있도록 하는 전자기기. - 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장 매체에 있어서,
상기 컴퓨터 명령은 컴퓨터로 하여금 제1항 내지 제18항 중 어느 한 항에 따른 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법을 수행하도록 하는 비일시적 컴퓨터 판독 가능 저장 매체. - 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 경우, 제1항 내지 제18항 중 어느 한 항에 따른 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법을 구현하는 컴퓨터 프로그램.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011630696.8A CN112668505A (zh) | 2020-12-30 | 2020-12-30 | 基于路侧相机的外参的三维感知信息获取方法和路侧设备 |
CN202011630696.8 | 2020-12-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210132624A true KR20210132624A (ko) | 2021-11-04 |
KR102571066B1 KR102571066B1 (ko) | 2023-08-25 |
Family
ID=75412940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210137767A KR102571066B1 (ko) | 2020-12-30 | 2021-10-15 | 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11893884B2 (ko) |
EP (1) | EP3940636A3 (ko) |
JP (1) | JP7321231B2 (ko) |
KR (1) | KR102571066B1 (ko) |
CN (1) | CN112668505A (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742897B (zh) * | 2022-03-31 | 2023-02-28 | 阿波罗智联(北京)科技有限公司 | 路侧感知系统的相机安装信息的处理方法、装置及设备 |
CN115564877A (zh) * | 2022-10-13 | 2023-01-03 | 美的集团(上海)有限公司 | 虚拟人的驱动方法、装置、存储介质和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1062145A (ja) * | 1996-08-14 | 1998-03-06 | Meidensha Corp | カメラ姿勢の検出装置 |
JP2013092871A (ja) * | 2011-10-25 | 2013-05-16 | Secom Co Ltd | カメラ姿勢算出装置 |
EP3057062A1 (en) * | 2015-02-16 | 2016-08-17 | Application Solutions (Electronics and Vision) Limited | Method and device for stabilization of a surround view image |
US20190012766A1 (en) * | 2016-06-17 | 2019-01-10 | Nec Corporation | Image processing device, image processing method, and storage medium |
KR102235951B1 (ko) * | 2019-06-20 | 2021-04-05 | 주식회사 아이닉스 | 차량용 영상 생성 장치 및 방법 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003331383A (ja) * | 2002-05-14 | 2003-11-21 | Seiwa Electric Mfg Co Ltd | 画像処理方法及び物体表示装置 |
US7853038B2 (en) * | 2007-01-04 | 2010-12-14 | Industrial Technology Research Institute | Systems and methods for object dimension estimation |
JP4793324B2 (ja) | 2007-05-30 | 2011-10-12 | 株式会社日立製作所 | 車両監視装置および車両監視方法 |
US20090110267A1 (en) * | 2007-09-21 | 2009-04-30 | The Regents Of The University Of California | Automated texture mapping system for 3D models |
US8760521B2 (en) * | 2009-05-15 | 2014-06-24 | Purdue Research Foundation | Calibration of large camera networks |
CN101894366B (zh) * | 2009-05-21 | 2014-01-29 | 北京中星微电子有限公司 | 一种获取标定参数的方法、装置及一种视频监控系统 |
JP5891061B2 (ja) * | 2012-02-15 | 2016-03-22 | 株式会社日立製作所 | 映像監視装置、監視システム、監視システム構築方法 |
JP2015232442A (ja) * | 2012-10-04 | 2015-12-24 | アルプス電気株式会社 | 画像処理装置及び車両前方監視装置 |
CN104361603B (zh) * | 2014-11-28 | 2017-04-26 | 苏州科达科技股份有限公司 | 枪机图像目标标定方法及其系统 |
JP2018180860A (ja) * | 2017-04-11 | 2018-11-15 | 株式会社デンソー | 交通情報システム |
WO2019049331A1 (ja) * | 2017-09-08 | 2019-03-14 | 株式会社ソニー・インタラクティブエンタテインメント | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
CN107886547B (zh) | 2017-11-10 | 2020-04-28 | 长沙全度影像科技有限公司 | 一种鱼眼相机标定方法及系统 |
CN108447095A (zh) | 2018-01-31 | 2018-08-24 | 潍坊歌尔电子有限公司 | 一种鱼眼相机标定方法和装置 |
CN108711166B (zh) * | 2018-04-12 | 2022-05-03 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN108989796A (zh) * | 2018-08-09 | 2018-12-11 | 浙江大华技术股份有限公司 | 一种图像采集设备选择方法及装置 |
CN109509226B (zh) * | 2018-11-27 | 2023-03-28 | 广东工业大学 | 三维点云数据配准方法、装置、设备及可读存储介质 |
TWI745653B (zh) * | 2019-02-18 | 2021-11-11 | 宏碁股份有限公司 | 顧客行為分析方法與顧客行為分析系統 |
CN110988947B (zh) | 2019-02-20 | 2020-09-22 | 以见科技(上海)有限公司 | 一种基于实时动态载波相位差分技术的增强现实定位方法 |
CN109859314B (zh) * | 2019-03-12 | 2023-08-29 | 上海曼恒数字技术股份有限公司 | 三维重建方法、装置、电子设备和存储介质 |
CN110060304B (zh) * | 2019-03-31 | 2022-09-30 | 南京航空航天大学 | 一种生物体三维信息采集方法 |
CN111783502A (zh) * | 2019-04-03 | 2020-10-16 | 长沙智能驾驶研究院有限公司 | 基于车路协同的视觉信息融合处理方法、装置及存储介质 |
CN110473262A (zh) * | 2019-08-22 | 2019-11-19 | 北京双髻鲨科技有限公司 | 多目相机的外参标定方法、装置、存储介质及电子设备 |
CN110599546A (zh) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | 一种获取三维空间数据的方法、系统、装置和存储介质 |
CN111223038B (zh) * | 2019-12-02 | 2023-06-09 | 上海赫千电子科技有限公司 | 一种车载环视图像的自动拼接方法及显示装置 |
CN111462029B (zh) * | 2020-03-27 | 2023-03-03 | 阿波罗智能技术(北京)有限公司 | 视觉点云与高精地图融合方法、装置和电子设备 |
CN111612760B (zh) * | 2020-05-20 | 2023-11-17 | 阿波罗智联(北京)科技有限公司 | 用于检测障碍物的方法和装置 |
CN111932627B (zh) * | 2020-09-15 | 2021-01-05 | 蘑菇车联信息科技有限公司 | 一种标识物绘制方法及系统 |
-
2020
- 2020-12-30 CN CN202011630696.8A patent/CN112668505A/zh active Pending
-
2021
- 2021-10-11 US US17/498,638 patent/US11893884B2/en active Active
- 2021-10-12 EP EP21202220.6A patent/EP3940636A3/en active Pending
- 2021-10-15 KR KR1020210137767A patent/KR102571066B1/ko active IP Right Grant
- 2021-11-01 JP JP2021178763A patent/JP7321231B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1062145A (ja) * | 1996-08-14 | 1998-03-06 | Meidensha Corp | カメラ姿勢の検出装置 |
JP2013092871A (ja) * | 2011-10-25 | 2013-05-16 | Secom Co Ltd | カメラ姿勢算出装置 |
EP3057062A1 (en) * | 2015-02-16 | 2016-08-17 | Application Solutions (Electronics and Vision) Limited | Method and device for stabilization of a surround view image |
US20190012766A1 (en) * | 2016-06-17 | 2019-01-10 | Nec Corporation | Image processing device, image processing method, and storage medium |
KR102235951B1 (ko) * | 2019-06-20 | 2021-04-05 | 주식회사 아이닉스 | 차량용 영상 생성 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102571066B1 (ko) | 2023-08-25 |
CN112668505A (zh) | 2021-04-16 |
EP3940636A3 (en) | 2022-04-27 |
JP2022014921A (ja) | 2022-01-20 |
EP3940636A2 (en) | 2022-01-19 |
US11893884B2 (en) | 2024-02-06 |
JP7321231B2 (ja) | 2023-08-04 |
US20220028260A1 (en) | 2022-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102581429B1 (ko) | 장애물을 탐지하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP7222031B2 (ja) | 画像の投影方法、装置、デバイス及び記憶媒体 | |
CN107223269B (zh) | 三维场景定位方法和装置 | |
EP3879494A2 (en) | Method, apparatus, electronic device, computer readable medium and program for calibrating external parameter of camera | |
EP4116462A2 (en) | Method and apparatus of processing image, electronic device, storage medium and program product | |
US9530235B2 (en) | Aligning panoramic imagery and aerial imagery | |
CN111462029B (zh) | 视觉点云与高精地图融合方法、装置和电子设备 | |
KR102571066B1 (ko) | 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기 | |
KR20220054754A (ko) | 시선 추적 방법, 장치, 모델 트레이닝 방법 및 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 | |
CN110675635B (zh) | 相机外参的获取方法、装置、电子设备及存储介质 | |
KR102694715B1 (ko) | 장애물의 검출 방법, 전자 기기, 노변 기기 및 클라우드 컨트롤 플랫폼 | |
WO2022237821A1 (zh) | 生成交通标志线地图的方法、设备和存储介质 | |
KR20220100813A (ko) | 자율주행 차량 정합 방법, 장치, 전자 기기 및 차량 | |
CN117870716A (zh) | 地图兴趣点的显示方法、装置、电子设备及存储介质 | |
CN115578432B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
JP7375149B2 (ja) | 測位方法、測位装置、ビジュアルマップの生成方法およびその装置 | |
CN110389349B (zh) | 定位方法和装置 | |
WO2017110645A1 (ja) | 作業支援装置、作業支援方法、作業支援プログラム、及び記録媒体 | |
CN117351054A (zh) | 图像像素点的深度信息获取方法、装置及设备 | |
CN116310059A (zh) | 材质参数确定的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |