KR20210003325A - 복수의 카메라들을 캘리브레이션하는 방법 및 장치 - Google Patents

복수의 카메라들을 캘리브레이션하는 방법 및 장치 Download PDF

Info

Publication number
KR20210003325A
KR20210003325A KR1020190078562A KR20190078562A KR20210003325A KR 20210003325 A KR20210003325 A KR 20210003325A KR 1020190078562 A KR1020190078562 A KR 1020190078562A KR 20190078562 A KR20190078562 A KR 20190078562A KR 20210003325 A KR20210003325 A KR 20210003325A
Authority
KR
South Korea
Prior art keywords
bird
feature point
cameras
eye
camera
Prior art date
Application number
KR1020190078562A
Other languages
English (en)
Other versions
KR102297683B1 (ko
Inventor
김희수
하정목
전병찬
이준석
Original Assignee
㈜베이다스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ㈜베이다스 filed Critical ㈜베이다스
Priority to KR1020190078562A priority Critical patent/KR102297683B1/ko
Priority to DE102020207483.6A priority patent/DE102020207483A1/de
Priority to US16/908,744 priority patent/US11198393B2/en
Priority to CN202010599086.XA priority patent/CN112184827B/zh
Publication of KR20210003325A publication Critical patent/KR20210003325A/ko
Application granted granted Critical
Publication of KR102297683B1 publication Critical patent/KR102297683B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/2257
    • H04N5/247
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

복수의 카메라들을 캘리브레이션하기 위해, 차량의 주변을 촬영한 복수의 이미지들을 획득하고, 복수의 이미지들 각각에 ROI를 설정하며, ROI들의 적어도 하나의 특징점을 검출하고, 검출된 특징점들에 기초하여 제1 ROI의 제1 특징점 및 제2 ROI의 제2 특징점을 매칭하고, 제1 특징점에 대한 제1 조감 좌표 및 제2 특징점에 대한 제2 조감 좌표를 계산하고, 제1 조감 좌표 및 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 복수의 카메라들을 캘리브레이션한다.

Description

복수의 카메라들을 캘리브레이션하는 방법 및 장치{METHOD AND APPARATUS FOR CARLIBRATIING A PLURALITY OF CAMERAS}
아래의 실시예들은 차량의 카메라들을 캘리브레이션하는 기술에 관한 것으로, 특히, 차량의 주행 중에 카메라들을 캘리브레이션하는 기술에 관한 것이다.
이미지 촬영 및 처리 기술의 발달에 따라, 최근에 생산된 차량에는 카메라가 탑재되고, 차량의 주행을 보조하기 위한 탑뷰(top view) 시스템이 사용자 또는 차량에게 제공된다. 탑뷰 시스템은 복수의 카메라들이 촬영한 이미지들을 이용하여 탑뷰 이미지 또는 조감(bird eye view) 이미지를 생성할 수 있다. 조감 이미지는 하늘에서 차량을 내려다보는 것과 같은 화면을 운전자에게 제공할 수 있어 자동차의 전방, 후방, 좌측, 및 우측의 사각을 완전히 제거할 수 있다.
일 실시예는 복수의 카메라들을 캘리브레이션하는 방법 및 장치를 제공할 수 있다.
다른 일 실시예는 차량의 주행 중에 복수의 카메라들을 캘리브레이션하는 방법 및 장치를 제공할 수 있다.
일 측면에 따른, 차량에 탑재된 프로세서에 의해 수행되는, 카메라 캘리브레이션 방법은, 상기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계, 상기 복수의 이미지들 각각에 관심 영역(Region of Interest: ROI)을 설정하는 단계 - 복수의 이미지들 중 제1 이미지의 제1 ROI 및 제2 이미지의 제2 ROI는 공통 영역을 포함함 -, 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계, 검출된 특징점들에 기초하여 상기 제1 ROI의 제1 특징점 및 상기 제2 ROI의 제2 특징점을 매칭하는 단계, 상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계, 및 상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계를 포함한다.
상기 복수의 카메라들은 상기 차량의 좌측을 촬영하는 좌측 카메라, 상기 차량의 우측을 촬영하는 우측 카메라, 상기 차량의 전방을 촬영하는 전방 카메라, 및 상기 차량의 후방을 촬영하는 후방 카메라 중 적어도 두 개를 포함할 수 있다.
상기 카메라의 외부 파라미터는, 상기 카메라의 회전 정보 및 위치 정보를 포함할 수 있다.
상기 특징점은 상기 차량이 주행하는 차로 상의 오브젝트에 관한 것일 수 있다.
상기 복수의 이미지들 각각에 ROI을 설정하는 단계는, 상기 제1 이미지가 전방 이미지이고, 상기 제2 이미지가 좌측 이미지인 경우, 상기 제1 ROI가 상기 전방 이미지의 최-좌측을 포함하고, 상기 제2 ROI가 상기 좌측 이미지의 최-우측을 포함하도록 상기 복수의 이미지들 각각에 ROI을 설정하는 단계를 포함할 수 있다.
상기 카메라 캘리브레이션 방법은, 상기 설정된 관심 영역을 크롭(crop)함으로써 부분 이미지를 생성하는 단계를 더 포함하고, 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계는, 상기 생성된 부분 이미지에 기초하여 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계를 포함할 수 있다.
상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는, 상기 제1 ROI 및 상기 제2 ROI에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우, 상기 제1 조감 좌표 및 상기 제2 조감 좌표를 계산하는 단계를 포함할 수 있다.
상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 제1 오차를 계산하는 단계, 및 상기 제1 오차가 최소화되도록 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정하는 단계를 포함할 수 있다.
상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는, 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터가 조정된 경우 상기 조정된 외부 파라미터에 기초하여 상기 제1 특징점에 대한 제1 조정 조감 좌표 및 상기 제2 특징점에 대한 제2 조정 조감 좌표를 계산하는 단계를 포함하고, 상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 조정 조감 좌표 및 상기 제2 조정 조감 좌표 간의 제1 조정 오차를 계산하는 단계를 포함할 수 있다.
상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 오차가 미리 설정된 임계치 미만인 경우 상기 복수의 카메라들의 캘리브레이션을 종료하는 단계를 더 포함할 수 있다.
다른 일 측면에 따른, 복수의 카메라들을 캘리브레이션하는 차량에 탑재된 전자 장치는, 복수의 카메라들을 캘리브레이션하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 상기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계, 상기 복수의 이미지들 각각에 관심 영역(Region of Interest: ROI)을 설정하는 단계 - 복수의 이미지들 중 제1 이미지의 제1 ROI 및 제2 이미지의 제2 ROI는 공통 영역을 포함함 -, 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계, 검출된 특징점들에 기초하여 상기 제1 ROI의 제1 특징점 및 상기 제2 ROI의 제2 특징점을 매칭하는 단계, 상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계, 및 상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계를 수행한다.
상기 복수의 카메라들은 상기 차량의 좌측을 촬영하는 좌측 카메라, 상기 차량의 우측을 촬영하는 우측 카메라, 상기 차량의 전방을 촬영하는 전방 카메라, 및 상기 차량의 후방을 촬영하는 후방 카메라 중 적어도 두 개를 포할 수 있다.
상기 카메라의 외부 파라미터는, 상기 카메라의 회전 정보 및 위치 정보를 포함할 수 있다.
상기 특징점은 상기 차량이 주행하는 차로 상의 오브젝트에 관한 것일 수 있다.
상기 복수의 이미지들 각각에 ROI을 설정하는 단계는, 상기 제1 이미지가 전방 이미지이고, 상기 제2 이미지가 좌측 이미지인 경우, 상기 제1 ROI는 상기 전방 이미지의 최-좌측을 포함하고, 상기 제2 ROI는 상기 좌측 이미지의 최-우측을 포함하도록 상기 복수의 이미지들 각각에 ROI을 설정하는 단계를 포함할 수 있다.
상기 프로그램은, 상기 설정된 관심 영역을 크롭(crop)함으로써 부분 이미지를 생성하는 단계를 더 수행하고, 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계는, 상기 생성된 부분 이미지에 기초하여 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계를 포함할 수 있다.
상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는, 상기 제1 ROI 및 상기 제2 ROI에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우, 상기 제1 조감 좌표 및 상기 제2 조감 좌표를 계산하는 단계를 포함할 수 있다.
상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 제1 오차를 계산하는 단계, 및 상기 제1 오차가 최소화되도록 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정하는 단계를 포함할 수 있다.
상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는, 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터가 조정된 경우 상기 조정된 외부 파라미터에 기초하여 상기 제1 특징점에 대한 제1 조정 조감 좌표 및 상기 제2 특징점에 대한 제2 조정 조감 좌표를 계산하는 단계를 포함하고, 상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 조정 조감 좌표 및 상기 제2 조정 조감 좌표 간의 제1 조정 오차를 계산하는 단계를 포함할 수 있다.
상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 오차가 미리 설정된 임계치 미만인 경우 상기 복수의 카메라들의 캘리브레이션을 종료하는 단계를 더 포함할 수 있다.
또 다른 일 측면에 따르면, 차량에 탑재된 프로세서에 의해 수행되는, 카메라 캘리브레이션 방법은, 기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계, 조감 시점에 대해 미리 설정된 관심 영역(Region of Interest: ROI)에 기초하여 복수의 이미지들 각각의 부분 영역을 결정하는 단계, 상기 부분 영역들을 조감 시점으로 변환함으로써 복수의 부분 조감 이미지들을 생성하는 단계 - 복수의 부분 조감 이미지들의 제1 부분 조감 이미지는 제1 ROI에 대응하고, 제2 부분 조감 이미지는 제2 ROI에 대응하며, 상기 제1 ROI 및 상기 제2 ROI 는 공통 영역을 포함함 -, 상기 제1 부분 조감 이미지의 제1 특징점 및 상기 제2 부분 조감 이미지의 제2 특징점을 검출하는 단계, 상기 제1 특징점 및 상기 제2 특징점을 매칭하는 단계, 및 상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계를 포함한다.
상기 복수의 카메라들은 상기 차량의 좌측을 촬영하는 좌측 카메라, 상기 차량의 우측을 촬영하는 우측 카메라, 상기 차량의 전방을 촬영하는 전방 카메라, 및 상기 차량의 후방을 촬영하는 후방 카메라 중 적어도 두 개를 포함할 수 있다.
상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 부분 조감 이미지 및 상기 제2 부분 조감 이미지에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우, 복수의 카메라들을 캘리브레이션하는 단계를 포함할 수 있다.
상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계는, 상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 제1 오차를 계산하는 단계, 및 상기 제1 오차가 최소화되도록 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정하는 단계를 포함할 수 있다.
또 다른 일 측면에 따른, 복수의 카메라들을 캘리브레이션하는 차량에 탑재된 전자 장치는, 복수의 카메라들을 캘리브레이션하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 상기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계, 조감 시점에 대해 미리 설정된 관심 영역(Region of Interest: ROI)에 기초하여 복수의 이미지들 각각의 부분 영역을 결정하는 단계, 상기 부분 영역들을 조감 시점으로 변환함으로써 복수의 부분 조감 이미지들을 생성하는 단계 - 복수의 부분 조감 이미지들의 제1 부분 조감 이미지는 제1 ROI에 대응하고, 제2 부분 조감 이미지는 제2 ROI에 대응하며, 상기 제1 ROI 및 상기 제2 ROI 는 공통 영역을 포함함 -, 상기 제1 부분 조감 이미지의 제1 특징점 및 상기 제2 부분 조감 이미지의 제2 특징점을 검출하는 단계, 상기 제1 특징점 및 상기 제2 특징점을 매칭하는 단계, 및 상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계를 수행한다.
복수의 카메라들을 캘리브레이션하는 방법 및 장치가 제공될 수 있다.
차량의 주행 중에 복수의 카메라들을 캘리브레이션하는 방법 및 장치가 제공될 수 있다.
도 1은 일 예에 따른 차량의 조감 이미지를 도시한다.
도 2 및 도 3은 일 예에 따른 카메라의 외부 파라미터의 회전 정보 및 위치 정보를 나타낸다.
도 4는 일 실시예에 따른 복수의 카메라들을 캘리브레이션하는 전자 장치의 구성도이다.
도 5는 일 실시예에 따른 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
도 6은 일 예에 따른 ROI들을 도시한다.
도 7은 일 예에 따른 특징점들의 추출 및 매칭하는 방법을 도시한다.
도 8은 일 예에 따른 카메라의 외부 파라미터를 조정함으로써 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
도 9는 일 예에 따른 매칭된 특징점들의 조감 좌표들 간의 오차를 도시한다.
도 10은 일 예에 따른 복수의 카메라들이 적절하게 캘리브레이션된 경우 생성된 부분 조감 이미지들을 도시한다.
도 11은 일 예에 따른 복수의 카메라들이 적절하지 않게 캘리브레이션된 경우 생성된 부분 조감 이미지들을 도시한다.
도 12는 일 예에 따른 조정된 외부 파라미터에 기초하여 조감 좌표들 간의 조정 오차를 계산하는 방법의 흐름도이다.
도 13은 일 예에 따른 오차가 최소화되도록 카메라의 외부 파라미터를 조정하는 방법의 흐름도이다.
도 14는 다른 일 실시예에 따른 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
도 15 및 16은 일 예에 따른 조감 이미지에 대해 미리 설정된 관심 영역에 기초하여 결정된 이미지의 부분 영역을 도시한다.
도 17은 일 예에 따른 부분 조감 이미지들의 특징점을 추출하고, 매칭하는 방법을 도시한다.
도 18은 일 예에 따른 제1 조감 좌표 및 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 차량의 조감 이미지를 도시한다.
조감 이미지를 생성하기 위해서는 복수의 카메라들이 촬영한 복수의 이미지들을 병합해야 한다. 복수의 이미지들을 병합하기 위해서는 이미지들의 좌표계를 일치시켜야 한다. 다시 말하자면, 복수의 이미지들을 차량에 대해 미리 설정된 공통 좌표계로 각각 변환시킴으로써 부분 조감 이미지들을 생성하고, 부분 조감 이미지들을 병합함으로써 최종 조감 이미지를 생성한다. 예를 들어, 이미지를 와핑(warping)함으로써 부분 조감 이미지가 생성될 수 있다. 최종 조감 이미지는 어라운드 뷰 모니터(Around View Monitor: AVM)를 위해 이용될 수 있다.
예를 들어, 생성된 조감 이미지(100)는 차량(110)을 조감 시점에서 촬영한 이미지와 대응할 수 있다. 예를 들어, 조감 이미지(100) 내에는 차량 이미지(110)가 포함되지 않을 수 있다. 다른 예로, 조감 이미지(100)는 실제 촬영된 차량의 이미지가 아닌 미리 설정된 차량 이미지(110)가 포함될 수 있다. 추가적으로, 조감 이미지(100) 내에는 차로 내의 좌측 차선(120), 우측 차선(130), 제1 표시(140) 및 제2 표시(150) 등을 포함할 수 있다. 추가적으로, 차로에 맞닿아 있는 난간 등이 조감 이미지(100) 내에 더 포함될 수 있다.
그러나, 카메라를 차량에 장착할 때 발생하는 오차로 인하여 복수의 카메라들의 카메라 좌표 축을 차량의 공통 좌표계와 완벽하게 일치시키는 것은 현실적으로 불가능하다. 차량을 생산하는 공장에서는 카메라 장착 오차를 정밀하게 캘리브레이션 할 수 있지만, 차량이 출고되고 난 후에는 운행 중의 충격, 비틀림과 같은 물리적인 힘에 의해 카메라의 장착 위치가 변화하여 카메라 장착 오차가 계속하여 발생하기 때문이다. 따라서, 정확한 조감 이미지를 생성하기 위해서는 복수의 카메라들이 주기적, 또는 충격 시 마다 캘리브레이션되어야 한다.
복수의 이미지들을 병합하기 위해, 선결문제로서 카메라의 장착 오차를 보정하는 카메라 캘리브레이션이 수행되어야 하고, 이러한 카메라 캘리브레이션을 위해서는 장착된 카메라가 설치된 높이 및 설치된 각도와 같은 정보가 요구된다. 종래에는, 이와 같은 카메라 캘리브레이션을 위한 정보를 획득하기 위해, 지면에 체커보드(checker board)와 같은 특정 기준 패턴이 설치되고, 차량의 카메라들이 체커보드를 촬영한 후 촬영된 패턴 영상을 이용하여 카메라 정보를 획득하는 방법이 사용되었다.
상기의 방법은 패턴과 같은 특정 마커의 상대적인 위치를 사전에 정확하게 알 수 있으므로 정밀한 카메라 정보를 획득할 수 있는 장점이 있는 반면에, 이를 수행하기 위해서는 특정 패턴을 차량 주위에 설치해야하는 번거로움이 따르는 문제점이 있다. 또한, 상기의 방법은 차량의 주행 중에는 수행될 수 있다.
특히, 일반적인 차량의 경우 차량의 실제 운행으로 인하여 주기적, 또는 충격 시마다 카메라의 장착 오차가 발생하므로 차량의 주행 중에도 카메라의 캘리브레이션이 자동으로 이루어지도록 할 필요가 있다. 차량의 주행 중에 카메라의 캘리브레이션을 수행하는 것은 ORC(On-Road Calibration)이다.
차로에 나타나는 차선만을 이용하여 캘리브레이션을 수행하게 되면 카메라의 외부 파라미터들 중 회전 정보에 대한 추정만 가능하다. 외부 파라미터들은 회전 정보 및 위치 정보로 구성되는데, 위치 정보가 잘못된 값으로 지정되어 있는데, 회전 정보만 추정하는 경우, 결과적으로 잘못된 회전 정보가 추정된다.
위치 정보가 잘못된 값으로 설정되어 있기 때문에 이를 보정하기 위하여 회전 정보가 더 잘못된 값으로 추정되고, 이 결과로 차선은 잘 매칭이 되지만 나머지 부분은 오히려 매칭이 더 안되는 효과가 발생할 수 있다.
더 정확한 카메라 캘리브레이션을 위해 차선 뿐만 아니라 차로에 나타나는 모든 패턴들이 이용될 수 있다. 예를 들어, 차로에 나타나는 패턴들은 차선, 제한 속도 표시, 좌우 방향 표시, 어린이 보호 구역과 같이 차로 색과 다른 색으로 운전자에게 정보를 전달하기 위하여 그려진 패턴을 포함할 수 있다. 이러한 패턴들을 이용하는 이유는 대부분의 패턴이 차로 상에 존재하고, 바닥에 있기 때문에 조감 이미지에서 동일한 점을 지정한다는 특징이 있고, 또한 패턴이 나타내는 특징점이 뚜렷하기 때문이다.
아래에서 도 2 내지 도 13을 참조하여, 복수의 카메라들을 캘리브레이션하는 방법이 상세하게 설명된다.
도 2 및 도 3은 일 예에 따른 카메라의 외부 파라미터의 회전 정보 및 위치 정보를 각각 나타낸다.
카메라를 캘리브레이션하기 위해서는 카메라의 외부 파라미터들을 보정해야 한다. 외부 파라미터들은 카메라의 회전 정보 및 위치 정보를 포함한다.
도 2의 상단 도면(210)은 카메라의 피치(pitch)(Rx)를 나타내고, 중간 도면(220)은 카메라의 롤(roll)(Rz)을 나타내고, 하단 도면(230)은 카메라의 요(yaw)(Ry)를 나타낸다.
도 3의 상단 도면(310) 및 하단 도면(320)은 카메라의 위치 정보(Tx, Ty, 및 TZ)를 나타낸다. 위치 정보는 차량의 특정 위치를 기준으로 설정될 수 있다. 예를 들어, 차량의 특정 위치가 기준점으로 설정되는 월드 좌표계가 미리 설정되고, 월드 좌표계로 카메라의 위치 정보가 표현될 수 있다.
도 4는 일 실시예에 따른 복수의 카메라들을 캘리브레이션하는 전자 장치의 구성도이다.
전자 장치(400)는 통신부(410), 프로세서(420), 메모리(430) 및 카메라(440)를 포함한다. 전자 장치(400)는 차량 내에 포함될 수 있다. 예를 들어, 전자 장치(400)는 ECU(electronic control unit)와 같은 장치일 수 있다. 다른 예로, 전자 장치(400)는 ECU와 연결된 독립적인 장치일 수 있다.
통신부(410)는 프로세서(420), 메모리(430) 및 카메라(440)와 연결되어 데이터를 송수신한다. 통신부(410)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(410)는 전자 장치(400) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(410)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(410)는 전자 장치(400)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(410)는 인터페이스(interface)일 수 있다. 통신부(410)는 외부의 장치로부터 데이터를 수신하여, 프로세서(420) 및 메모리(430)에 데이터를 전송할 수 있다.
프로세서(420)는 통신부(410)가 수신한 데이터 및 메모리(430)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(420)는 메모리(예를 들어, 메모리(430))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(420)에 의해 유발된 인스트럭션들을 실행한다.
메모리(430)는 통신부(410)가 수신한 데이터 및 프로세서(420)가 처리한 데이터를 저장한다. 예를 들어, 메모리(430)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 카메라의 외부 파라미터를 조정함으로써 카메라를 캘리브레이션 할 수 있도록 코딩되어 프로세서(420)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리(430)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리(430)는 전자 장치(400)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(400)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.
카메라(440)는 장면을 촬영함으로써 이미지를 생성한다. 카메라(440)는 복수의 카메라들을 포함할 수 있다. 예를 들어, 복수의 카메라들은 차량의 전방, 후방, 좌측 및 우측에 각각 배치될 수 있다.
통신부(410), 프로세서(420), 메모리(430) 및 카메라(440)에 대해, 아래에서 도 5 내지 도 13을 참조하여 상세히 설명된다.
도 5는 일 실시예에 따른 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
아래의 단계들(510 내지 560)은 도 4를 참조하여 전술된 전자 장치(400)에 의해 수행된다.
단계(510)에서, 전자 장치(400)는 차량의 주변을 촬영한 복수의 이미지들을 획득한다. 예를 들어, 카메라(440)를 이용하여 촬영된 복수의 이미지들이 획득될 수 있다. 동일한 시각 및 위치에 존재하는 패턴의 특징점을 검출하기 위해 복수의 이미지들은 동일한 촬영 시각을 가진다. 패턴은 차로 상의 오브젝트일 수 있다.
카메라(440)는 보통의 렌즈보다 시야 각이 더 큰 광각 렌즈 또는 시각이 180°를 넘는 초광각 렌즈인 어안 렌즈를 포함할 수 있다. 시야 각이 큰 렌즈를 통해 영상이 생성되는 경우, 차량 주변이 모두 촬영될 수 있다.
카메라(440)가 차량의 전방, 후방, 좌측 및 우측을 각각 촬영하는 4개의 카메라들을 포함하고, 4개의 카메라들에 의해 촬영된 이미지들에 기초하여 카메라들 간의 캘리브레이션이 수행되는 경우, 카메라들 각각의 외부 파라미터가 추정될 수 있다. 예를 들어, 카메라의 회전 정보로서 피치(Rx), 요(Ry), 및 롤(Rz)이 추정될 수 있다. 다른 예로, 카메라의 위치 정보로서 평행 이동 정보(Tx 및 Ty) 및 높이 정보(Tz)가 추정될 수 있다.
카메라(440)가 전방, 후방, 좌측 및 우측을 각각 촬영하는 4개의 카메라들을 포함하는 경우, 각각의 카메라에 대한 4개의 채널들이 정의될 수 있다.
적어도 두 개의 카메라들에 의해 동시에 촬영된 차로 상의 패턴이 존재하는 경우, 상기의 패턴은 조감 시점으로 변경된 이미지 내에 동일한 위치를 나타내야 한다. 4개의 카메라들 각각의 외부 파라미터가 정확한 경우에는, 패턴이 조감 이미지 내에서 하나로 나타나고, 외부 파라미터가 부정확한 경우에는 여러 개의 패턴으로 나타나게 된다.
이러한 점을 이용하여, 카메라들 각각의 정확한 외부 파라미터가 추정될 수 있다. 아래에서, 획득된 이미지들을 이용하여 정확한 외부 파라미터를 추정하는 방법이 설명된다.
단계(520), 전자 장치(400)는 복수의 이미지들에 각각에 관심 영역(Region of Interest: ROI)을 설정한다. ROI는 이미지의 부분들 중 다른 이미지와 겹치는 부분일 수 있다. 즉, 복수의 이미지들 중 제1 이미지의 제1 ROI 및 제2 이미지의 제2 ROI는 공통 영역을 포함할 수 있다. 예를 들어, 제1 이미지가 전방 이미지이고, 제2 이미지가 좌측 이미지인 경우, 제1 이미지의 제1 ROI 및 제2 이미지의 제2 ROI는 차량의 좌측 상단을 나타내는 위치일 수 있다. ROI에 대해, 아래에서 도 6 및 7을 참조하여 상세하게 설명된다.
단계(530)에서, 전자 장치(400)는 ROI들의 적어도 하나의 특징점을 검출한다. 예를 들어, 제1 ROI의 특징점들 및 제2 ROI의 특징점들이 검출될 수 있다. 차로 상에 존재하는 패턴의 특징점들이 검출될 수 있다. 예를 들어, 차선의 특징점, 방향 지시(direction indicator)의 특징점 등이 검출될 수 있다. 특징점을 검출하기 위해, SIFT(Scale Invariant Feature Transform) 알고리즘, SURF(Speeded Up Robust Feature) 알고리즘, Haar 알고리즘, Ferns 알고리즘, ORB(Oriented FAST and Rotated BRIEF) 알고리즘 등이 이용될 수 있으나, 기재된 실시예로 한정되지 않는다.
단계(540)에서, 전자 장치(400)는 제1 ROI의 제1 특징점 및 제2 ROI의 제2 특징점을 매칭한다. 예를 들어, 전방 이미지의 ROI의 특징점 및 좌측 이미지의 ROI의 특징점이 매칭되고, 전방 이미지의 ROI의 특징점 및 우측 이미지의 ROI의 특징점이 매칭되고, 후방 이미지의 ROI의 특징점 및 좌측 이미지의 ROI의 특징점이 매칭되고, 후방 이미지의 ROI의 특징점 및 우측 이미지의 ROI의 특징점이 매칭될 수 있다.
단계(550)에서, 전자 장치(400)는 제1 특징점에 대한 제1 조감 좌표 및 제2 특징점에 대한 제2 조감 좌표를 계산한다. 예를 들어, 제1 특징점이 전방 이미지의 특징점이고, 제2 특징점이 좌측 이미지의 특징점인 경우, 전방 카메라의 외부 파라미터에 기초하여 제1 특징점에 대한 제1 조감 좌표이 계산되고, 좌측 카메라의 외부 파라미터에 기초하여 제2 특징점에 대한 제2 조감 좌표이 계산될 수 있다. 조감 좌표는 생성될 조감 이미지의 좌표계 내의 좌표일 수 있다. 예를 들어, 조감 이미지의 좌표계는 전술된 월드 좌표계일 수 있다.
일 측면에 따르면, 단계(550)가 수행되기 위한 조건으로, 단계(540)가 수행된 후, 매칭된 특징점의 개수가 미리 설정된 개수 이상인지 여부가 결정될 수 있다. 예를 들어, 제1 ROI 및 제2 ROI에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우, 제1 조감 좌표 및 제2 조감 좌표가 계산될 수 있다. 제1 ROI 및 제2 ROI에 대해 매칭된 특징점의 개수가 많을수록 외부 파라미터의 정확한 추정이 가능하다.
그러나, 제1 ROI 및 제2 ROI에 대해 매칭된 특징점의 개수가 미리 설정된 개수 미만인 경우, 외부 파라미터의 조정의 정확도를 확신할 수 없으므로, 현재의 복수의 이미지들(현재 프레임)에 대해서는 외부 파라미터가 조정되지 않는다.
단계(560)에서, 전자 장치(400)는 제1 조감 좌표 및 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 복수의 카메라들을 캘리브레이션한다.
카메라들 간에 정확한 캘리브레이션이 수행되지 않은 경우에는, 카메라들 간에 서로 다른 월드 좌표계가 생성될 수 있다. 이에 따라, 정확한 월드 좌표계를 대체할 수 있는 방법으로, 타겟 카메라에 인접한 카메라의 위치가 이용될 수 있다. 인접한 카메라의 위치를 타겟 카메라의 위치로 변환하여 변환된 위치를 월드 좌표계의 기준점인 것처럼 설정하여 캘리브레이션이 수행될 수 있다. 상기의 방법을 이용하게 되면 정확한 월드 좌표계의 기준점을 모르는 경우에도, 기준점이 있는 것처럼 카메라의 캘리브레이션을 수행할 수 있기 때문에, 외부 파라미터가 조정될 수 있다.
그러나, 인접 카메라의 위치를 변환하여 월드 좌표계의 기준점으로 설정하게 되면 인접 카메라의 외부 파라미터가 부정확한 경우, 설정된 월드 좌표계의 기준점도 부정확한 위치가 된다. 이러한 이유로 인하여 한 번에 한 개의 카메라의 캘리브레이션을 수행하는 것이 아니라, 복수의 카메라들 각각의 캘리브레이션을 한 번씩 반복적으로 수행함으로써 외부 파라미터의 오차를 점차 감소시키는 방법이 고려될 수 있다. 타겟 카메라를 변경하면서, 각각의 타겟 카메라에 대한 월드 좌표계의 기준점을 설정하고, 설정된 월드 좌표계의 기준점을 이용하여 반복적으로 캘리브레이션을 수행함으로써 복수의 카메라들이 동시에 캘리브레이션 될 수 있다.
복수의 카메라들을 캘리브레이션하는 방법에 대해, 아래에서 도 8 내지 13을 참조하여 상세히 설명된다.
도 6은 일 예에 따른 ROI들을 도시한다.
예를 들어, 제1 이미지(611)는 전방 카메라(610)에 의해 생성된 전방 이미지 또는 전방 이미지에 기초하여 생성된 제1 부분 조감 이미지이고, 제2 이미지(621)는 좌측 카메라(620)에 의해 생성된 좌측 이미지 또는 좌측 이미지에 기초하여 생성된 제2 부분 조감 이미지이고, 제3 이미지(631)는 후방 카메라(630)에 의해 생성된 후방 이미지 또는 후방 이미지에 기초하여 생성된 제3 부분 조감 이미지이고, 제4 이미지(641)는 우측 카메라(640)에 의해 생성된 우측 이미지 또는 우측 이미지에 기초하여 생성된 제4 부분 조감 이미지일 수 있다.
상기의 이미지들(611 내지 641)은 차량(600)을 중심으로 하는 ROI의 개념을 설명하기 위한 것이므로, 이미지들(611 내지 641)이 카메라에 의해 생성된 이미지인지, 변환된 부분 조감 이미지인지 여부는 기재된 실시예로 한정되지 않는다.
제1 이미지(611) 및 제2 이미지(621)의 제1 공통 영역(651)의 적어도 일부를 포함하도록 제1 ROI가 설정될 수 있다. 예를 들어, 제1 ROI는 전방 이미지의 최-좌측을 포함하고, 제2 ROI는 좌측 이미지의 최-상단을 포함할 수 있다. 유사하게, 제2 이미지(621) 및 제3 이미지(631)의 제2 공통 영역(652)의 적어도 일부를 포함하도록 제2 ROI가 설정되고, 제3 이미지(631) 및 제4 이미지(641)의 제3 공통 영역(653)의 적어도 일부를 포함하도록 제3 ROI가 설정되고, 제4 이미지(641) 및 제1 이미지(611)의 제4 공통 영역(654)의 적어도 일부를 포함하도록 제4 ROI가 설정될 수 있다.
도 7은 일 예에 따른 특징점들의 추출 및 매칭하는 방법을 도시한다.
예를 들어, 전방 이미지(710) 상에 제1 ROI(712) 및 좌측 이미지(720) 상에 제2 ROI(722)가 설정될 수 있다. 전자 장치(400)는 설정된 ROI들(712, 722)을 크롭(crop)함으로써 부분 이미지를 생성할 수 있다.
설정된 ROI들(712, 722) 또는 생성된 부분 이미지들에 기초하여 ROI들(712, 722)의 적어도 하나의 특징점(713, 714, 723, 724)이 검출될 수 있다. 간명한 설명을 위해 방향 지시의 일부 특징점들 만을 도시하였으나, 이미지 내의 텍스쳐 및 엣지 등에 기초하여 다수의 특징점들이 검출될 수 있다.
전자 장치(400)는 검출된 특징점들을 매칭할 수 있다. 예를 들어, 제1 ROI(712)의 특징점(713)과 제2 ROI(722)의 특징점(723)이 매칭되고, 제1 ROI(712)의 특징점(714)과 제2 ROI(722)의 특징점(724)이 매칭될 수 있다.
특징점들을 매칭하기 위해, SIFT 알고리즘, SURF 알고리즘, Haar 알고리즘, Ferns 알고리즘, ORB 알고리즘 등이 이용될 수 있으나, 기재된 실시예로 한정되지 않는다.
도 8은 일 예에 따른 카메라의 외부 파라미터를 조정함으로써 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
일 측면에 따르면, 도 5를 참조하여 전술된 단계(560는 아래의 단계들(810 내지 830)을 포함할 수 있다.
단계(810)에서, 전자 장치(400)는 제1 조감 좌표 및 제2 조감 좌표 간의 제1 오차를 계산한다. 카메라의 외부 파라미터가 정확하게 설정 또는 조정된 경우에는 제1 조감 좌표 및 제2 조감 좌표가 동일하게 나타나므로 제1 오차는 0 또는 거의 0일 수 있다.
제1 조감 좌표 및 제2 조감 좌표는 매칭된 한 쌍의 특징점들에 관한 것이고, 매칭된 특징점들의 쌍이 복수인 경우, 복수의 쌍들의 각각에 대해 오차가 계산될 수 있다.
단계(820)에서, 전자 장치(400)는 제1 오차가 미리 설정된 임계치 이상인지 여부를 결정한다. 제1 오차가 임계치 미만인 경우 복수의 카메라들의 캘리브레이션이 종료될 수 있다. 다만, 어느 하나의 오차가 상기의 조건을 만족하더라도, 다른 오차가 상기의 조건을 만족하지 못하는 경우에는 캘리브레이션이 계속 수행될 수 있다.
단계(830)에서, 전자 장치(400)는 제1 오차가 임계치 이상인 경우, 제1 오차가 최소화되도록 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정한다. 예를 들어, 카메라의 회전 정보 및 위치 정보 중 적어도 하나가 조정될 수 있다.
일 측면에 따르면, 복수의 오차들에 기초하여 복수의 오차들이 발생한 원인이 결정될 수 있고(예를 들어, 좌측 카메라의 회전 정보의 부정확), 상기의 원인이 해소되도록 카메라의 회전 정보 및 위치 정보 중 적어도 하나가 조정(예를 들어, 좌측 카메라의 회전 정보 수정)될 수 있다. 상기의 원인을 결정하기 위해 다양한 방법이 이용될 수 있고, 어느 하나로 한정되는 것은 아니다.
예를 들어, 복수의 카메라들의 캘리브레이션을 위해 Levenberg Marquardt 알고리즘, Gradient Descent 알고리즘이 이용될 수 있다.
도 9는 일 예에 따른 매칭된 특징점들의 조감 좌표들 간의 오차를 도시한다.
도 7을 참조한 실시예에서, 특징점(713) 및 특징점(723)이 매칭된 경우, 특징점(713)에 대한 제1 조감 좌표(910)가 계산되고, 특징점(723)에 대한 제2 조감 좌표(920)가 계산될 수 있다.
카메라의 외부 파라미터가 정확한 경우, 월드 좌표계에서 제1 조감 좌표(910) 및 제2 조감 좌표(920)는 동일한 좌표를 갖는다. 그러나, 카메라의 외부 파라미터가 정확하지 않은 경우, 월드 좌표계에서 제1 조감 좌표(910) 및 제2 조감 좌표(920)는 상이한 좌표를 갖는다.
카메라의 외부 파라미터의 정확도가 낮을수록 제1 조감 좌표(910) 및 제2 조감 좌표(920) 간의 제1 오차(930)가 커질 수 있다. 제1 오차(930)는 거리로 계산될 수 있다. 외부 파라미터의 조정으로 외부 파라미터의 정확도가 증가한 경우, 제1 오차(930)는 감소할 수 있다.
도 10은 일 예에 따른 복수의 카메라들이 적절하게 캘리브레이션된 경우 생성된 부분 조감 이미지들을 도시한다.
좌측 이미지에 대한 제1 부분 조감 이미지(1010) 내의 특징점(1011)과 후방 이미지에 대한 제2 부분 조감 이미지(1020) 내의 특징점(1021)이 매칭되고, 제2 부분 조감 이미지(1010) 내의 특징점들(1022, 1023)과 우측 이미지에 대한 제3 부분 조감 이미지(1030) 내의 특징점들(1031, 1032)이 각각 매칭될 수 있다.
복수의 카메라들이 적절하게 캘리브레이션된 경우에는, 월드 좌표계 내에서 특징점(1011)의 좌표 및 특징점(1021)의 좌표가 대응(동일 또는 거의 동일)할 수 있다. 유사하게, 월드 좌표계 내에서 특징점들(1022, 1023)의 좌표 및 특징점들(1031, 1032)의 좌표가 대응(동일 또는 거의 동일)할 수 있다.
도 11은 일 예에 따른 복수의 카메라들이 적절하지 않게 캘리브레이션된 경우 생성된 부분 조감 이미지들을 도시한다.
좌측 이미지에 대한 제1 부분 조감 이미지(1110) 내의 특징점(1111)과 후방 이미지에 대한 제2 부분 조감 이미지(1120) 내의 특징점(1121)이 매칭되고, 제2 부분 조감 이미지(1110) 내의 특징점들(1122, 1123)과 우측 이미지에 대한 제3 부분 조감 이미지(1130) 내의 특징점들(1131, 1132)이 각각 매칭될 수 있다.
복수의 카메라들이 적절하게 캘리브레이션되지 않은 경우에는, 월드 좌표계 내에서 특징점(1111)의 좌표 및 특징점(1121)의 좌표가 대응하지 않을 수 있다. 유사하게, 월드 좌표계 내에서 특징점들(1122, 1123)의 좌표 및 특징점들(1131, 1132)의 좌표가 대응하지 않을 수 있다.
다른 예로, 특징점(1111)의 좌표 및 특징점(1121)의 좌표가 대응하는 경우에도, 특징점들(1122, 1123)의 좌표 및 특징점들(1131, 1132)의 좌표가 대응하지 않을 수 있다. 이러한 경우, 징점들(1122, 1123)의 좌표 및 특징점들(1131, 1132)의 좌표가 대응하도록 카메라의 외부 파라미터가 조정될 수 있다.
도 12는 일 예에 따른 조정된 외부 파라미터에 기초하여 조감 좌표들 간의 조정 오차를 계산하는 방법의 흐름도이다.
도 5를 참조하여 전술된 단계(560)가 수행된 후, 전술된 단계(550)가 다시 수행될 수 있다. 즉, 단계들(550, 560)이 반복적으로 수행됨으로써 복수의 카메라들이 캘리브레이션될 수 있다.
단계(550)는 아래의 단계(1210)를 더 포함할 수 있다. 단계(1210)에서, 전자 장치(400)는 조정된 카메라의 외부 파라미터에 기초하여 제1 특징점에 대한 제1 조정 조감 좌표 및 제2 특징점에 대한 제2 조정 조감 좌표를 계산한다.
단계(560)는 아래의 단계(1220)를 더 포함할 수 있다. 단계(1220)에서, 전자 장치(400)는 제1 조정 조감 좌표 및 제2 조정 조감 좌표 간의 제1 조정 오차를 계산한다.
단계(1220)는 도 8을 참조하여 전술된 단계(810)에 대응할 수 있고, 단계(1220)가 수행된 후 단계들(820, 830)이 수행될 수 있다.
도 13은 일 예에 따른 오차가 최소화되도록 카메라의 외부 파라미터를 조정하는 방법의 흐름도이다.
일 측면에 따르면, 도 8을 참조하여 전술된 단계(830)는 아래의 단계들(1310, 1320)을 포함할 수 있다.
단계(1310)에서, 전자 장치(400)는 전방 카메라 및 후방 카메라의 외부 파리미터를 조정한다.
단계(1320)에서, 전자 장치(400)는 좌측 카메라 및 우측 카메라의 외부 파리미터를 조정한다.
도 5 내지 도 13을 참조하여 전술된 실시예는, 조감 이미지가 아닌 이미지들(예를 들어, 어안 이미지)로부터 특징점들을 추출 및 매칭하고, 매칭된 특징점들을 조감 시점으로 변환하는 방법에 관한 것이다.
상기의 실시예와는 다른 실시예로서, 조감 이미지가 아닌 이미지(예를 들어, 어안 이미지)의 일부를 조감 이미지로 변환하고, 부분 조감 이미지들로부터 특징점들을 추출하고, 추출된 특징점들을 매칭하는 방법에 대해, 아래에서 도 14 내지 도 18을 참조하여 추가적으로 설명된다.
도 14는 다른 일 실시예에 따른 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
아래의 단계들(1410 내지 1460)은 도 4를 참조하여 전술된 전자 장치(400)에 의해 수행된다.
단계(1410)에서, 전자 장치(400)는 차량의 주변을 촬영한 복수의 이미지들을 획득한다. 예를 들어, 획득된 이미지는 어안 렌즈를 이용하여 촬영된 이미지일 수 있다.
간결하고 명확한 설명을 위해, 단계(1410)에 관한 상세한 설명은 도 5를 참조하여 전술된 단계(510)에 대한 설명으로 대체될 수 있다.
단계(1420)에서, 전자 장치(400)는 조감 시점에 대해 미리 설정된 관심 영역(ROI)에 기초하여 복수의 이미지들 각각의 부분 영역을 결정한다. 예를 들어, 생성될 전체 조감 이미지 중 전방 좌측에 해당하는 영역이 제1 ROI로 미리 설정되어 있을 수 있고, 제1 ROI에 대응하는 전방 이미지의 영역이 부분 영역으로 결정된다. 다른 예로, 생성될 전체 조감 이미지 중 전방 좌측에 해당하는 영역이 제2 ROI로 미리 설정되어 있을 수 있고, 제2 ROI에 대응하는 좌측 이미지의 영역이 부분 영역으로 결정된다. 제1 ROI와 제2 ROI 및 이들에 대응하는 부분 영역들에 대해 아래에서 도 15 및 16를 참조하여 상세히 설명된다.
단계(1430)에서, 전자 장치(400)는 이미지의 부분 영역들을 조감 시점으로 변환함으로써 복수의 부분 조감 이미지들을 생성한다. 단계(1420)에서 결정된 이미지의 부분 영역은 여전히 어안 렌즈를 이용하여 촬영된 이미지이므로, 이미지의 내의 형상이 왜곡되어 있다. 부분 영역을 조감 시점으로 변환함으로써 이미지 내의 형상이 복원될 수 있다. 부분 조감 이미지에 대해 아래에서 도 17을 참조하여 상세히 설명된다.
단계(1440)에서, 전자 장치(400)는 제1 부분 조감 이미지의 제1 특징점 및 제2 부분 조감 이미지의 제2 특징점을 검출한다. 예를 들어, 차로에 위치한 패턴 상의 특징점이 검출될 수 있다. 특징점을 검출하기 위해, SIFT 알고리즘, SURF 알고리즘, Haar 알고리즘, Ferns 알고리즘, ORB 알고리즘 등이 이용될 수 있으나, 기재된 실시예로 한정되지 않는다.
단계(1450)에서, 전자 장치(400)는 제1 특징점 및 제2 특징점을 매칭한다. 예를 들어, 전방에 대한 제1 부분 조감 이미지의 제1 특징점 및 좌측에 대한 제2 부분 조감 이미지의 제2 특징점이 매칭될 수 있다. 다른 예로, 좌측에 대한 제1 부분 조감 이미지의 제1 특징점 및 후방에 대한 제2 부분 조감 이미지의 제2 특징점이 매칭될 수 있다. 어안 렌즈를 이용하여 촬영된 이미지가 조감 이미지로 변환됨으로써, 동일한 특징에 대한 ROI들내의 특징점들 간의 매칭의 정확도가 높아질 수 있다.
단계(1460)에서, 전자 장치(400)는 제1 특징점의 제1 조감 좌표 및 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 복수의 카메라들을 캘리브레이션한다.
간결하고 명확한 설명을 위해, 단계(1460)에 관한 상세한 설명은 도 5를 참조하여 전술된 단계(560)에 대한 설명으로 대체될 수 있다.
일 측면에 따르면, 단계(560)가 수행되기 위한 조건으로, 단계(550)가 수행된 후, 매칭된 특징점의 개수가 미리 설정된 개수 이상인지 여부가 결정될 수 있다. 예를 들어, 제1 부분 조감 이미지 및 제2 부분 조감 이미지에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우, 카메라 캘리브레이션이 수행될 수 있다. 매칭된 특징점의 개수가 많을수록 외부 파라미터의 정확한 추정이 가능하다.
그러나, 제1 부분 조감 이미지 및 제2 부분 조감 이미지에 대해 매칭된 특징점의 개수가 미리 설정된 개수 미만인 경우, 외부 파라미터의 조정의 정확도를 확신할 수 없으므로, 현재의 복수의 이미지들(현재 프레임)에 대해서는 외부 파라미터가 조정되지 않는다.
복수의 카메라들을 캘리브레이션하는 방법에 대해, 아래에서 도 18을 참조하여 상세히 설명된다.
도 15 및 16은 일 예에 따른 조감 이미지에 대해 미리 설정된 관심 영역에 기초하여 결정된 이미지의 부분 영역을 도시한다.
도 15의 우측에 도시된 그림은 전체 조감 이미지 중 전방 영역(1510)이고, 전방 영역(1510) 중 일부가 ROI(1511)로 미리 설정된다.
도 15의 좌측에 도시된 그림은 복수의 이미지들 중 전방 이미지(1520)이고, 전방 이미지(1520)는 어안 렌즈를 이용하여 촬영된 이미지이다. 전방 이미지(1520) 중 ROI(1511)에 대응하는 부분 영역(1521)이 결정된다. 예를 들어, ROI(1511)에 대응하는 부분 영역(1521)은 전방 카메라의 외부 파라미터에 기초하여 결정될 수 있다. 전방 카메라의 외부 파라미터가 조정되는 경우, ROI(1511)에 대응하는 부분 영역(1521)이 변경될 수 있다.
도 15와 유사하게, 도 16의 우측에 도시된 그림은 전체 조감 이미지 중 좌측 영역(1610)이고, 좌측 영역(1610) 중 일부가 ROI(1611)로 미리 설정된다.
도 16의 좌측에 도시된 그림은 복수의 이미지들 중 좌측 이미지(1620)이고, 전방 이미지(1620)는 어안 렌즈를 이용하여 촬영된 이미지이다. 좌측 이미지(1620) 중 ROI(1611)에 대응하는 부분 영역(1621)이 결정된다. 예를 들어, ROI(1611)에 대응하는 부분 영역(1621)은 좌측 카메라의 외부 파라미터에 기초하여 결정될 수 있다. 좌측 카메라의 외부 파라미터가 조정되는 경우, ROI(1611)에 대응하는 부분 영역(1621)이 변경될 수 있다.
ROI(1511) 및 ROI(1611) 간의 관계에서, ROI(1511)는 제1 ROI로 명명되고, 제2 ROI로 명명될 수 있다.
도 17은 일 예에 따른 부분 조감 이미지들의 특징점을 추출하고, 매칭하는 방법을 도시한다.
도 15의 부분 영역(1521) 및 도 16의 부분 영역(1621)이 각각 제1 부분 조감 이미지(1710) 및 제2 부분 조감 이미지(1720)으로 변환된다. 제1 부분 조감 이미지(1710) 및 제2 부분 조감 이미지(1720)은 조감 시점의 이미지들이이다.
예를 들어, 제1 부분 조감 이미지(1710)의 적어도 하나의 특징점(1711, 1712)이 추출되고, 제2 부분 조감 이미지(1720)의 적어도 하나의 특징점(1721, 1722)이 추출될 수 있다. 특징점(1711) 및 특징점(1721)이 매칭되고, 특징점(1712) 및 특징점(1722)이 매칭될 수 있다.
도 18은 일 예에 따른 제1 조감 좌표 및 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 복수의 카메라들을 캘리브레이션하는 방법의 흐름도이다.
일 측면에 따른, 도 14를 참조하여 전술된 단계(1460)는 아래의 단계들(1810 내지 1830)을 포함할 수 있다.
단계(1810)에서, 전자 장치(400)는 제1 조감 좌표 및 제2 조감 좌표 간의 제1 오차를 계산한다. 카메라의 외부 파라미터가 정확하게 설정 또는 조정된 경우에는 제1 조감 좌표 및 제2 조감 좌표가 동일하게 나타나므로 제1 오차는 0 또는 거의 0일 수 있다.
제1 조감 좌표 및 제2 조감 좌표는 매칭된 한 쌍의 특징점들에 관한 것이고, 매칭된 특징점들의 쌍이 복수인 경우, 복수의 쌍들의 각각에 대해 오차가 계산될 수 있다.
단계(1820)에서, 전자 장치(400)는 제1 오차가 미리 설정된 임계치 이상인지 여부를 결정한다. 제1 오차가 임계치 미만인 경우 복수의 카메라들의 캘리브레이션이 종료될 수 있다. 다만, 어느 하나의 오차가 상기의 조건을 만족하더라도, 다른 오차가 상기의 조건을 만족하지 못하는 경우에는 캘리브레이션이 계속 수행될 수 있다.
단계(1830)에서, 전자 장치(400)는 제1 오차가 임계치 이상인 경우, 제1 오차가 최소화되도록 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정한다. 예를 들어, 카메라의 회전 정보 및 위치 정보 중 적어도 하나가 조정될 수 있다.
일 측면에 따르면, 복수의 오차들에 기초하여 복수의 오차들이 발생한 원인이 결정될 수 있고(예를 들어, 좌측 카메라의 회전 정보의 부정확), 상기의 원인이 해소되도록 카메라의 회전 정보 및 위치 정보 중 적어도 하나가 조정(예를 들어, 좌측 카메라의 회전 정보 수정)될 수 있다. 상기의 원인을 결정하기 위해 다양한 방법이 이용될 수 있고, 어느 하나로 한정되는 것은 아니다.
예를 들어, 복수의 카메라들의 캘리브레이션을 위해 Levenberg Marquardt 알고리즘, Gradient Descent 알고리즘이 이용될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
400: 전자 장치
410: 통신부
420: 프로세서
430: 메모리
440: 카메라

Claims (24)

  1. 차량에 탑재된 프로세서에 의해 수행되는, 카메라 캘리브레이션 방법은,
    상기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계;
    상기 복수의 이미지들 각각에 관심 영역(Region of Interest: ROI)을 설정하는 단계 - 복수의 이미지들 중 제1 이미지의 제1 ROI 및 제2 이미지의 제2 ROI는 공통 영역을 포함함 -;
    상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계;
    검출된 특징점들에 기초하여 상기 제1 ROI의 제1 특징점 및 상기 제2 ROI의 제2 특징점을 매칭하는 단계;
    상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계; 및
    상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  2. 제1항에 있어서,
    상기 복수의 카메라들은 상기 차량의 좌측을 촬영하는 좌측 카메라, 상기 차량의 우측을 촬영하는 우측 카메라, 상기 차량의 전방을 촬영하는 전방 카메라, 및 상기 차량의 후방을 촬영하는 후방 카메라 중 적어도 두 개를 포함하는,
    카메라 캘리브레이션 방법.
  3. 제1항에 있어서,
    상기 카메라의 외부 파라미터는, 상기 카메라의 회전 정보 및 위치 정보를 포함하는,
    카메라 캘리브레이션 방법.
  4. 제1항에 있어서,
    상기 특징점은 상기 차량이 주행하는 차로 상의 오브젝트에 관한 것인,
    카메라 캘리브레이션 방법.
  5. 제1항에 있어서,
    상기 복수의 이미지들 각각에 ROI을 설정하는 단계는,
    상기 제1 이미지가 전방 이미지이고, 상기 제2 이미지가 좌측 이미지인 경우, 상기 제1 ROI가 상기 전방 이미지의 최-좌측을 포함하고, 상기 제2 ROI가 상기 좌측 이미지의 최-우측을 포함하도록 상기 복수의 이미지들 각각에 ROI을 설정하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  6. 제1항에 있어서,
    상기 설정된 관심 영역을 크롭(crop)함으로써 부분 이미지를 생성하는 단계
    를 더 포함하고,
    상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계는,
    상기 생성된 부분 이미지에 기초하여 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  7. 제1항에 있어서,
    상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는,
    상기 제1 ROI 및 상기 제2 ROI에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우, 상기 제1 조감 좌표 및 상기 제2 조감 좌표를 계산하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  8. 제1항에 있어서,
    상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 제1 오차를 계산하는 단계; 및
    상기 제1 오차가 최소화되도록 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  9. 제8항에 있어서,
    상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는,
    상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터가 조정된 경우 상기 조정된 외부 파라미터에 기초하여 상기 제1 특징점에 대한 제1 조정 조감 좌표 및 상기 제2 특징점에 대한 제2 조정 조감 좌표를 계산하는 단계
    를 포함하고,
    상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 조정 조감 좌표 및 상기 제2 조정 조감 좌표 간의 제1 조정 오차를 계산하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  10. 제8항에 있어서,
    상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 오차가 미리 설정된 임계치 미만인 경우 상기 복수의 카메라들의 캘리브레이션을 종료하는 단계
    를 더 포함하는,
    카메라 캘리브레이션 방법.
  11. 제1항 내지 제10항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  12. 복수의 카메라들을 캘리브레이션하는 차량에 탑재된 전자 장치는,
    복수의 카메라들을 캘리브레이션하는 프로그램이 기록된 메모리; 및
    상기 프로그램을 수행하는 프로세서
    를 포함하고,
    상기 프로그램은,
    상기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계;
    상기 복수의 이미지들 각각에 관심 영역(Region of Interest: ROI)을 설정하는 단계 - 복수의 이미지들 중 제1 이미지의 제1 ROI 및 제2 이미지의 제2 ROI는 공통 영역을 포함함 -;
    상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계;
    검출된 특징점들에 기초하여 상기 제1 ROI의 제1 특징점 및 상기 제2 ROI의 제2 특징점을 매칭하는 단계;
    상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계; 및
    상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계
    를 수행하는,
    전자 장치.
  13. 제12항에 있어서,
    상기 특징점은 상기 차량이 주행하는 차로 상의 오브젝트에 관한 것인,
    전자 장치.
  14. 제12항에 있어서,
    상기 프로그램은,
    상기 설정된 관심 영역을 크롭(crop)함으로써 부분 이미지를 생성하는 단계
    를 더 수행하고,
    상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계는,
    상기 생성된 부분 이미지에 기초하여 상기 관심 영역들의 적어도 하나의 특징점을 검출하는 단계
    를 포함하는,
    전자 장치.
  15. 제12항에 있어서,
    상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는,
    상기 제1 ROI 및 상기 제2 ROI에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우,
    상기 제1 조감 좌표 및 상기 제2 조감 좌표를 계산하는 단계
    를 포함하는,
    전자 장치.
  16. 제12항에 있어서,
    상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 제1 오차를 계산하는 단계; 및
    상기 제1 오차가 최소화되도록 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정하는 단계
    를 포함하는,
    전자 장치.
  17. 제16항에 있어서,
    상기 제1 특징점에 대한 제1 조감 좌표 및 상기 제2 특징점에 대한 제2 조감 좌표를 계산하는 단계는,
    상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터가 조정된 경우 상기 조정된 외부 파라미터에 기초하여 상기 제1 특징점에 대한 제1 조정 조감 좌표 및 상기 제2 특징점에 대한 제2 조정 조감 좌표를 계산하는 단계
    를 포함하고,
    상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 조정 조감 좌표 및 상기 제2 조정 조감 좌표 간의 제1 조정 오차를 계산하는 단계
    를 포함하는,
    전자 장치.
  18. 제16항에 있어서,
    상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 오차가 미리 설정된 임계치 미만인 경우 상기 복수의 카메라들의 캘리브레이션을 종료하는 단계
    를 더 포함하는,
    전자 장치.
  19. 차량에 탑재된 프로세서에 의해 수행되는, 카메라 캘리브레이션 방법은,
    상기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계;
    조감 시점에 대해 미리 설정된 관심 영역(Region of Interest: ROI)에 기초하여 복수의 이미지들 각각의 부분 영역을 결정하는 단계;
    상기 부분 영역들을 조감 시점으로 변환함으로써 복수의 부분 조감 이미지들을 생성하는 단계 - 복수의 부분 조감 이미지들의 제1 부분 조감 이미지는 제1 ROI에 대응하고, 제2 부분 조감 이미지는 제2 ROI에 대응하며, 상기 제1 ROI 및 상기 제2 ROI 는 공통 영역을 포함함 -;
    상기 제1 부분 조감 이미지의 제1 특징점 및 상기 제2 부분 조감 이미지의 제2 특징점을 검출하는 단계;
    상기 제1 특징점 및 상기 제2 특징점을 매칭하는 단계; 및
    상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  20. 제19항에 있어서,
    상기 복수의 카메라들은 상기 차량의 좌측을 촬영하는 좌측 카메라, 상기 차량의 우측을 촬영하는 우측 카메라, 상기 차량의 전방을 촬영하는 전방 카메라, 및 상기 차량의 후방을 촬영하는 후방 카메라 중 적어도 두 개를 포함하는,
    카메라 캘리브레이션 방법.
  21. 제19항에 있어서,
    상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 부분 조감 이미지 및 상기 제2 부분 조감 이미지에 대해 매칭된 특징점의 개수가 미리 설정된 개수 이상인 경우, 복수의 카메라들을 캘리브레이션하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  22. 제19항에 있어서,
    상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계는,
    상기 제1 조감 좌표 및 상기 제2 조감 좌표 간의 제1 오차를 계산하는 단계; 및
    상기 제1 오차가 최소화되도록 상기 복수의 카메라들 중 적어도 하나의 카메라의 외부 파라미터를 조정하는 단계
    를 포함하는,
    카메라 캘리브레이션 방법.
  23. 제19항 내지 제22항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  24. 복수의 카메라들을 캘리브레이션하는 차량에 탑재된 전자 장치는,
    복수의 카메라들을 캘리브레이션하는 프로그램이 기록된 메모리; 및
    상기 프로그램을 수행하는 프로세서
    를 포함하고,
    상기 프로그램은,
    상기 차량의 복수의 카메라들이 상기 차량의 주변을 촬영한 복수의 이미지들을 획득하는 단계;
    조감 시점에 대해 미리 설정된 관심 영역(Region of Interest: ROI)에 기초하여 복수의 이미지들 각각의 부분 영역을 결정하는 단계;
    상기 부분 영역들을 조감 시점으로 변환함으로써 복수의 부분 조감 이미지들을 생성하는 단계 - 복수의 부분 조감 이미지들의 제1 부분 조감 이미지는 제1 ROI에 대응하고, 제2 부분 조감 이미지는 제2 ROI에 대응하며, 상기 제1 ROI 및 상기 제2 ROI 는 공통 영역을 포함함 -;
    상기 제1 부분 조감 이미지의 제1 특징점 및 상기 제2 부분 조감 이미지의 제2 특징점을 검출하는 단계;
    상기 제1 특징점 및 상기 제2 특징점을 매칭하는 단계; 및
    상기 제1 특징점의 제1 조감 좌표 및 상기 제2 특징점의 제2 조감 좌표 간의 오차에 기초하여 복수의 카메라들 각각의 외부 파라미터를 조정함으로써 상기 복수의 카메라들을 캘리브레이션하는 단계
    를 수행하는,
    전자 장치.
KR1020190078562A 2019-07-01 2019-07-01 복수의 카메라들을 캘리브레이션하는 방법 및 장치 KR102297683B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190078562A KR102297683B1 (ko) 2019-07-01 2019-07-01 복수의 카메라들을 캘리브레이션하는 방법 및 장치
DE102020207483.6A DE102020207483A1 (de) 2019-07-01 2020-06-17 Verfahren und vorrichtung zum kalibrieren einer mehrzahl von kameras
US16/908,744 US11198393B2 (en) 2019-07-01 2020-06-23 Method and apparatus for calibrating a plurality of cameras
CN202010599086.XA CN112184827B (zh) 2019-07-01 2020-06-28 校准多个摄像机的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190078562A KR102297683B1 (ko) 2019-07-01 2019-07-01 복수의 카메라들을 캘리브레이션하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20210003325A true KR20210003325A (ko) 2021-01-12
KR102297683B1 KR102297683B1 (ko) 2021-09-07

Family

ID=73918799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190078562A KR102297683B1 (ko) 2019-07-01 2019-07-01 복수의 카메라들을 캘리브레이션하는 방법 및 장치

Country Status (3)

Country Link
US (1) US11198393B2 (ko)
KR (1) KR102297683B1 (ko)
DE (1) DE102020207483A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113628283B (zh) * 2021-08-10 2024-05-17 地平线征程(杭州)人工智能科技有限公司 摄像装置的参数标定方法、装置、介质以及电子设备
CN114494464A (zh) * 2021-12-15 2022-05-13 深圳市华汉伟业科技有限公司 一种线扫相机的标定方法
WO2023219349A1 (en) * 2022-05-12 2023-11-16 Samsung Electronics Co., Ltd. Multi-camera device and methods for removing shadows from images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187564A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
WO2015029934A1 (ja) * 2013-08-30 2015-03-05 クラリオン株式会社 カメラ校正装置、カメラ校正システム、及びカメラ校正方法
JP2017032483A (ja) * 2015-08-05 2017-02-09 株式会社デンソー キャリブレーション装置、キャリブレーション方法、及びプログラム
KR20170026743A (ko) * 2015-08-27 2017-03-09 ㈜베이다스 차량용 영상 정합을 위한 간소화 패턴 기반의 자동보정장치 및 그 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
CA2712673A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
WO2012145822A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
WO2013086249A2 (en) * 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
US9563951B2 (en) * 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US9986173B2 (en) * 2014-05-16 2018-05-29 GM Global Technology Operations LLC Surround-view camera system (VPM) online calibration
DE102014117888A1 (de) * 2014-12-04 2016-10-13 Connaught Electronics Ltd. Online-Kalibrierung eines Kraftfahrzeug-Kamerasystems
JPWO2016204068A1 (ja) * 2015-06-19 2018-04-26 ソニー株式会社 画像処理装置および画像処理方法、ならびにプロジェクションシステム
KR101645722B1 (ko) * 2015-08-19 2016-08-05 아이디어주식회사 자동추적 기능을 갖는 무인항공기 및 그 제어방법
US9916703B2 (en) * 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
WO2018046617A1 (en) * 2016-09-07 2018-03-15 Starship Technologies Oü Method and system for calibrating multiple cameras
US10165256B2 (en) * 2016-09-14 2018-12-25 Amazon Technologies, Inc. Aerial vehicle optical sensor configuration
US10297034B2 (en) * 2016-09-30 2019-05-21 Qualcomm Incorporated Systems and methods for fusing images
JP6513305B2 (ja) * 2016-11-10 2019-05-15 三菱電機株式会社 映像合成装置及び映像合成方法
KR102441053B1 (ko) * 2016-11-21 2022-09-06 현대자동차주식회사 차량의 주행차로 추정 장치 및 방법
US20190096057A1 (en) * 2017-05-11 2019-03-28 Jacob Nathaniel Allen Object inspection system and method for inspecting an object
US20200218279A1 (en) * 2017-08-30 2020-07-09 Qualcomm Incorporated Robust Navigation of a Robotic Vehicle
GB2566524B (en) * 2017-09-18 2021-12-15 Jaguar Land Rover Ltd Image processing method and apparatus
US10558868B2 (en) * 2017-12-18 2020-02-11 GM Global Technology Operations LLC Method and apparatus for evaluating a vehicle travel surface
DE102018203807A1 (de) * 2018-03-13 2019-09-19 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
WO2019176930A1 (ja) * 2018-03-15 2019-09-19 株式会社 村上開明堂 合成映像作成装置および合成映像作成方法並びに合成映像作成プログラム
MX2020013312A (es) * 2018-06-07 2021-06-08 Deka Products Lp Sistema y método para la ejecución de servicios públicos distribuidos.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187564A (ja) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd カメラ校正装置及び方法並びに車両
WO2015029934A1 (ja) * 2013-08-30 2015-03-05 クラリオン株式会社 カメラ校正装置、カメラ校正システム、及びカメラ校正方法
JP2017032483A (ja) * 2015-08-05 2017-02-09 株式会社デンソー キャリブレーション装置、キャリブレーション方法、及びプログラム
KR20170026743A (ko) * 2015-08-27 2017-03-09 ㈜베이다스 차량용 영상 정합을 위한 간소화 패턴 기반의 자동보정장치 및 그 방법

Also Published As

Publication number Publication date
KR102297683B1 (ko) 2021-09-07
US11198393B2 (en) 2021-12-14
CN112184827A (zh) 2021-01-05
DE102020207483A1 (de) 2021-01-07
US20210001776A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
CN109086650B (zh) 校准方法和校准设备
CN109902637B (zh) 车道线检测方法、装置、计算机设备和存储介质
US10079975B2 (en) Image distortion correction of a camera with a rolling shutter
US9986173B2 (en) Surround-view camera system (VPM) online calibration
KR102297683B1 (ko) 복수의 카메라들을 캘리브레이션하는 방법 및 장치
US20180292201A1 (en) Calibration apparatus, calibration method, and calibration program
CN108692719B (zh) 物体检测装置
LU502288B1 (en) Method and system for detecting position relation between vehicle and lane line, and storage medium
CN110176038A (zh) 校准车辆的摄像头的方法和系统
KR100663836B1 (ko) 항공사진 촬영용 카메라의 중심 초점 매칭을 위한 모터의제어 시스템
WO2019073772A1 (ja) 移動体の位置推定装置及び位置推定方法
CN114550042A (zh) 一种道路消失点提取方法、车载传感器标定方法及装置
KR101697229B1 (ko) 차량용 영상 정합을 위한 차선 정보 기반의 자동보정장치 및 그 방법
CN116358486A (zh) 基于单目相机的目标测距方法、装置及介质
CN114777768A (zh) 一种卫星拒止环境高精度定位方法、系统及电子设备
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
KR102277828B1 (ko) 복수의 카메라들을 캘리브레이션하는 방법 및 장치
JP7137464B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
JP2018136739A (ja) キャリブレーション装置
US11403770B2 (en) Road surface area detection device
JP7019431B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
CN112184827B (zh) 校准多个摄像机的方法及装置
CN112399172B (zh) 校准多个摄像机的方法及装置
JP6890293B2 (ja) カメラ校正装置、カメラ校正システム、カメラ校正方法及びプログラム
KR102274026B1 (ko) 차량용 카메라 캘리브레이션 장치 및 그 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant