KR102119388B1 - AVM system and camera calibration method - Google Patents
AVM system and camera calibration method Download PDFInfo
- Publication number
- KR102119388B1 KR102119388B1 KR1020180108989A KR20180108989A KR102119388B1 KR 102119388 B1 KR102119388 B1 KR 102119388B1 KR 1020180108989 A KR1020180108989 A KR 1020180108989A KR 20180108989 A KR20180108989 A KR 20180108989A KR 102119388 B1 KR102119388 B1 KR 102119388B1
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- camera
- circular pattern
- camera image
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000011159 matrix material Substances 0.000 claims abstract description 89
- 238000012937 correction Methods 0.000 claims abstract description 33
- 230000002194 synthesizing effect Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000009434 installation Methods 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 claims 16
- 230000002596 correlated effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 13
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H04N5/247—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
AVM 시스템 및 카메라 공차 보정 방법이 개시된다. 차량에 설치된 AVM 시스템은, 상기 차량의 전방, 우측, 좌측 및 후방에 각각 설치되는 복수의 카메라를 포함하고, 지면에 배치된 복수의 원형 패턴 사이를 통과하도록 상기 차량이 이동하는 동안 주변을 촬영하여 카메라 영상 데이터들을 생성하는 영상 생성부; 및 상기 차량이 이동하는 동안 생성된 카메라 영상 데이터들 각각에서 원형 패턴을 검출하여 검출된 원형 패턴의 외곽선을 추출하고, 추출된 외곽선과 지면에 배치된 원형 패턴 사이의 상관 관계를 이용하여 카메라 각각에 상응하는 카메라 영상 데이터와 탑뷰 영상간의 호모그라피 행렬을 산출하는 공차 보정부를 포함한다.An AVM system and camera tolerance correction method are disclosed. The AVM system installed in the vehicle includes a plurality of cameras respectively installed at the front, right, left, and rear of the vehicle, and photographs surroundings while the vehicle is moving so as to pass between a plurality of circular patterns disposed on the ground. An image generator that generates camera image data; And extracting the outline of the detected circular pattern by detecting a circular pattern from each of the camera image data generated while the vehicle is moving, and using the correlation between the extracted outline and the circular pattern disposed on the ground to each of the cameras. And a tolerance correction unit calculating a homography matrix between the corresponding camera image data and the top view image.
Description
본 발명은 AVM 시스템 및 카메라 공차 보정 방법에 관한 것이다. The present invention relates to an AVM system and a camera tolerance correction method.
일반적으로, 차량 내부에 탑승한 운전자의 시계는 주로 전방을 향하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의해 상당부분 가려지기 때문에 매우 한정된 시계를 가진다. In general, the driver's watch on the inside of the vehicle mainly faces forward, and the driver's left and right and rear watches have a very limited watch because they are largely obscured by the vehicle body.
이러한 문제를 해결하기 위하여, 사이드 미러 등의 시계 보조수단이 사용되고 있으며, 최근에는 차량의 외부를 촬영하여 운전자에게 제공하는 카메라 수단을 이용한 기술들도 차량에 다양하게 적용되고 있는 추세이다.In order to solve this problem, a clock assisting means such as a side mirror is used, and recently, technologies using camera means for photographing the exterior of the vehicle and providing it to the driver are also being applied to the vehicle in various ways.
일 예로, 차량에 복수의 카메라를 장착하여 차량 주변의 360ㅀ전방향의 영상을 보여주는 어라운드 뷰 모니터링(Around View Monitoring, AVM) 시스템이 있다. AVM 시스템은 차량 각 위치에 구비된 카메라들에 의해 촬영된 차량 주변의 영상을 조합하여, 운전자가 하늘에서 차량을 바라보는 듯한 탑뷰(Top View) 이미지 형식의 AVM 영상을 제공함으로써, 사각지대를 해소하고 운전자가 차량 주변 장애물을 쉽게 확인할 수 있는 장점이 있다.For example, there is an Around View Monitoring (AVM) system that shows a 360-degree omnidirectional image around a vehicle by mounting a plurality of cameras on the vehicle. The AVM system eliminates blind spots by combining the images around the vehicle captured by the cameras provided at each location of the vehicle, and providing AVM images in the form of a Top View image that looks like the driver is looking at the vehicle from the sky. And it has the advantage that the driver can easily see the obstacles around the vehicle.
차량에 구비되는 AVM 시스템은 차량의 전면, 후면, 우측면 및 좌측면에 각각 구비되는 복수의 카메라를 포함하고, 개별 카메라에서 촬영된 영상들간의 부정합을 제거하기 위해 공차 보정이 실시된다. The AVM system provided in the vehicle includes a plurality of cameras respectively provided on the front, rear, right, and left sides of the vehicle, and tolerance correction is performed to eliminate mismatches between images captured by the individual cameras.
도 1에는 종래기술에 따른 공차 보정 방법이 예시되어 있다. 도 1에 예시된 바와 같이, 전면, 우측면, 좌측면 및 후면의 위치 각각에 카메라(20-1, 20-2, 20-3, 20-4, 이하 구별이 불필요한 경우 20으로 통칭함)가 장착된 차량(10)은 공차 보정을 위해 복수의 보정판(50)이 설치된 공간의 미리 지정된 위치에 정지된다. 1 illustrates a method for correcting tolerances according to the prior art. As illustrated in FIG. 1, a camera (20-1, 20-2, 20-3, 20-4, hereinafter collectively referred to as 20 when distinction is unnecessary) is mounted on each of the front, right, left, and rear positions. The
각 보정판(50)은 차량(10)의 전방 좌측 모서리, 전방 우측 모서리, 후방 좌측 모서리 및 후방 우측 모서리에 차량의 각 바퀴 축 선상에서 일정 거리 이격되어 위치된다. Each of the
보정판(50)은 특징점의 추출 오류를 방지하기 위해 격자 모양의 무늬로 이루어지며, 격자 모양의 무늬는 색상 대비가 강한 색들의 조합으로 이루어지고 있다.The
공차 보정을 위해 각 카메라(20)에서 생성된 촬영 영상에서 보정판(50) 내 다각형 패턴의 특징점들에 대한 좌표 정보가 추출되고, 해당 좌표 정보는 각 특징점에 대응되는 표준 좌표 정보와 비교되어 변환 행렬이 산출된다. For tolerance correction, coordinate information for feature points of the polygon pattern in the
이때, 다각형 패턴에 대해서 임의로 세계 좌표를 부여해야 하는데, 세계 좌표를 부여하기 위해서는 특징점 사이의 거리나 특징점들의 위치관계 등 다각형 패턴이 세계 좌표에서 위치하는 상대적인 정보를 모두 알고 있어야 하는 제약이 있었다. 이러한 제약은 탑뷰 영상 생성을 위해서 다각형 패턴을 정해진 규격에 맞춰 설치해야 하고 패턴 정보를 입력하거나 파악하는데 많은 수고가 들어가는 불편함도 있었다.At this time, the world pattern should be arbitrarily assigned to the polygonal pattern. In order to provide the world coordinates, there is a limitation in that all the relative information of the polygonal pattern located in the world coordinates, such as the distance between the feature points or the positional relationship between the feature points, has been limited. In order to generate the top-view image, these limitations require that polygonal patterns be installed according to a set standard, and there is also inconvenience in entering or grasping pattern information.
본 발명은 다각형 패턴이 아닌 원형 패턴을 이용하여 패턴의 세계 좌표를 입력하지 않으면서도 패턴이 영상이 나타나는 조건을 만족하면 탑뷰 영상의 생성이 가능하고, 탑뷰 생성을 위해 계산한 호모그라피 행렬(Homography Matrix)을 이용하여 카메라의 외부 파라미터를 정확하게 추정할 수 있는 AVM 시스템 및 카메라 공차 보정 방법을 제공하기 위한 것이다. In the present invention, a top view image can be generated when a pattern satisfies a condition in which an image appears without inputting the world coordinates of the pattern using a circular pattern rather than a polygonal pattern, and a homography matrix calculated for top view generation ) To provide an AVM system that can accurately estimate the external parameters of the camera and a camera tolerance correction method.
본 발명은 차량이 패턴 사이를 지나도록 이동하는 것만으로 공차 보정이 가능하여 패턴 설치에 걸리는 시간을 단축할 수 있고, 카메라와 패턴의 상대적 및 절대적 위치를 모르더라도 복수의 카메라의 영상 합성이 가능한 AVM 시스템 및 카메라 공차 보정 방법을 제공하기 위한 것이다. In the present invention, it is possible to shorten the time required to install the pattern by correcting the tolerance by simply moving the vehicle to pass between the patterns, and AVM capable of synthesizing images of multiple cameras even if the relative and absolute positions of the camera and the pattern are not known. It is intended to provide a method for correcting a system and camera tolerance.
본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Objects other than the present invention will be easily understood through the following description.
본 발명의 일 측면에 따르면, 차량에 설치된 AVM 시스템에 있어서, 상기 차량의 전방, 우측, 좌측 및 후방에 각각 설치되는 복수의 카메라를 포함하고, 지면에 배치된 복수의 원형 패턴 사이를 통과하도록 상기 차량이 이동하는 동안 주변을 촬영하여 카메라 영상 데이터들을 생성하는 영상 생성부; 및 상기 차량이 이동하는 동안 생성된 카메라 영상 데이터들 각각에서 원형 패턴을 검출하여 검출된 원형 패턴의 외곽선을 추출하고, 추출된 외곽선과 지면에 배치된 원형 패턴 사이의 상관 관계를 이용하여 카메라 각각에 상응하는 카메라 영상 데이터와 탑뷰 영상간의 호모그라피 행렬을 산출하는 공차 보정부를 포함하는 AVM 시스템이 제공된다.According to an aspect of the present invention, in an AVM system installed in a vehicle, the vehicle includes a plurality of cameras respectively installed in front, right, left, and rear of the vehicle, and passes through a plurality of circular patterns disposed on the ground. An image generator that photographs surroundings while the vehicle is moving to generate camera image data; And extracting the outline of the detected circular pattern by detecting a circular pattern from each of the camera image data generated while the vehicle is moving, and using the correlation between the extracted outline and the circular pattern disposed on the ground to each of the cameras. An AVM system including a tolerance correction unit for calculating a homography matrix between corresponding camera image data and a top view image is provided.
상기 공차 보정부는 미리 지정된 유효성 조건을 만족하는 카메라 영상 데이터들만을 이용하여 각 카메라에 대한 호모그라피 행렬이 산출되도록 하기 위해, 현재 산출된 호모그라피 행렬이 적용된 탑뷰 영상에서의 원형 패턴의 해석 면적과 지면에 배치된 원형 패턴의 실제 면적의 관계를 이용하도록 미리 규정된 에러값 산출 기법으로 각 카메라 영상 데이터에 대한 에러값을 산출하는 단계 (a); 및 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 있으면, 해당 카메라 영상 데이터가 제외하여 호모그라피 행렬을 다시 산출하고 상기 현재 산출된 호모그라피 행렬이 대체되도록 하는 단계 (b)를 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않을 때까지 반복하고, 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않으면, 해당 시점의 현재 산출된 호모그라피 행렬을 상응하는 카메라에 대한 호모그라피 행렬로 결정하도록 구현될 수 있다.The tolerance correction unit analyzes the area and ground of the circular pattern in the top view image to which the currently calculated homography matrix is applied, so that the homography matrix for each camera is calculated using only camera image data that satisfies a predetermined validity condition. (A) calculating an error value for each camera image data using a predetermined error value calculation technique to use a relationship between an actual area of a circular pattern disposed in; And if there is camera image data having a calculated error value greater than a predetermined threshold, calculating the homography matrix again by excluding the corresponding camera image data and replacing the currently calculated homography matrix (b). It repeats until there is no camera image data whose error value is greater than a predetermined threshold value, and if there is no camera image data whose calculated error value is larger than a predetermined threshold value, the currently calculated homograph matrix at the time is determined. It can be implemented to determine the homography matrix for the corresponding camera.
상기 에러값은 수학식 에 의해 산출될 수 있다. 여기서 상기 e는 에러값, 상기 p는 각 카메라 영상 데이터를 구분하는 식별 정보, 상기 n은 하나의 카메라 영상 데이터에서 검출된 원형 패턴의 총 갯수, k는 해당 식별 정보의 카메라 영상 데이터에서 검출된 각 원형 패턴의 구분자, M은 검출된 원형 패턴에 상응하여 지면에 배치된 원형 패턴의 실제 면적, m은 상기 식별 정보의 카메라 영상 데이터에서 검출되어 현재 산출된 호모그라피 행렬에 의해 변환된 탑뷰 영상 내의 원형 패턴의 해석 면적일 수 있다.The error value is an equation Can be calculated by Here, e is an error value, p is identification information for distinguishing each camera image data, n is the total number of circular patterns detected from one camera image data, and k is each detected from camera image data of the corresponding identification information. The separator of the circular pattern, M is the actual area of the circular pattern disposed on the ground corresponding to the detected circular pattern, m is the circular shape in the top view image detected by the camera image data of the identification information and converted by the currently calculated homography matrix. It may be an analysis area of a pattern.
상기 복수의 원형 패턴은 상기 차량이 이동하는 경로의 주변에 분산되도록 배치될 수 있다.The plurality of circular patterns may be arranged to be distributed around the path of the vehicle.
상기 공차 보정부는 각 카메라 영상 데이터에서 원형 패턴을 신속하게 검출하기 위하여, 기울기 벡터(Gradient vector)의 페어(pair)를 이용하여 CHT(Circle Hough Transform)의 후보군을 우선 검출한 후, 검출된 후보군을 대상으로 CHT를 이용하여 원형 패턴을 검출할 수 있다.In order to quickly detect a circular pattern in each camera image data, the tolerance correcting unit first detects a candidate group of a circular hough transform (CHT) using a pair of gradient vectors, and then detects the detected candidate group. A circular pattern can be detected using CHT as a target.
상기 AVM 시스템은, 각 카메라에 상응하는 호모그라피 행렬 및 카메라 영상 데이터를 이용하여 각 카메라에 상응하는 탑뷰 영상을 생성하고, 생성된 각각의 탑뷰 영상을 상기 차량을 기준한 각 카메라의 설치 위치에 부합하도록 회전시킨 후, 상기 차량의 주변 전체에 대한 AVM 영상 데이터로 합성하는 영상 합성부를 더 포함할 수도 있다.The AVM system generates a top view image corresponding to each camera using a homography matrix corresponding to each camera and camera image data, and matches each generated top view image to the installation position of each camera based on the vehicle. After being rotated so as to, it may further include an image synthesizing unit for synthesizing AVM image data for the entire surroundings of the vehicle.
상기 영상 합성부는 동일한 시점(time)에서 복수의 탑뷰 영상에 공통된 원형 패턴이 존재하는 경우, 공통된 원형 패턴의 중심점과 크기를 일치시켜 상기 AVM 영상 데이터로 합성할 수 있다. When a common circular pattern exists in a plurality of top-view images at the same time, the image synthesizing unit may synthesize the AVM image data by matching the center point and size of the common circular pattern.
본 발명의 다른 측면에 따르면, 차량에 설치된 카메라 공차를 보정하기 위한 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨터로 하여금 이하의 단계들을 수행하도록 하며, 상기 단계들은, (a) 상기 차량이 지면에 배치된 복수의 원형 패턴 사이를 통과하도록 상기 차량이 이동되는 동안, 상기 차량의 전방, 우측, 좌측 및 후방에 각각 설치된 복수의 카메라에 의해 생성된 카메라 영상 데이터들 각각에서 원형 패턴을 검출하는 단계; (b) 상기 검출된 원형 패턴의 외곽선을 추출하는 단계; 및 (c) 추출된 외곽선과 지면에 배치된 원형 패턴 사이의 상관 관계를 이용하여 카메라 각각에 상응하는 카메라 영상 데이터와 탑뷰 영상간의 호모그라피 행렬을 산출하는 단계를 포함하는 것을 특징으로 하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램이 제공된다. According to another aspect of the present invention, a computer program stored in a computer-readable medium for correcting a camera tolerance installed in a vehicle, the computer program causing the computer to perform the following steps, the steps comprising: (a) While the vehicle is moved such that the vehicle passes between a plurality of circular patterns disposed on the ground, a circular pattern is generated from each of the camera image data generated by a plurality of cameras respectively installed in the front, right, left and rear of the vehicle. Detecting; (b) extracting the outline of the detected circular pattern; And (c) calculating a homography matrix between the camera image data corresponding to each camera and the top view image by using the correlation between the extracted outline and a circular pattern disposed on the ground. A computer program stored in a readable medium is provided.
각 카메라에 대한 호모그라피 행렬이 미리 지정된 유효성 조건을 만족하는 카메라 영상 데이터들만을 이용하여 산출되도록 하기 위해, 상기 단계 (c)는, (c-1) 현재 산출된 호모그라피 행렬이 적용된 탑뷰 영상에서의 원형 패턴의 해석 면적과 지면에 배치된 원형 패턴의 실제 면적의 관계를 이용하도록 미리 규정된 에러값 산출 기법으로 각 카메라 영상 데이터에 대한 에러값을 산출하는 단계; 및 (c-2) 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 있으면, 해당 카메라 영상 데이터가 제외하여 호모그라피 행렬을 다시 산출하고 상기 현재 산출된 호모그라피 행렬이 대체되도록 하는 단계를 포함할 수 있다. 여기서, 상기 단계 (c-1) 및 상기 단계 (c-2)는 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않을 때까지 반복될 수 있고, 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않으면, 해당 시점의 현재 산출된 호모그라피 행렬이 상응하는 카메라에 대한 호모그라피 행렬로 결정되도록 할 수 있다.In order to ensure that the homography matrix for each camera is calculated using only camera image data that satisfies a predetermined validity condition, the step (c) is (c-1) in the top view image to which the currently calculated homography matrix is applied. Calculating an error value for each camera image data using a predetermined error value calculation technique to use a relationship between an analysis area of a circular pattern and an actual area of a circular pattern disposed on the ground; And (c-2) if there is camera image data in which the calculated error value is greater than a predetermined threshold, calculating the homography matrix again by excluding the camera image data and replacing the currently calculated homography matrix. It can contain. Here, the steps (c-1) and (c-2) may be repeated until there is no camera image data having a calculated error value greater than a predetermined threshold value, and the calculated error value is previously specified. If there is no camera image data larger than a threshold, it is possible to determine the currently calculated homography matrix for the corresponding camera as the homography matrix for the corresponding camera.
상기 에러값은 수학식 에 의해 산출될 수 잇다. 여기서, 상기 e는 에러값, 상기 p는 각 카메라 영상 데이터를 구분하는 식별 정보, 상기 n은 하나의 카메라 영상 데이터에서 검출된 원형 패턴의 총 갯수, k는 해당 식별 정보의 카메라 영상 데이터에서 검출된 각 원형 패턴의 구분자, M은 검출된 원형 패턴에 상응하여 지면에 배치된 원형 패턴의 실제 면적, m은 상기 식별 정보의 카메라 영상 데이터에서 검출되어 현재 산출된 호모그라피 행렬에 의해 변환된 탑뷰 영상 내의 원형 패턴의 해석 면적일 수 있다.The error value is an equation Can be calculated by Here, e is an error value, p is identification information for distinguishing each camera image data, n is the total number of circular patterns detected from one camera image data, and k is detected from camera image data of the corresponding identification information. The separator of each circular pattern, M is the actual area of the circular pattern arranged on the ground corresponding to the detected circular pattern, m is detected in the camera image data of the identification information, and is converted into the currently calculated homography matrix in the top view image. It may be an analysis area of a circular pattern.
각 카메라 영상 데이터에서 원형 패턴을 신속하게 검출하기 위하여, 상기 단계 (a)에서, 기울기 벡터(Gradient vector)의 페어(pair)를 이용하여 CHT(Circle Hough Transform)의 후보군을 우선 검출한 후, 검출된 후보군을 대상으로 CHT를 이용하여 원형 패턴이 검출되도록 할 수 있다.In order to quickly detect a circular pattern in each camera image data, in step (a), a candidate group of a circular hough transform (CHT) is first detected using a pair of gradient vectors, and then detected A circular pattern can be detected using CHT for the candidate group.
상기 단계들에는, 각 카메라에 상응하는 호모그라피 행렬 및 카메라 영상 데이터를 이용하여 각 카메라에 상응하는 탑뷰 영상을 생성하는 단계; 및 생성된 각각의 탑뷰 영상을 상기 차량을 기준한 각 카메라의 설치 위치에 부합하도록 회전시킨 후, 상기 차량의 주변 전체에 대한 AVM 영상 데이터로 합성하는 단계가 더 포함될 수도 있다. In the above steps, generating a top view image corresponding to each camera using a homography matrix corresponding to each camera and camera image data; And rotating each generated top view image to match the installation position of each camera based on the vehicle, and then synthesizing it into AVM image data for the entire surroundings of the vehicle.
동일한 시점(time)에서 복수의 탑뷰 영상에 공통된 원형 패턴이 존재하면, 상기 AVM 영상 데이터는 공통된 원형 패턴의 중심점과 크기를 일치시켜 생성될 수도 있다.If a common circular pattern exists in a plurality of top view images at the same time, the AVM image data may be generated by matching the center point and size of the common circular pattern.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages than those described above will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예에 따르면, 다각형 패턴이 아닌 원형 패턴을 이용하여 패턴의 세계 좌표를 입력하지 않으면서도 패턴이 영상이 나타나는 조건을 만족하면 탑뷰 생성이 가능하고, 탑뷰 생성을 위해 계산한 호모그라피 행렬을 이용하여 카메라의 외부 파라미터를 정확하게 추정할 수 있는 효과가 있다. According to an embodiment of the present invention, a top view can be generated when a pattern satisfies a condition in which an image appears without inputting the world coordinates of the pattern using a circular pattern rather than a polygonal pattern, and a homography matrix calculated for generating the top view It is possible to accurately estimate the external parameters of the camera using.
또한, 차량이 패턴 사이를 지나도록 이동하는 것만으로 공차 보정이 가능하여 패턴 설치에 걸리는 시간을 단축할 수 있고, 카메라와 패턴의 상대적 및 절대적 위치를 모르더라도 복수의 카메라의 영상 합성이 가능한 효과도 있다. In addition, it is possible to shorten the time required to install the pattern by correcting the tolerance by simply moving the vehicle to pass between the patterns, and it is also possible to synthesize images of multiple cameras even if the relative and absolute positions of the camera and the pattern are not known. have.
도 1은 종래기술에 따른 공차 보정 방법을 설명하기 위한 도면.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 구성을 개략적으로 도시한 블록 구성도.
도 3 내지 도 7은 본 발명의 일 실시예에 따른 AVM 시스템의 공차 보정 과정을 설명하기 위한 도면.
도 8은 본 발명의 다른 실시예에 따른 원형 패턴의 배치예를 예시한 도면.
도 9는 본 발명의 일 실시예에 따른 AVM 시스템의 카메라 공차 보정 방법을 나타낸 순서도.1 is a view for explaining a tolerance correction method according to the prior art.
Figure 2 is a block diagram schematically showing the configuration of the AVM system according to an embodiment of the present invention.
3 to 7 are views for explaining a tolerance correction process of the AVM system according to an embodiment of the present invention.
8 is a diagram illustrating an arrangement example of a circular pattern according to another embodiment of the present invention.
9 is a flowchart illustrating a camera tolerance correction method of an AVM system according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.
또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.In addition, the components of the embodiments described with reference to the drawings are not limited to those embodiments, and may be implemented to be included in other embodiments within the scope of maintaining the technical spirit of the present invention. Although the description is omitted, it is natural that a plurality of embodiments may be reimplemented as one integrated embodiment.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same components, regardless of reference numerals, are assigned the same or related reference numerals, and redundant description thereof will be omitted. In the description of the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 구성을 개략적으로 도시한 블록 구성도이고, 도 3 내지 도 7은 본 발명의 일 실시예에 따른 AVM 시스템의 공차 보정 과정을 설명하기 위한 도면이며, 도 8은 본 발명의 다른 실시예에 따른 원형 패턴의 배치예를 예시한 도면이다.2 is a block diagram schematically showing the configuration of an AVM system according to an embodiment of the present invention, and FIGS. 3 to 7 are views for explaining a tolerance correction process of an AVM system according to an embodiment of the present invention 8 is a diagram illustrating an arrangement example of a circular pattern according to another embodiment of the present invention.
도 2를 참조하면, AVM 시스템은 영상 생성부(210), 공차 보정부(220), 영상 합성부(230), 저장부(240) 및 디스플레이부(250)를 포함할 수 있다. 도시되지는 않았으나, AVM 시스템에 포함된 하나 이상의 구성요소의 동작을 제어하기 위한 제어부가 더 포함될 수도 있다.Referring to FIG. 2, the AVM system may include an
영상 생성부(210)는 차량(10)의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치되어 외부 장면을 촬영하는 복수의 카메라(20)를 포함한다. 영상 생성부(210)의 각 카메라(20)에 의해 촬영된 외부 장면은 카메라 영상 데이터로 저장부(220)에 저장된다. 여기서, 카메라(110)는 적은 수량으로 차량 주변 환경이 촬영 가능하도록 예를 들어 화각이 큰 광각 카메라로 구현될 수 있다.The
공차 보정부(220)는 저장부(240)에 저장된 카메라 영상 데이터들을 분석하여 원형 패턴(이동하는 차량의 위치에 따라 댜양한 형상의 타원의 형태를 가질 수 있음)을 해석하고, 해석한 원형 패턴을 이용하여 호모그라피 행렬(Homography matrix)를 산출한다. 이때, 호모그라피 행렬를 산출하는 과정에서 각 카메라(20)의 외부 변수(extrinsic parameter)도 산출될 수 있으며, 공차 보정부(220)는 이를 이용하여 세계좌표 상에서 각 카메라(20)의 위치를 추정할 수도 있다.The
영상 합성부(230)는 공차 보정부(220)에 의해 산출된 호모그라피 행렬을 이용하여 카메라 영상 데이터를 차량(10)의 위쪽에서 내려다보는 듯한 탑뷰 영상으로 생성하고, 이들 탑뷰 영상을 합성하여 AVM 영상 데이터를 생성한다. The
복수의 탑뷰 영상을 이용하여 AVM 영상 데이터를 생성할 때, 영상 합성부(230)는 동일한 시점(time)에서 원형 패턴을 형성하는 원이 동일한 위치에 있음을 고려하여 원형 패턴의 중심 위치와 크기를 일치시키는 방법 등을 이용할 수 있다. 이때, 영상 합성부(230)는 생성된 각 탑뷰 영상을 상응하는 카메라(20)가 차량에 설치된 위치에 상응하도록 회전 처리할 수도 있다.When generating AVM image data using a plurality of top-view images, the
영상 합성부(230)에 의해 생성된 AVM 영상 데이터는 디스플레이부(250)를 통해 출력될 수 있을 것이다. The AVM image data generated by the
저장부(240)에는 예를 들어 AVM 시스템의 운용 프로그램, 영상 생성부(210)에 의해 생성된 카메라 영상 데이터, 공차 보정부(220)에 의해 산출된 호모그라피 행렬, 영상 합성부(240)에 의해 생성된 탑뷰 영상과 AVM 영상 데이터 등이 저장될 수 있다. 저장부(220)는 데이터를 영구 저장하는 영구 저장 메모리와 동작 시 필요한 데이터를 임시 저장하여 운용하는 임시 저장 메모리로 분리되어 운용될 수도 있다.The
이하, 도 3 내지 도 8을 참조하여, 공차 보정부(220)에 의해 호모그라피 행렬이 생성되는 과정, 영상 합성부(230)에 의해 탑뷰 영상과 AVM 영상 데이터가 생성되는 과정 등을 설명하기로 한다. Hereinafter, a process of generating a homography matrix by the
도 3의 (a) 내지 (c)에 순차적으로 예시된 바와 같이, 본 실시예에 따른 AVM 시스템은 2개의 원형 패턴(300-1, 300-2, 이하 300이라 통칭함)이 바닥면에 나란히 배치되고, 차량(10)이 2개의 원형 패턴(300) 사이를 통과하도록 미리 지정된 거리만큼 움직이도록 한 후 각 카메라(20)에 대한 공차 보정이 실시되는 특징을 가진다. As illustrated sequentially in (a) to (c) of FIG. 3, in the AVM system according to this embodiment, two circular patterns (300-1, 300-2, hereinafter referred to as 300) are parallel to the bottom surface. It is arranged, and after the
이를 위해, 차량(10)이 나란히 배치된 원형 패턴(300)의 사이를 이동하기 위한 움직임을 개시하여 움직임이 종료될 때(또는 미리 지정된 거리만큼 이동되었음이 인식될 때)까지 영상 생성부(210)의 각 카메라(20)는 지속적으로 외부 장면을 촬영하여 저장부(240)에 각각 상응하는 카메라 영상 데이터를 저장하게 된다. To this end, the
도 3 등에 예시된 바와 같이, 공차 보정을 위해 지면에 배치된 원형 패턴(300)은 그 형상이 원형이기 때문에, 그 중심점을 중심으로 회전한 각도에 상관없이 항상 동일한 형상을 나타낸다. 따라서, 원형 패턴(300)의 배치 과정에서 종래의 다각형 패턴(즉, 미리 정해진 위치에 정확한 각도로 설치되어도록 제한됨)과 달리 패턴 배치에 소요되는 시간을 단축시킬 수 있는 장점을 가진다. As illustrated in FIG. 3 and the like, the circular pattern 300 disposed on the ground for tolerance correction has a circular shape, and thus always shows the same shape regardless of an angle rotated around the center point. Therefore, unlike the conventional polygonal pattern (that is, limited to be installed at an accurate angle at a predetermined position) in the arrangement process of the circular pattern 300, it has an advantage of reducing the time required for pattern placement.
또한, 원형 패턴(300)은 종래의 다각형 패턴과 같이 미리 정해진 위치에 정확히 위치시켜야 하는 것은 아니며, 미리 지정된 위치 조건을 충족하기만 하면 임의의 위치에 위치시켜도 공차 보정이 가능한 장점도 가진다. In addition, the circular pattern 300 does not have to be accurately positioned at a predetermined position as in the conventional polygonal pattern, and has the advantage that tolerance correction is possible even if it is positioned at an arbitrary position as long as the predetermined position condition is satisfied.
또한, 원형 패턴(300)은 지름이 모두 동일하도록 미리 지정될 수 있고, 미리 지정된 지름 정보를 이용하여 영상 합성부(230)에서 탑뷰 생성시 정확한 픽셀 피치(pixel pitch)(mm/pixel) 계산이 가능하도록 할 수 있다. 물론, 각 위치에 배치되는 원형 패턴(300)의 지름이 미리 지정되어 각 원형 패턴의 지름을 미리 인식할 수 있는 경우 등에서, 모든 원형 패턴(300)의 지름이 일치하도록 제한되지 않음은 당연하다. In addition, the circular pattern 300 may be pre-specified so that all of the diameters are the same, and accurate pixel pitch (mm/pixel) calculation may be performed when the top view is generated by the
이때, 카메라(20)의 공차 보정을 위해 이용되는 원형 패턴(300)의 수는 2개로 제한되지 않으며, 도 8에 예시된 바와 같이 차량(10)이 움직이는 경로 상의 양 측방에 복수개씩 존재하도록 배치될 수도 있음은 당연하다.At this time, the number of circular patterns 300 used for the correction of the tolerance of the camera 20 is not limited to two, and as illustrated in FIG. 8, the
차량(10)이 원형 패턴(300)들의 사이를 지나도록 움직임을 가지는 기간 동안 생성되어 저장부(240)에 저장된 카메라 영상 데이터들 각각에서 공차 보정부(220)는 원형 패턴(300)을 검출한다. The
이하, 설명의 편의를 위해 차량(10)이 미리 지정된 거리만큼 움직인 동안 카메라(20) 각각에 상응하여 순차적으로 촬영된 30개의 카메라 영상 데이터가 생성된 경우를 가정하여 설명한다. Hereinafter, for convenience of description, it will be described on the assumption that 30 camera image data sequentially generated corresponding to each of the cameras 20 while the
도 4에는 차량(10)이 움직이는 동안 차량(10)의 우측면에 구비된 카메라(20)에 상응하도록 생성된 30개의 카메라 영상 데이터들 중 일부의 영상이 예시되어 있다. 예시된 바와 같이, 원형 패턴(300)은 카메라(20)와 원형 패턴(300)의 상대적인 위치에 따라 다양한 형상의 타원의 형태로 촬영된다. 4 illustrates an image of some of the 30 camera image data generated to correspond to the camera 20 provided on the right side of the
공차 보정부(220)는 각 카메라(20)에 의해 생성된 카메라 영상 데이터에서 원형 패턴(300)을 신속하게 검출할 수 있도록 기울기 벡터(Gradient vector)의 페어(pair)를 이용하는 방법을 적용할 수 있고, 이때 LoG(Laplacian of Gaussian) 필터(filter)를 이용할 수 있다. 기울기 페어 벡터(Gradient pair vector)를 이용하여 영상에서 신속하게 원을 검출하는 방법은 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다. The
즉, 공차 보정부(220)는 기울기 벡터의 페어를 이용하여 신속하게 CHT(Circle Hough Transform)의 후보군을 검출하고, CHT를 이용하여 최종적으로 카메라 영상 데이터에서 타원으로 표시되는 원형 패턴의 외곽선을 검출한다. 참고로, 도 4 등에 촬영 영상 데이터에서 검출된 원형 패턴(300) 형상의 외곽선이 붉은색 선으로 표현되어 있다.That is, the
기울기 벡터의 페어를 이용하여 신속하게 원형 패턴(300)이 검출될 수 있도록 하기 위해, 원형 패턴(300)의 내부는 예를 들어 흰색, 검은색 등의 미리 지정된 색상으로 채색될 수 있다. In order to enable the circular pattern 300 to be quickly detected using a pair of gradient vectors, the interior of the circular pattern 300 may be colored with a predetermined color, such as white or black.
공차 보정부(220)는 각 카메라 영상 데이터에서 원형 패턴 부분과 배경 부분을 분리하여 원형 패턴의 외곽선을 검출하는 이진화 기법(하기 수학식 1 참조)을 이용하여 정상적으로 원형 패턴(300)이 검출되었는지를 검증할 수도 있다. The
여기서, I(x,y)는 카메라 영상 데이터에서의 영상 좌표 (x,y)의 영상값을 의미하고, Th는 임계값(Threshold value)을 의미하며, B(x,y)는 카메라 영상 데이터에서의 좌표 (x,y)에 해당하는 영상값이 임계값과 대비되어 이진화된 결과값(즉, 0 또는 255)를 의미한다. Here, I(x,y) denotes an image value of image coordinates (x,y) in the camera image data, Th denotes a threshold value, and B(x,y) denotes camera image data The image value corresponding to the coordinate (x,y) in is compared with the threshold value and means a binary value (ie, 0 or 255).
공차 보정부(220)는 각 영상 좌표에 대해 이진화된 결과값을 참조하여 외곽 에지(edge)의 방향성을 찾아 원형 패턴(300)의 외곽선을 검출하여 검증할 수 있다.The
공차 보정부(220)는 미리 저장된 원형 패턴(300)에 관한 정보(예를 들어, 형상, 크기 등 중 하나 이상)와 30개의 카메라 영상 데이터들에서 각각 검출된 원형 패턴(300)에 관한 정보(예를 들어, 중심점의 위치, 형상, 크기 등 중 하나 이상)를 이용하여 각 카메라(20)와 지면과의 관계를 나타내는 호모그라피 행렬을 산출할 수 있다. 일반적으로 지면에 배치된 원형 패턴(300)은 촬영 영상 데이터에서 타원으로 표시되며, 타원의 방정식은 하기 수학식 2와 같이 표현될 수 있다.The
여기서, (α,β)는 타원의 중심점을 나타내고, a는 장축의 반지름을, b는 단축의 반지름을 각각 나타낸다.Here, (α,β) represents the center point of the ellipse, a represents the radius of the long axis, and b represents the radius of the minor axis.
전술한 수학식 2는 타원의 방정식 Ax2 + Bxy + Cy2 + Dx + Ey + F = 0으로 일반화될 수 있고, A 내지 F로 표현된 각 계수를 이용하여 대칭적 계수 행렬(Symmetric Coefficient Matrix) Q는 하기 수학식 3과 같이 표현될 수 있다. Equation 2 described above can be generalized to the elliptic equations Ax 2 + Bxy + Cy 2 + Dx + Ey + F = 0, and using each coefficient represented by A to F, a symmetric coefficient matrix (Symmetric Coefficient Matrix) Q can be expressed as Equation 3 below.
수학식 3의 대칭적 계수 행렬 Q는 xTQx=0의 관계를 만족하고, 영상 좌표(x)와 실세계 좌표(x')의 관계를 나타내는 호모그라피 행렬 H는 로 정의되므로, 실세계에서의 대칭적 계수 행렬 Q'는 하기 수학식 4와 같이 정의될 수 있다.The symmetric coefficient matrix Q in Equation 3 satisfies the relationship of x T Qx=0, and the homography matrix H representing the relationship between image coordinates (x) and real-world coordinates (x') is Since it is defined as, the symmetric coefficient matrix Q'in the real world can be defined as in Equation 4 below.
또한, 소실점(vanishing point)을 지나는 직선인 소실선(vanishing line)(line lp)은 대칭적 계수 행렬 Q와 교점(point xp)(즉, 소실선과 카메라 영상 데이터에서 검출된 타원이 만나는 점)을 이용하여 하기 수학식 5와 같이 정의될 수 있다.In addition, the vanishing line (line l p ), which is a straight line passing through the vanishing point, is a symmetric coefficient matrix Q and an intersection (point x p ) (ie, the point where the vanishing line and the ellipse detected from the camera image data meet. ) Can be defined as in Equation 5 below.
또한, 호모그라피 행렬 H는 유사성(similarity) 행렬 S, 아핀성(affinity) 행렬 A, 투영성(projectivity) 행렬 A을 이용하여 정의되지만, 유사성 행렬 S의 영향은 무시할 수 있으므로, 호모그라피 행렬 H는 하기 수학식 6과 같이 간략화하여 정의될 수 있다. In addition, the homography matrix H is defined using a similarity matrix S, an affinity matrix A, and a projectivity matrix A, but the influence of the similarity matrix S is negligible, so the homography matrix H is It may be defined by simplifying Equation 6 below.
여기서, l1, l2 및 l3는 소실점을 지나는 직선인 소실선을 의미하고, α와 β는 각각 아핀성 변환의 계수이다. Here, l 1 , l 2 and l 3 mean a vanishing line that is a straight line passing through the vanishing point, and α and β are coefficients of affine transformation, respectively.
공차 보정부(220)는 차량(10)이 미리 지정된 거리만큼 움직인 동안 카메라(20) 각각에 상응하여 생성된 30개의 카메라 영상 데이터들에 대해 전술한 수학식 1 내지 수학식 6을 이용하여 각 카메라(20)에 상응하는 호모그라피 행렬 H를 생성한다. 생성된 호모그라피 행렬 H을 이용하여 생성된 각각의 카메라 영상 데이터는 탑뷰 영상으로 변환될 수 있다(도 5 참조).The tolerance compensator 220 uses the
이후, 공차 보정부(220)는 미리 지정된 거리만큼 움직인 동안 생성된 모든 카메라 영상 데이터(즉, 30개의 카메라 영상 데이터)를 이용하여 각 카메라(20)에 상응하도록 생성된 호모그라피 행렬들이 보다 정교해지도록 하기 위한 개선 처리를 실시한다. Subsequently, the
개선 처리는 현재 산출된 호모그라피 행렬을 이용하여 원형 패턴이 검출된 각 카메라 영상 데이터의 유효성을 검사하고, 유효한 카메라 영상 데이터만을 대상으로 다시 호모그라피 행렬을 산출하는 과정을 반복하되, 호모그라피 행렬을 산출하기 위해 이용된 카메라 영상 데이터들이 모두 유효성 조건을 만족하면 최종적으로 생성된 호모그라피 행렬을 해당 카메라(20)에 상응하는 개선된 호모그라피 행렬로 확정하는 방식으로 실시된다. The improvement process repeats the process of checking the validity of each camera image data in which a circular pattern has been detected using the currently calculated homography matrix, and calculating the homography matrix again only for valid camera image data. When all of the camera image data used to calculate satisfy the validity condition, the final generated homography matrix is determined by an improved homography matrix corresponding to the corresponding camera 20.
원형 패턴이 검출된 각 카메라 영상 데이터의 유효성을 검사하기 위해, 공차 보정부(220)는 하기 수학식 7을 이용하여 각 카메라 영상 데이터의 에러값을 산출할 수 있다. 물론, 원형 패턴(300)의 실제 면적과 해석 면적의 비율값을 에러값으로 하는 등 에러값 산출 방식은 이외에도 다양할 수 있다.To check the validity of each camera image data in which a circular pattern is detected, the
여기서, e는 에러값, p는 각 카메라 영상 데이터를 구분하는 식별 정보, n은 해당 식별 정보의 카메라 영상 데이터에서 검출된 원형 패턴의 총 갯수, k는 해당 식별 정보의 카메라 영상 데이터에서 검출된 각 원형 패턴의 구분자, Mk는 검출된 원형 패턴에 상응하여 지면에 배치된 원형 패턴(300)의 실제 면적, mk는 해당 식별 정보의 카메라 영상 데이터에서 검출되어 현재의 호모그라피 행렬에 의해 변환된 원형 패턴의 면적(즉, 해석 면적)을 나타낸다. Here, e is an error value, p is identification information for classifying each camera image data, n is a total number of circular patterns detected from camera image data of the corresponding identification information, k is each detected from camera image data of the corresponding identification information The separator of the circular pattern, M k is the actual area of the circular pattern 300 disposed on the ground corresponding to the detected circular pattern, m k is detected from the camera image data of the corresponding identification information and converted by the current homography matrix It represents the area of the circular pattern (ie, the analysis area).
카메라 영상 데이터에서 하나의 원형 패턴이 검출된 경우, 수학식 7에 의할 때 원형 패턴(300)의 실제 크기가 카메라 영상 데이터와 현재의 호모그라피 행렬에 의해 변환된 원형 패턴의 크기가 일치하는 경우에는 에러값이 0으로 산출될 것이다. 물론 카메라 영상 데이터에서 복수의 원형 패턴이 검출된 경우에는 각 원형 패턴을 모두 고려한 에러값으로 산출될 것이다.When one circular pattern is detected from the camera image data, according to Equation 7, the actual size of the circular pattern 300 coincides with the size of the camera image data and the circular pattern converted by the current homography matrix. Will have an error value of 0. Of course, when a plurality of circular patterns are detected from the camera image data, it will be calculated as an error value considering all of the circular patterns.
공차 보정부(220)는 30개의 카메라 영상 데이터들에 대해 각각 에러값을 산출하고, 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하는지 판단하여, 만일 임계값보다 큰 에러값을 가지는 카메라 영상 데이터가 존재하면 임계값보다 작은 에러값들을 가지는 카메라 영상 데이터들만을 대상 카메라 영상 데이터들로 하여 호모그라피 행렬을 다시 산출한다(전술한 수학식 3 내지 6 참조). The
예를 들어, 30개의 카메라 영상 데이터들 중 첫번째와 두번째 카메라 영상 데이터가 에러값이 임계값보다 큰 것으로 판단되었다면 세번째부터 30번째까지의 카메라 영상 데이터들만을 대상 카메라 영상 데이터들로 하여 호모그라피 행렬이 다시 산출된다. For example, if it is determined that the error value of the first and second camera image data among the 30 camera image data is greater than the threshold value, the homography matrix is formed by using only the third to 30th camera image data as target camera image data. Is calculated again.
공차 보정부(220)는 다시 산출된 호모그라피 행렬을 이용하여 대상 카메라 영상 데이터들 각각에 대해 검출된 원형 패턴의 해석 면적을 산출하여 에러값 산출을 다시 수행한다. The
이때, 미리 지정된 임계값보다 큰 에러값을 가지는 카메라 영상 데이터가 존재하지 않으면 현재의 호모그라피 행렬이 해당 카메라(20)에 상응하는 호모그라피 행렬로 결정된다. 즉, 호모그라피 행렬을 산출하기 위해 이용된 카메라 영상 데이터들이 모두 유효성 조건을 만족하면 최종적으로 생성된 호모그라피 행렬을 해당 카메라(20)에 상응하는 개선된 호모그라피 행렬로 확정된다.At this time, if there is no camera image data having an error value greater than a predetermined threshold, the current homography matrix is determined as a homography matrix corresponding to the camera 20. That is, when all the camera image data used to calculate the homography matrix satisfy the validity condition, the finally generated homography matrix is determined as an improved homography matrix corresponding to the corresponding camera 20.
그러나 만일 미리 지정된 임계값보다 큰 에러값을 가지는 카메라 영상 데이터가 존재하면, 공차 보정부(220)는 해당 커메라 영상 데이터를 제외하여 대상 카메라 영상 데이터들을 재선정하고 호모그라피 행렬을 다시 산출하며, 각 카메라 영상 데이터의 에러값을 산출하는 과정을 다시 수행한다. However, if there is camera image data having an error value greater than a predetermined threshold, the
전술한 과정에 의해 각 카메라(20)에 대한 호모그라피 행렬이 결정되면, 영상 합성부(230)는 각 카메라(20)에 상응하는 탑뷰 영상을 합성하여 AVM 영상 데이터를 생성할 수 있다(도 7 참조). When the homography matrix for each camera 20 is determined by the above-described process, the
이때, 영상 합성부(230)는 영상 합성을 위해, 각 카메라(20)의 호모그라피 행렬을 이용하여 변환된 탑뷰 영상을 각 카메라(20)의 장착 위치에 상응하도록 회전 처리할 수 있다. 예를 들어, 차량(10)의 우측면에 장착된 카메라(20)에 상응하는 탑뷰 영상은 도 6에 예시된 바와 같이 차량(10)의 우측이 촬영된 영상으로 표현되도록 회전 처리될 수 있다. At this time, the
또한, 영상 합성부(230)는 동일한 시점(time)에서 각 카메라에서 촬영된 복수의 카메라 영상 데이터 내에서 검출되는 원형 패턴이 실제적으로 동일한 위치에 있음을 고려하여 탑뷰 영상둘에 존재하는 공통된 원형 패턴의 중심 위치와 크기를 일치시키는 방법 등을 이용하여 신속하게 영상 합성을 수행할 수 있을 것이다. Also, the
도 9는 본 발명의 일 실시예에 따른 AVM 시스템의 카메라 공차 보정 방법을 나타낸 순서도이다.9 is a flowchart illustrating a camera tolerance correction method of an AVM system according to an embodiment of the present invention.
도 9를 참조하면, 단계 910에서 AVM 시스템은 지면에 배치된 복수의 원형 패턴(300) 사이를 통과하도록 미리 지정된 거리만큼 차량(10)이 이동하는 동안 각 카메라(20)에 의해 주변이 촬영된 카메라 영상 데이터들을 생성한다. 카메라(20)는 차량(10)의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치될 수 있다. Referring to FIG. 9, in
단계 920에서 AVM 시스템은 각각의 카메라 영상 데이터에서 원형 패턴을 검출한다. AVM 시스템은 예를 들어 기울기 벡터의 페어를 이용하는 방법을 적용하여 CHT의 후보군을 검출한 후, CHT를 이용하여 카메라 영상 데이터에서 타원으로 표시되는 원형 패턴의 외곽선을 검출할 수 있다.In
단계 930에서 AVM 시스템은 각 카메라(20)에 상응하여 생성된 카메라 영상 데이터들을 이용하여 타원의 외곽선에 기초한 타원 방정식을 산출하고, 산출된 타원 방정식을 이용하여 세계 좌표와 카메라 영상 데이터 사이의 호모그라피 행렬(원시 호모그라피 행렬이라 칭함)을 각 카메라(20)에 대해 산출한다. In
단계 940에서 AVM 시스템은 원시 호모그라피 행렬이 미리 지정된 유효성 조건을 만족하는 카메라 영상 데이터들만을 이용하여 산출된 것인지 여부를 판단한다. In
이때, AVM 시스템은 미리 알고 있는 원형 패턴(300)의 실제 면적과, 카메라 영상 데이터에서 검출된 원형 패턴이 원시 호모그라피 행렬을 이용하여 세계 좌표로 변환되어 산출된 해석 면적의 관계를 이용하여 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 하나 이상 존재하면 미리 지정된 유효성 조건을 만족하지 못하는 것으로 판단할 수 있다(전술한 수학식 7 참조). At this time, the AVM system is calculated using the relationship between the actual area of the circular pattern 300 known in advance and the analysis area calculated by converting the circular pattern detected from the camera image data into world coordinates using a raw homography matrix. When one or more camera image data having an error value greater than a predetermined threshold value is present, it may be determined that the predetermined validity condition is not satisfied (see Equation 7 above).
만일 미리 지정된 임계값보다 큰 에러값을 가지는 카메라 영상 데이터가 존재하면, 단계 950으로 진행하여, AVM 시스템은 단계 910에서 생성된 카메라 영상 데이터들 중 해당 카메라 영상 데이터가 제외된 대상 카메라 영상 데이터를 재선정한다. If there is camera image data having an error value greater than a predetermined threshold, the process proceeds to step 950, and the AVM system reselects the target camera image data from which the camera image data is excluded among the camera image data generated in
이후, 단계 930으로 다시 진행하여 AVM 시스템은 대상 카메라 영상 데이터를 대상으로 하여 호모그라피 행렬(제1 개선 호모그라피 행렬이라 칭함)을 각 카메라(20)에 대해 다시 산출한다.Subsequently, the process proceeds to step 930, and the AVM system calculates the homography matrix (referred to as the first enhanced homography matrix) for each camera 20 using the target camera image data as the target again.
이어서, 단계 940에서 AVM 시스템은 제1 개선 호모그라피 행렬이 미리 지정된 유효성 조건을 만족하는 카메라 영상 데이터들만을 이용하여 산출된 것인지 여부를 판단한다. 이 경우, 카메라 영상 데이터에서 검출된 원형 패턴이 제1 개선 호모그라피 행렬을 이용하여 세계 좌표로 변환되어 산출된 해석 면적이 고려될 것이다. Subsequently, in
제1 개선 호모그라피 행렬이 유효성 조건을 만족하는 카메라 영상 데이터들만을 이용하여 산출된 것이 아니라면 AVM 시스템은 단계 950 및 960을 진행하여 각 카메라(20)에 대해 호모그라피 행렬(즉, 제2 호모그라피 행렬)을 산출하는 과정을 다시 진행하게 될 것이다. If the first improved homography matrix is not calculated using only camera image data that satisfies the validity condition, the AVM system proceeds to
즉, 단계 930 내지 단계 950은 각 카메라(20)를 대상으로 개별 수행되며, 호모그라피 행렬이 모두 유효성 조건을 만족하는 카메라 영상 데이터들만으로 산출된 것으로 인정될 때까지 반복 실시된다. That is, steps 930 to 950 are individually performed for each camera 20 and repeatedly performed until it is recognized that the homography matrices are calculated only with camera image data satisfying the validity condition.
그러나 만일 단계 940의 판단 결과로, 현재 생성된 호모그라피 행렬이 모두 유효성 조건을 만족하는 카메라 영상 데이터들만을 대상으로 산출된 것이라면, AVM 시스템은 단계 960으로 진행하여 각 카메라(20)에 상응하는 호모그라피 행렬을 이용하여 각 카메라 영상 데이터에 상응하는 탑뷰 영상을 생성하고, 복수의 탑뷰 영상을 합성하여 AVM 영상 데이터를 생성한다. However, if, as a result of the determination in
이때, AVM 시스템은 예를 들어 각각의 탑뷰 영상을 상응하는 카메라의 설치 위치에 부합하도록 회전시킨 후, 동일한 시점에서 촬영된 공통된 원형 패턴의 중심 위치가 일치되도록 하는 합성하는 방법 등을 이용하여 AVM 영상 데이터를 생성할 수 있다. At this time, the AVM system rotates each top view image to match the installation position of the corresponding camera, and then uses the method of synthesizing such that the center positions of the common circular patterns photographed at the same time point coincide. Data can be generated.
상술한 AVM 시스템의 카메라 공차 보정 방법은 디지털 처리 장치에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. It is natural that the above-described method for correcting camera tolerance of the AVM system may be performed by an automated procedure according to a time series sequence by a program built in or installed in a digital processing device. The codes and code segments constituting the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium that can be read by a digital processing device, and is read and executed by a digital processing device to implement the method.
상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.The above has been described with reference to embodiments of the present invention, but those skilled in the art can variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can change it.
10 : 차량 20-1, 20-2, 20-3, 20-4 : 카메라 50 : 보정판
50 : 보정판 210 : 영상 생성부
220 : 공차 보정부 230 : 영상 합성부
240 : 저장부 250 : 디스플레이부
300-1, 300-2 : 원형 패턴10: vehicle 20-1, 20-2, 20-3, 20-4: camera 50: correction plate
50: correction plate 210: image generation unit
220: tolerance correction unit 230: image synthesis unit
240: storage unit 250: display unit
300-1, 300-2: circular pattern
Claims (13)
상기 차량의 전방, 우측, 좌측 및 후방에 각각 설치되는 복수의 카메라를 포함하고, 지면에 배치된 복수의 원형 패턴 사이를 통과하도록 상기 차량이 이동되는 동안 주변을 촬영하여 카메라 영상 데이터들을 생성하는 영상 생성부; 및
상기 차량이 이동되는 동안 생성된 카메라 영상 데이터들 각각에서 원형 패턴을 검출하여 검출된 원형 패턴의 외곽선을 추출하고, 추출된 외곽선과 지면에 배치된 원형 패턴 사이의 상관 관계를 이용하여 카메라 각각에 상응하는 카메라 영상 데이터와 탑뷰 영상간의 호모그라피 행렬을 산출하는 공차 보정부를 포함하되,
상기 차량이 이동되는 동안 생성된 카메라 영상 데이터들 각각에 포함되는 원형 패턴은, 상응하는 카메라 영상 데이터의 생성 시점에서 차량의 이동 위치에 따른 카메라와 지면에 배치된 원형 패턴의 상대적인 위치에 상응하도록 변형된 형상으로 형성되는, AVM 시스템.
In the AVM system installed in the vehicle,
An image including a plurality of cameras respectively installed at the front, right, left and rear of the vehicle, and photographing the surroundings while the vehicle is moving to pass between a plurality of circular patterns disposed on the ground to generate camera image data Generation unit; And
A circular pattern is detected from each of the camera image data generated while the vehicle is moving to extract the outline of the detected circular pattern, and is correlated to each camera using a correlation between the extracted outline and the circular pattern disposed on the ground. Tolerance correction unit for calculating a homography matrix between the camera image data and the top view image,
The circular pattern included in each of the camera image data generated while the vehicle is moving is modified to correspond to the relative positions of the camera and the circular pattern disposed on the ground according to the moving position of the vehicle at the time of generation of the corresponding camera image data. AVM system, which is formed into a shape.
상기 공차 보정부는 미리 지정된 유효성 조건을 만족하는 카메라 영상 데이터들만을 이용하여 각 카메라에 대한 호모그라피 행렬이 산출되도록 하기 위해,
현재 산출된 호모그라피 행렬이 적용된 탑뷰 영상에서의 원형 패턴의 해석 면적과 지면에 배치된 원형 패턴의 실제 면적의 관계를 이용하도록 미리 규정된 에러값 산출 기법으로 각 카메라 영상 데이터에 대한 에러값을 산출하는 단계 (a); 및
산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 있으면, 해당 카메라 영상 데이터를 제외하여 호모그라피 행렬을 다시 산출하고 상기 현재 산출된 호모그라피 행렬을 대체하도록 하는 단계 (b)를 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않을 때까지 반복하고,
산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않으면, 해당 시점의 현재 산출된 호모그라피 행렬을 상응하는 카메라에 대한 호모그라피 행렬로 결정하는 것을 특징으로 하는 AVM 시스템.
According to claim 1,
The tolerance compensator may be configured to calculate a homography matrix for each camera using only camera image data that satisfies a predetermined validity condition.
The error value for each camera image data is calculated by using the predefined error value calculation technique to use the relationship between the analysis area of the circular pattern in the top view image to which the currently calculated homography matrix is applied and the actual area of the circular pattern placed on the ground. Step (a); And
If there is camera image data whose calculated error value is greater than a predetermined threshold, calculating the homography matrix again by excluding the corresponding camera image data and replacing the currently calculated homography matrix (b). Repeat until there is no camera image data whose value is greater than a predetermined threshold,
If there is no camera image data having a calculated error value greater than a predetermined threshold, the AVM system is characterized in that the currently calculated homography matrix of the corresponding time point is determined as a homography matrix for the corresponding camera.
상기 에러값은 수학식 에 의해 산출되되,
상기 e는 에러값, 상기 p는 각 카메라 영상 데이터를 구분하는 식별 정보, 상기 n은 하나의 카메라 영상 데이터에서 검출된 원형 패턴의 총 갯수, k는 해당 식별 정보의 카메라 영상 데이터에서 검출된 각 원형 패턴의 구분자, M은 검출된 원형 패턴에 상응하여 지면에 배치된 원형 패턴의 실제 면적, m은 상기 식별 정보의 카메라 영상 데이터에서 검출되어 현재 산출된 호모그라피 행렬에 의해 변환된 탑뷰 영상 내의 원형 패턴의 해석 면적인 것을 특징으로 하는 AVM 시스템.
According to claim 2,
The error value is an equation Calculated by,
The e is an error value, the p is identification information for distinguishing each camera image data, the n is the total number of circular patterns detected from one camera image data, and k is each prototype detected from camera image data of the corresponding identification information. The separator of the pattern, M is the actual area of the circular pattern disposed on the ground corresponding to the detected circular pattern, m is the circular pattern in the top view image detected by the camera image data of the identification information and converted by the currently calculated homography matrix. AVM system characterized by the interpretation area of.
상기 복수의 원형 패턴은 상기 차량이 이동하는 경로의 주변에 분산되도록 배치되는 것을 특징으로 하는 AVM 시스템.
According to claim 1,
AVM system, characterized in that the plurality of circular patterns are arranged to be distributed around the path of the vehicle.
상기 공차 보정부는 각 카메라 영상 데이터에서 원형 패턴을 신속하게 검출하기 위하여, 기울기 벡터(Gradient vector)의 페어(pair)를 이용하여 CHT(Circle Hough Transform)의 후보군을 우선 검출한 후, 검출된 후보군을 대상으로 CHT를 이용하여 원형 패턴을 검출하는 것을 특징으로 하는 AVM 시스템.
According to claim 1,
In order to quickly detect a circular pattern in each camera image data, the tolerance correcting unit first detects a candidate group of a circular hough transform (CHT) using a pair of gradient vectors, and then detects the detected candidate group. AVM system characterized by detecting a circular pattern using CHT as a target.
각 카메라에 상응하는 호모그라피 행렬 및 카메라 영상 데이터를 이용하여 각 카메라에 상응하는 탑뷰 영상을 생성하고, 생성된 각각의 탑뷰 영상을 상기 차량을 기준한 각 카메라의 설치 위치에 부합하도록 회전시킨 후, 상기 차량의 주변 전체에 대한 AVM 영상 데이터로 합성하는 영상 합성부를 더 포함하는 AVM 시스템.
According to claim 1,
After generating a top view image corresponding to each camera using the homography matrix and camera image data corresponding to each camera, and rotating each generated top view image to match the installation position of each camera based on the vehicle, AVM system further comprising an image synthesizer for synthesizing AVM image data for the entire periphery of the vehicle.
상기 영상 합성부는 동일한 시점(time)에서 복수의 탑뷰 영상에 공통된 원형 패턴이 존재하는 경우, 공통된 원형 패턴의 중심점과 크기를 일치시켜 상기 AVM 영상 데이터로 합성하는 것을 특징으로 하는 AVM 시스템.
The method of claim 6,
The image synthesizing unit, when there is a common circular pattern in a plurality of top-view images at the same time (time), AVM system characterized by synthesizing the AVM image data by matching the center point and size of the common circular pattern.
(a) 상기 차량이 지면에 배치된 복수의 원형 패턴 사이를 통과하도록 상기 차량이 이동되는 동안, 상기 차량의 전방, 우측, 좌측 및 후방에 각각 설치된 복수의 카메라에 의해 생성된 카메라 영상 데이터들 각각에서 원형 패턴을 검출하는 단계;
(b) 상기 검출된 원형 패턴의 외곽선을 추출하는 단계; 및
(c) 추출된 외곽선과 지면에 배치된 원형 패턴 사이의 상관 관계를 이용하여 카메라 각각에 상응하는 카메라 영상 데이터와 탑뷰 영상간의 호모그라피 행렬을 산출하는 단계를 포함하되,
상기 차량이 이동되는 동안 생성된 카메라 영상 데이터들 각각에 포함되는 원형 패턴은, 상응하는 카메라 영상 데이터의 생성 시점에서 차량의 이동 위치에 따른 카메라와 지면에 배치된 원형 패턴의 상대적인 위치에 상응하도록 변형된 형상으로 형성되는 것을 특징으로 하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable medium for correcting a camera tolerance installed in a vehicle, the computer program causing the computer to perform the following steps, the steps comprising:
(a) While the vehicle is moved so that the vehicle passes between a plurality of circular patterns disposed on the ground, each of the camera image data generated by a plurality of cameras respectively installed in the front, right, left and rear of the vehicle Detecting a circular pattern in;
(b) extracting the outline of the detected circular pattern; And
(c) calculating a homography matrix between camera image data corresponding to each camera and a top view image using a correlation between the extracted outline and a circular pattern disposed on the ground,
The circular pattern included in each of the camera image data generated while the vehicle is moving is modified to correspond to the relative positions of the camera and the circular pattern disposed on the ground according to the moving position of the vehicle at the time of generation of the corresponding camera image data. Computer program, characterized in that formed in a computer-readable medium.
각 카메라에 대한 호모그라피 행렬이 미리 지정된 유효성 조건을 만족하는 카메라 영상 데이터들만을 이용하여 산출되도록 하기 위해, 상기 단계 (c)는,
(c-1) 현재 산출된 호모그라피 행렬이 적용된 탑뷰 영상에서의 원형 패턴의 해석 면적과 지면에 배치된 원형 패턴의 실제 면적의 관계를 이용하도록 미리 규정된 에러값 산출 기법으로 각 카메라 영상 데이터에 대한 에러값을 산출하는 단계; 및
(c-2) 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 있으면, 해당 카메라 영상 데이터를 제외하여 호모그라피 행렬을 다시 산출하고 상기 현재 산출된 호모그라피 행렬이 대체되도록 하는 단계를 포함하되,
상기 단계 (c-1) 및 상기 단계 (c-2)는 산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않을 때까지 반복되며,
산출된 에러값이 미리 지정된 임계값보다 큰 카메라 영상 데이터가 존재하지 않으면, 해당 시점의 현재 산출된 호모그라피 행렬이 상응하는 카메라에 대한 호모그라피 행렬로 결정되는 것을 특징으로 하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램.
The method of claim 8,
In order to allow the homography matrix for each camera to be calculated using only camera image data that satisfies a predetermined validity condition, the step (c) is:
(c-1) An error value calculation technique that is defined in advance to use the relationship between the analysis area of the circular pattern in the top view image to which the currently calculated homography matrix is applied and the actual area of the circular pattern disposed on the ground. Calculating an error value for; And
(c-2) if there is camera image data having a calculated error value greater than a predetermined threshold, calculating a homography matrix again by excluding the corresponding camera image data and allowing the currently calculated homography matrix to be replaced. Ha,
Steps (c-1) and (c-2) are repeated until there is no camera image data having a calculated error value greater than a predetermined threshold,
If there is no camera image data having a calculated error value greater than a predetermined threshold, a computer-readable medium, characterized in that the currently calculated homography matrix at the time is determined as a homography matrix for the corresponding camera. Computer programs stored in.
상기 에러값은 수학식 에 의해 산출되되,
상기 e는 에러값, 상기 p는 각 카메라 영상 데이터를 구분하는 식별 정보, 상기 n은 하나의 카메라 영상 데이터에서 검출된 원형 패턴의 총 갯수, k는 해당 식별 정보의 카메라 영상 데이터에서 검출된 각 원형 패턴의 구분자, M은 검출된 원형 패턴에 상응하여 지면에 배치된 원형 패턴의 실제 면적, m은 상기 식별 정보의 카메라 영상 데이터에서 검출되어 현재 산출된 호모그라피 행렬에 의해 변환된 탑뷰 영상 내의 원형 패턴의 해석 면적인 것을 특징으로 하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램.
The method of claim 9,
The error value is an equation Calculated by,
The e is an error value, the p is identification information for distinguishing each camera image data, the n is the total number of circular patterns detected from one camera image data, and k is each prototype detected from camera image data of the corresponding identification information. The separator of the pattern, M is the actual area of the circular pattern disposed on the ground corresponding to the detected circular pattern, m is the circular pattern in the top view image detected by the camera image data of the identification information and converted by the currently calculated homography matrix. A computer program stored in a computer-readable medium, characterized by an area of interpretation.
각 카메라 영상 데이터에서 원형 패턴을 신속하게 검출하기 위하여, 상기 단계 (a)에서, 기울기 벡터(Gradient vector)의 페어(pair)를 이용하여 CHT(Circle Hough Transform)의 후보군을 우선 검출한 후, 검출된 후보군을 대상으로 CHT를 이용하여 원형 패턴이 검출되는 것을 특징으로 하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램.
The method of claim 8,
In order to quickly detect a circular pattern in each camera image data, in step (a), a candidate group of a circular hough transform (CHT) is first detected using a pair of gradient vectors, and then detected A computer program stored in a computer-readable medium, characterized in that a circular pattern is detected using the CHT of the targeted candidate group.
각 카메라에 상응하는 호모그라피 행렬 및 카메라 영상 데이터를 이용하여 각 카메라에 상응하는 탑뷰 영상을 생성하는 단계; 및
생성된 각각의 탑뷰 영상을 상기 차량을 기준한 각 카메라의 설치 위치에 부합하도록 회전시킨 후, 상기 차량의 주변 전체에 대한 AVM 영상 데이터로 합성하는 단계를 더 포함하는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램.
The method of claim 8,
Generating a top view image corresponding to each camera using a homography matrix corresponding to each camera and camera image data; And
After rotating each generated top-view image to match the installation position of each camera relative to the vehicle, and further comprising the step of synthesizing into AVM image data for the entire periphery of the vehicle, stored in a computer-readable medium Computer program.
동일한 시점(time)에서 복수의 탑뷰 영상에 공통된 원형 패턴이 존재하면, 상기 AVM 영상 데이터는 공통된 원형 패턴의 중심점과 크기를 일치시켜 생성되는, 컴퓨터-판독가능 매체에 저장된 컴퓨터 프로그램The method of claim 12,
When a common circular pattern exists in a plurality of top view images at the same time, the AVM image data is generated by matching the center point and size of the common circular pattern, and the computer program stored in the computer-readable medium
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180108989A KR102119388B1 (en) | 2018-09-12 | 2018-09-12 | AVM system and camera calibration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180108989A KR102119388B1 (en) | 2018-09-12 | 2018-09-12 | AVM system and camera calibration method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200030694A KR20200030694A (en) | 2020-03-23 |
KR102119388B1 true KR102119388B1 (en) | 2020-06-08 |
Family
ID=69998406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180108989A KR102119388B1 (en) | 2018-09-12 | 2018-09-12 | AVM system and camera calibration method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102119388B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102655362B1 (en) * | 2021-10-28 | 2024-04-04 | 재단법인대구경북과학기술원 | Method and apparatus for stitching medical images |
KR102676423B1 (en) * | 2024-01-31 | 2024-06-19 | 주식회사 리트빅 | AVM calibration method by use of generative artificial intelligence |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008187564A (en) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | Camera calibration apparatus and method, and vehicle |
JP2010103730A (en) * | 2008-10-23 | 2010-05-06 | Clarion Co Ltd | Calibration device and calibration method of car-mounted camera |
JP2015201850A (en) * | 2014-04-08 | 2015-11-12 | アイツーオースリーディー ホールディングス リミテッドi2o3d Holdings Limited | Method of estimating imaging device parameter |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100948886B1 (en) | 2009-06-25 | 2010-03-24 | 주식회사 이미지넥스트 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
KR20150144090A (en) * | 2014-06-16 | 2015-12-24 | 현대모비스 주식회사 | Operating method of around view monitoring system |
KR101705558B1 (en) * | 2015-06-25 | 2017-02-13 | (주)캠시스 | Top view creating method for camera installed on vehicle and AVM system |
KR101708620B1 (en) * | 2015-08-10 | 2017-02-23 | (주)캠시스 | Method and Apparatus for Compensating Camera Tolerance in Around View Monitoring System |
-
2018
- 2018-09-12 KR KR1020180108989A patent/KR102119388B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008187564A (en) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | Camera calibration apparatus and method, and vehicle |
JP2010103730A (en) * | 2008-10-23 | 2010-05-06 | Clarion Co Ltd | Calibration device and calibration method of car-mounted camera |
JP2015201850A (en) * | 2014-04-08 | 2015-11-12 | アイツーオースリーディー ホールディングス リミテッドi2o3d Holdings Limited | Method of estimating imaging device parameter |
Also Published As
Publication number | Publication date |
---|---|
KR20200030694A (en) | 2020-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110956169B (en) | License plate recognition method and device and electronic equipment | |
CN109751973B (en) | Three-dimensional measuring device, three-dimensional measuring method, and storage medium | |
US10311595B2 (en) | Image processing device and its control method, imaging apparatus, and storage medium | |
JP4916167B2 (en) | Index identification method and index identification device | |
EP1612731B1 (en) | Computer modeling of physical scenes | |
KR102089343B1 (en) | Around view monitoring system and calibration method for around view cameras | |
EP2678824A1 (en) | Determining model parameters based on transforming a model of an object | |
US10602125B2 (en) | Camera-parameter-set calculation apparatus, camera-parameter-set calculation method, and recording medium | |
CN111598065B (en) | Depth image acquisition method, living body identification method, apparatus, circuit, and medium | |
US20120033873A1 (en) | Method and device for determining a shape match in three dimensions | |
KR102119388B1 (en) | AVM system and camera calibration method | |
Toriya et al. | SAR2OPT: Image alignment between multi-modal images using generative adversarial networks | |
JP4521568B2 (en) | Corresponding point search method, relative orientation method, three-dimensional image measurement method, corresponding point search device, relative orientation device, three-dimensional image measurement device, corresponding point search program, and computer-readable recording medium recording the corresponding point search program | |
US12092470B2 (en) | Vehicle localization method and device, electronic device and storage medium | |
US10623629B2 (en) | Imaging apparatus and imaging condition setting method and program | |
Yaldiz et al. | Deepformabletag: End-to-end generation and recognition of deformable fiducial markers | |
KR20200071842A (en) | Around view monitoring system and method for detecting empty parking lot | |
CN113793266A (en) | Multi-view machine vision image splicing method, system and storage medium | |
WO2019167238A1 (en) | Image processing device and image processing method | |
CN111611994B (en) | Image extraction method, device, electronic equipment and storage medium | |
JP2016148956A (en) | Positioning device, positioning method and positioning computer program | |
CN116843748B (en) | Remote two-dimensional code and object space pose acquisition method and system thereof | |
KR20200068045A (en) | Around view monitoring system and method for detecting parking line with deep learning | |
CN109690555B (en) | Curvature-based face detector | |
CN104637043B (en) | Pixel selecting method, device, parallax value is supported to determine method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |