KR102089343B1 - Around view monitoring system and calibration method for around view cameras - Google Patents

Around view monitoring system and calibration method for around view cameras Download PDF

Info

Publication number
KR102089343B1
KR102089343B1 KR1020180073290A KR20180073290A KR102089343B1 KR 102089343 B1 KR102089343 B1 KR 102089343B1 KR 1020180073290 A KR1020180073290 A KR 1020180073290A KR 20180073290 A KR20180073290 A KR 20180073290A KR 102089343 B1 KR102089343 B1 KR 102089343B1
Authority
KR
South Korea
Prior art keywords
image
individual top
view image
top view
blending
Prior art date
Application number
KR1020180073290A
Other languages
Korean (ko)
Other versions
KR20200000953A (en
Inventor
한정수
조상현
Original Assignee
주식회사 수올리나
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 수올리나 filed Critical 주식회사 수올리나
Priority to KR1020180073290A priority Critical patent/KR102089343B1/en
Publication of KR20200000953A publication Critical patent/KR20200000953A/en
Application granted granted Critical
Publication of KR102089343B1 publication Critical patent/KR102089343B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • G06K9/00791
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera

Abstract

어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법이 개시된다. 어라운드 뷰 모니터링 시스템은 차량의 전방, 우측면, 좌측면 및 후방 각각을 촬영하도록 장착된 복수의 카메라를 포함하는 카메라 유닛; 각 카메라에서 촬영된 촬영 영상에 상응하는 개별 탑뷰 영상에서 미리 지정된 기준에 따른 틀어짐이 존재하는지 여부를 판단하고, 틀어짐이 존재하면 촬영 영상을 개별 탑뷰 영상으로 변환하는 변환 규칙을 갱신하는 공차 보정 유닛; 및 상기 갱신된 변환 규칙과 상기 카메라 유닛에서 촬영된 복수의 촬영 영상을 이용하여 AVM 영상을 생성하는 영상 합성부를 포함한다.Around view monitoring system and camera tolerance correction method are disclosed. The around view monitoring system includes a camera unit including a plurality of cameras mounted to photograph the front, right, left, and rear of the vehicle, respectively; A tolerance correction unit that determines whether or not a distortion according to a predetermined criterion exists in an individual top view image corresponding to the captured image captured by each camera, and updates a conversion rule for converting the captured image into an individual top view image if the distortion exists; And an image synthesizing unit generating an AVM image by using the updated conversion rule and a plurality of captured images captured by the camera unit.

Description

어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법{Around view monitoring system and calibration method for around view cameras}Around view monitoring system and calibration method for around view cameras}

본 발명은 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법에 관한 것이다. The present invention relates to an around view monitoring system and a camera tolerance correction method.

일반적으로, 차량 내부에 탑승한 운전자는 주로 전방을 주시하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당 부분 가려지기 때문에, 운전자는 매우 한정된 시계를 가질 수 밖에 없다. In general, the driver who boards the inside of the vehicle mainly looks at the front, and since the left and right and rear clocks of the driver are largely obscured by the vehicle body, the driver is forced to have a very limited clock.

이러한 문제를 해결하기 위하여, 룸 미러, 사이드 미러 등의 시계 보조수단이 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있는 추세이다.To solve this problem, clock assisting means such as a room mirror and a side mirror are used, and recently, technologies including camera means for photographing an external image of a vehicle and providing it to the driver are being applied to the vehicle.

그 중에서 차량에 복수의 카메라를 설치하여 차량 주변의 360ㅀ전방향의 영상을 보여주는 어라운드 뷰 모니터링(Around View Monitoring) 시스템(이하, AVM 시스템이라 칭함)이 있다. Among them, there is an Around View Monitoring system (hereinafter referred to as an AVM system) that installs a plurality of cameras in a vehicle and shows a 360-degree omnidirectional image around the vehicle.

AVM 시스템은 차량 각 위치에 구비된 카메라들에 의해 촬영된 차량 주변의 영상을 조합하여, 운전자가 하늘에서 차량을 바라보는 듯한 탑뷰(Top View) 이미지 형식의 AVM 영상을 제공함으로써, 차량 주변 장애물을 표시하고 사각지대를 해소할 수 있는 장점이 있다.The AVM system combines the images around the vehicle captured by the cameras provided at each location of the vehicle, and provides AVM images in the form of a Top View image that looks like the driver is looking at the vehicle from the sky, thereby preventing obstacles around the vehicle. It has the advantage of being able to mark and eliminate blind spots.

AVM 시스템은 카메라 장착시 각 카메라의 공차를 보정하는 작업이 필수적이며, AVM 시스템이 설치된 차량은 AVM 영상의 생성을 위한 화면 정합성 기준에 맞도록 공차가 보정된 후 출고되고 있다.In the AVM system, it is essential to correct the tolerance of each camera when the camera is mounted, and the vehicle with the AVM system is shipped after the tolerance is corrected to meet the screen conformance criteria for the generation of the AVM image.

그러나 차량이 출고된 후 차량의 운행 도중 공차가 누적되면 화면 정합성이 낮아지게 된다. 이 경우, 누적 공차의 보정을 위해 운전자는 차량을 가지고 서비스 센터나 사업소를 방문하여야 하는 불편함이 있었다.However, if the tolerances accumulate during the operation of the vehicle after the vehicle is shipped, the screen consistency is lowered. In this case, in order to correct the accumulated tolerance, the driver had the inconvenience of having to visit a service center or a business office with a vehicle.

한국등록특허 제10-0948886호(차량에 설치된 카메라의 공차 보정 장치 및 방법)Korean Registered Patent No. 10-0948886 (tolerance correction device and method for camera installed in a vehicle)

본 발명은 차량의 출고 후 AVM 카메라 장착 각도 변동되거나 타이어 공기압이 변화되는 등 다양한 이유로 누적 공차가 발생되었을 때에도 차량을 가지고 서비스 센터나 사업소를 방문할 필요없이 차량의 주행 중에 자동으로 공차 보정을 실시함으로써 고객 편의를 극대화되고, 공차 보정되지 않은 AVM 영상으로 인한 사고 발생 위험이 미연에 방지되는 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법을 제공하기 위한 것이다.The present invention is performed by automatically calibrating tolerances while driving a vehicle without having to visit a service center or a business site with the vehicle even when a cumulative tolerance occurs for various reasons such as an angle change of the AVM camera or a change in tire pressure after the vehicle is shipped. To maximize customer convenience and to provide an around view monitoring system and camera tolerance correction method that prevents the risk of accidents caused by uncorrected AVM images.

본 발명은 차량의 이동 중에 AVM 시스템용 카메라들에 대한 공차 보정이 이루어지기 때문에, 차량의 출고 이전에 각 카메라에 대한 공차 보정이 실시되지 않은 AVM 시스템뿐 아니라, 차량의 출고 이후에 공차 누적으로 인해 공차 보정이 요구되는 AVM 시스템에 범용적으로 활용될 수 있는 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법을 제공하기 위한 것이다.In the present invention, since tolerance correction is performed for cameras for the AVM system while the vehicle is moving, not only the AVM system in which tolerance correction for each camera is not performed before the vehicle is shipped, but also due to the accumulation of tolerances after the vehicle is shipped. It is to provide an around view monitoring system and a camera tolerance compensation method that can be widely used in AVM systems that require tolerance compensation.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Objects other than the present invention will be easily understood through the following description.

본 발명의 일 측면에 따르면, 차량의 전방, 우측면, 좌측면 및 후방 각각을 촬영하도록 장착된 복수의 카메라를 포함하는 카메라 유닛; 각 카메라에서 촬영된 촬영 영상에 상응하는 개별 탑뷰 영상에서 미리 지정된 기준에 따른 틀어짐이 존재하는지 여부를 판단하고, 틀어짐이 존재하면 촬영 영상을 상응하는 개별 탑뷰 영상으로 변환하기 위한 변환 규칙을 갱신하는 공차 보정 유닛; 및 상기 갱신된 변환 규칙과 상기 카메라 유닛에서 생성된 복수의 촬영 영상을 이용하여 AVM 영상을 생성하는 영상 합성부를 포함하는 어라운드 뷰 모니터링 시스템이 제공된다.According to an aspect of the present invention, a camera unit including a plurality of cameras mounted to photograph each of the front, right, left, and rear of a vehicle; Tolerances for determining whether or not there is a distortion according to a predetermined criterion in an individual top view image corresponding to a captured image taken by each camera, and updating the conversion rule for converting the captured image to a corresponding individual top view image if there is a distortion Correction unit; And an image synthesizing unit that generates an AVM image by using the updated conversion rule and a plurality of captured images generated by the camera unit.

상기 공차 보정 유닛은, 상기 카메라 유닛에서 제공되는 복수의 촬영 영상 각각을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 영상 변환부; 촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 정보 인식부; 각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 틀어짐 검출부; 틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출부가 상기 틀어짐 검출 기법의 적용에 따라 산출한 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 영상 보정부; 및 상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록 상기 변환 규칙을 갱신하는 변환 규칙 갱신부를 포함할 수 있다.The tolerance correction unit includes: an image conversion unit that converts each of a plurality of captured images provided by the camera unit into one or more of a peripheral image and an individual top view image according to a predetermined format; An information recognition unit for recognizing a target object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image; A distortion detection unit to determine whether each individual top-view image is distorted by applying a predetermined distortion detection technique to each individual top-view image; For each individual top view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the moved positions in a predetermined pixel unit. An image correction unit configured to detect location information of an image registration reference point having a minimum calculated value among the calculated values calculated by the distortion detection unit according to the application of the distortion detection method; And a conversion rule update unit that updates the conversion rule to correspond to the detected position information of the matched reference point.

상기 미리 지정된 틀어짐 검출 기법은 수학식

Figure 112018062587966-pat00001
을 이용하여 각 개별 탑뷰 영상의 틀어짐 추정값(G)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. 여기서,
Figure 112018062587966-pat00002
이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)일 수 있다.The predetermined distortion detection technique is an equation
Figure 112018062587966-pat00001
It is possible to calculate the calculated value, which is the distortion estimation value G of each individual top-view image, and determine that the distortion exists when the calculated calculated value exceeds a predetermined reference value. here,
Figure 112018062587966-pat00002
, V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image It may be an average lane angle (Radian) in the image α image.

상기 미리 지정된 틀어짐 검출 기법은 수학식

Figure 112018062587966-pat00003
을 이용하여 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. 여기서, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다.The predetermined distortion detection technique is an equation
Figure 112018062587966-pat00003
In order to generate an AVM image, a calculated value that is the total difference (D) of the pixel values in each blending area where each individual top-view image overlaps is calculated, and if the calculated calculated value exceeds a predetermined reference value, there is a distortion. You can judge that. Here, λ 1 and λ 2 are weight factors respectively designated so that the sum value satisfies 1, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β forms a blending region. Is a pixel value at a β position in the blending region of the first individual top view image, q β is a pixel value at a β position in the blending region of the second individual top view image forming the blending region, and δ is among the coordinate ranges of the blending region Of the surrounding objects recognized by the information recognition unit, a surrounding object having a height equal to or greater than a predetermined threshold value is in contact with the ground, and p δ is a pixel value at the δ position in the blending area of the first individual top-view image forming the blending area, q δ may be a pixel value of the δ position in the blending region of the second individual top-view image forming the blending region.

상기 미리 지정된 틀어짐 검출 기법은 수학식

Figure 112018062587966-pat00004
,
Figure 112018062587966-pat00005
Figure 112018062587966-pat00006
을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. The predetermined distortion detection technique is an equation
Figure 112018062587966-pat00004
,
Figure 112018062587966-pat00005
And
Figure 112018062587966-pat00006
By calculating the calculated value that is the degree of distortion (T) of the individual top view images, and if the calculated calculated value exceeds a predetermined reference value, it can be determined that the distortion exists.

여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며,

Figure 112018062587966-pat00007
이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다.Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image,
Figure 112018062587966-pat00007
, V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 are sums of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. and a pixel value, β q is the pixel value of the β position in the blending area of the second individual top view image to form a blended region, δ is the peripheral four recognized by the information identification portion in the coordinate range of the blending area In a position close to the object in contact with the ground with the advance over the specified threshold height, p δ is the pixel value of the δ position in the blending area of the first individual top view image to form a blended region, q δ is to form a blended region It may be a pixel value at the δ position in the blending region of the second individual top view image.

상기 정보 인식부는 차량의 진행 방향 및 허프(Hough) 성분 벡터를 특징 벡터로 구성하여 미리 지정된 분류기(Classifier)를 이용하여 분류함으로써 상기 차선을 인식할 수 있다.The information recognition unit may recognize the lane by classifying a traveling direction and a Hough component vector of the vehicle as a feature vector and classifying them using a predetermined classifier.

상기 정보 인식부는 상기 대상 영상에서 신호등, 보행자, 도로 바닥의 표시 정보, 주변 차량 중 하나 이상인 주변 사물을 더 인식하고, 인식된 주변 사물의 위치 정보는 복수의 개별 탑뷰 영상을 이용하여 상기 AVM 영상을 생성하기 위한 기준 정보로 이용될 수 있다.The information recognition unit further recognizes at least one of traffic lights, pedestrians, road floor display information, and surrounding objects in the target image, and the recognized location information of the surrounding objects uses the plurality of individual top view images to view the AVM image. It can be used as reference information to generate.

상기 정보 인식부는 미리 지정된 기계 학습 기법을 적용하여 주변 사물들 중 미리 지정된 기준을 만족하도록 신뢰도(confidence)가 평가된 주변 사물만을 인식 대상으로 한정할 수 있다.The information recognizing unit may limit a recognition object to a recognition object whose reliability is evaluated to satisfy a predetermined criterion among the surrounding objects by applying a predetermined machine learning technique.

상기 영상 보정부는, 차선의 각도와 블렌딩 영역에서의 픽셀값 차이가 최소가 되는 개별 탑뷰 영상 내의 대응점의 위치를 찾는 비용 함수 및 미리 지정된 최적화 기법 중 하나 이상을 적용하여 영상 정합 기준점을 이동시킬 수 있다.The image correction unit may move the image registration reference point by applying at least one of a predetermined optimization technique and a cost function for finding a position of a corresponding point in an individual top-view image in which a difference between a lane angle and a pixel value in a blending region is minimum. .

본 발명의 다른 측면에 따르면, 카메라 공차를 보정하기 위한 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨터로 하여금 이하의 단계들을 수행하도록 하며, 상기 단계들은, 카메라 유닛에 포함된 복수의 카메라에 의해 각각 생성된 촬영 영상을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 단계; 촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 단계; 각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 단계; 틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출 기법의 적용에 따라 산출된 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 단계; 및 상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록, 복수의 촬영 영상을 이용하여 AVM 영상을 생성하기 위한 변환 규칙을 갱신하는 단계를 포함하는 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램이 제공된다. According to another aspect of the present invention, a computer program stored in a computer-readable medium for correcting camera tolerance, the computer program causing the computer to perform the following steps, the steps comprising: a plurality of camera units Converting each of the captured images generated by the cameras of the camera into one or more of a peripheral image and an individual top view image according to a predefined format; Recognizing a surrounding object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image; Determining whether each individual top view image is distorted by applying a predetermined distortion detection method to each individual top view image; For each individual top view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the moved positions in a predetermined pixel unit. Detecting position information of an image registration reference point having a minimum calculated value among calculated values calculated according to the application of the distortion detection technique; And updating a conversion rule for generating an AVM image by using a plurality of captured images, so as to correspond to the detected location information of the matched reference point.

상기 틀어짐 검출 기법은 수학식

Figure 112018062587966-pat00008
,
Figure 112018062587966-pat00009
,
Figure 112018062587966-pat00010
을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. The distortion detection technique is an equation
Figure 112018062587966-pat00008
,
Figure 112018062587966-pat00009
,
Figure 112018062587966-pat00010
By calculating the calculated value that is the degree of distortion (T) of the individual top view images, and if the calculated calculated value exceeds a predetermined reference value, it can be determined that the distortion exists.

여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며,

Figure 112018062587966-pat00011
이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 인식된 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다.Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image,
Figure 112018062587966-pat00011
, V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 are sums of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. Is a pixel value of, q β is a pixel value of a β position in a blending region of a second individual top-view image forming a blending region, and δ is pre-designated among the recognized peripheral objects among coordinate ranges of the blending region. A position where a peripheral object having a height above a threshold is in contact with the ground, p δ is a pixel value at a position δ in the blending area of the first individual top-view image forming a blending area, and q δ is a second individual forming a blending area It may be a pixel value of δ in the blending area of the top view image.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 차량의 출고 후 AVM 카메라 장착 각도 변동되거나 타이어 공기압이 변화되는 등 다양한 이유로 누적 공차가 발생되었을 때에도 차량을 가지고 서비스 센터나 사업소를 방문할 필요없이 차량의 주행 중에 자동으로 공차 보정을 실시함으로써 고객 편의를 극대화되고, 공차 보정되지 않은 AVM 영상으로 인한 사고 발생 위험이 미연에 방지되는 효과가 있다.According to an embodiment of the present invention, even when a cumulative tolerance occurs for various reasons, such as a change in the angle of mounting the AVM camera or a change in tire pressure after leaving the vehicle, the vehicle is automatically operated while driving without having to visit a service center or a business office. By performing tolerance correction, there is an effect of maximizing customer convenience and preventing the risk of accidents due to AVM images that have not been corrected.

또한 차량의 이동 중에 AVM 시스템용 카메라들에 대한 공차 보정이 이루어지기 때문에, 차량의 출고 이전에 각 카메라에 대한 공차 보정이 실시되지 않은 AVM 시스템뿐 아니라, 차량의 출고 이후에 공차 누적으로 인해 공차 보정이 요구되는 AVM 시스템에 범용적으로 활용될 수 있는 효과도 있다.In addition, since the tolerance correction for the cameras for the AVM system is performed while the vehicle is moving, the tolerance correction is performed due to the accumulation of tolerances after the vehicle is shipped, as well as the AVM system in which tolerance correction for each camera is not performed before the vehicle is shipped. There is also an effect that can be universally used in the required AVM system.

도 1은 종래기술에 따른 공차 보정 방법을 설명하기 위한 도면.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 블록 구성도.
도 3 내지 도 8은 본 발명의 일 실시예에 따른 AVM 시스템의 공차 보정 동작을 설명하기 위한 도면.
도 9는 본 발명의 일 실시예에 따른 AVM 시스템의 카메라 공차 보정 방법을 나타낸 순서도.
1 is a view for explaining a tolerance correction method according to the prior art.
2 is a block diagram of an AVM system according to an embodiment of the present invention.
3 to 8 are views for explaining the tolerance correction operation of the AVM system according to an embodiment of the present invention.
9 is a flowchart illustrating a camera tolerance correction method of an AVM system according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be applied to various changes and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same components, regardless of reference numerals, are assigned the same or related reference numerals, and redundant description thereof will be omitted. In the description of the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

도 1은 종래기술에 따른 공차 보정 방법을 설명하기 위한 도면이다.1 is a view for explaining a tolerance correction method according to the prior art.

도 1에 예시된 바와 같이, 차량의 전면, 우측면, 좌측면 및 후면의 위치 각각에 카메라(10, 20, 30, 40)가 장착되고, 차량은 공차 보정을 위해 보정판(50)이 설치된 장소의 미리 지정된 위치에 배치된다. As illustrated in FIG. 1, the cameras 10, 20, 30, and 40 are mounted on the front, right, left, and rear positions of the vehicle, respectively, and the vehicle is installed in a place where the correction plate 50 is installed for tolerance correction. It is placed at a predetermined location.

보정판(50)은 차량의 전방 좌측 모서리, 전방 우측 모서리, 후방 좌측 모서리 및 후방 우측 모서리에 차량의 각 바퀴 축 선상에서 일정 거리 이격되도록 각각 배치될 수 있다. The compensator 50 may be disposed in front left corners, front right corners, rear left corners, and rear right corners of the vehicle to be spaced a predetermined distance from each wheel axis of the vehicle.

보정판(50)은 특징점의 추출 오류를 방지하기 위해 격자 모양의 무늬로 이루어질 수 있으며, 격자 모양의 무늬는 색상 대비가 강한 색들의 조합으로 이루어진다.The correction plate 50 may be formed of a grid-shaped pattern to prevent an extraction error of a feature point, and the grid-shaped pattern is a combination of colors having strong color contrast.

공차 보정을 위해 각 카메라(10, 20, 30, 40)에서 생성된 촬영 영상에서 보정판(50) 내 특징점의 좌표 정보가 추출되고, 해당 좌표 정보는 각 특징점에 대응되는 표준 좌표 정보와 비교되어 변환 행렬이 산출된다. 이때, 예를 들어 보정 알고리즘, 어파인(Affine) 변환 알고리즘, 호모그래피(Homography) 변환 알고리즘, 시점 변환 알고리즘 등을 적용하여 룩업 테이블도 생성될 수 있다.For tolerance correction, coordinate information of the feature points in the correction plate 50 is extracted from the captured image generated by each camera 10, 20, 30, 40, and the coordinate information is compared and converted to standard coordinate information corresponding to each feature point The matrix is calculated. At this time, for example, a lookup table may be generated by applying a correction algorithm, an affine transform algorithm, a homography transform algorithm, and a viewpoint transform algorithm.

이와 같이 생성된 변환 규칙(즉, 변환 행렬 및/또는 룩업 테이블)은 저장부에 저장되어 AVM 영상을 생성하기 위해 이용된다. The generated transformation rules (ie, transformation matrix and / or lookup table) are stored in the storage unit and used to generate the AVM image.

그러나 전술한 방법으로 차량의 출고 이전에, 또는 서비스 센터 등에서 생성된 변환 규칙은 차량의 운행 과정에서 카메라 장착 각도의 변동 등 누적 공차가 발생될 수 있고, 이 경우 서비스 센터나 사업소를 다시 방문하여 공차 보정을 재차 실시하여야 하는 불편함이 있다.However, in the above-described method, the conversion rule generated before the vehicle is released or generated in a service center may generate a cumulative tolerance, such as a change in the camera mounting angle, in the course of driving the vehicle. In this case, visit the service center or office again to allow the tolerance. There is the inconvenience of having to perform the calibration again.

도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 블록 구성도이고, 도 3 내지 도 8은 본 발명의 일 실시예에 따른 AVM 시스템의 공차 보정 동작을 설명하기 위한 도면이다.2 is a block diagram of an AVM system according to an embodiment of the present invention, and FIGS. 3 to 8 are views for explaining a tolerance correction operation of the AVM system according to an embodiment of the present invention.

도 2를 참조하면, AVM 시스템은 카메라 유닛(210), 공차 보정 유닛(220), 영상 합성부(230) 및 출력부(240)를 포함할 수 있다.Referring to FIG. 2, the AVM system may include a camera unit 210, a tolerance correction unit 220, an image synthesis unit 230, and an output unit 240.

카메라 유닛(200)에는 4개 이상의 AVM 시스템용 카메라가 포함될 수 있다. 카메라들은 차량의 전방, 후방, 좌측 및 우측 등의 미리 지정된 위치에 각각 설치될 수 있다. 카메라들은 예를 들어 광각 렌즈, 어안 렌즈 등과 같이 화각이 큰 카메라일 수 있다. 이외에, 카메라 유닛(200)은 차량의 전방, 후방 등의 미리 지정된 위치에 각각 설치되어 원거리의 영상을 촬영하는 협각 카메라를 더 포함할 수도 있다.The camera unit 200 may include four or more cameras for AVM systems. The cameras can be installed at predetermined positions such as front, rear, left and right of the vehicle, respectively. The cameras may be, for example, a wide-angle lens, a fish-eye lens, or the like, with a large angle of view. In addition, the camera unit 200 may further include a narrow-angle camera that is installed at a predetermined location, such as a front or rear of the vehicle, to photograph a long distance image.

각 카메라는 지정된 화각 및 설치 각도에 상응하여 3차원의 피사체를 촬영하여 2차원의 촬영 영상(도 3의 (a) 참조)을 생성하고, 생성된 촬영 영상은 공차 보정 유닛(220) 및/또는 영상 합성부(230)로 제공된다. 각 카메라에 의해 생성된 촬영 영상은 저장부(도시되지 않음)에 저장되어, 공차 보정 유닛(220) 등이 저장부에 접근하여 촬영 영상을 이용하도록 구성될 수도 있다.Each camera generates a two-dimensional photographed image (refer to (a) of FIG. 3) by photographing a three-dimensional object corresponding to a designated angle of view and an installation angle, and the generated photographed image is a tolerance correction unit 220 and / or It is provided to the image synthesis unit 230. The captured image generated by each camera is stored in a storage unit (not shown), and the tolerance correction unit 220 may be configured to access the storage unit and use the captured image.

공차 보정 유닛(220)은 복수의 촬영 영상을 합성하여 화면 정합성 기준에 부합하는 AVM 영상(도 3의 (d) 참조)이 생성될 수 있도록 하기 위해, 카메라 유닛(200)에 포함된 카메라들에서 각각 생성한 촬영 영상에 상응하도록 생성한 개별 탑뷰 영상(차량 우측을 촬영한 촬영 영상에 상응하는 개별 탑뷰 영상인 도 3의 (c) 참조)의 틀어짐 여부를 해석하여 각각의 개별 탑뷰 영상들이 화면 정합성 기준에 부합하는 AVM 영상으로 합성되도록 각 카메라에 상응하는 변환 규칙을 생성한다. To allow the tolerance correction unit 220 to synthesize a plurality of captured images and generate an AVM image (see (d) of FIG. 3) conforming to a screen matching standard, in the cameras included in the camera unit 200 Each individual top-view images are analyzed by analyzing whether the individual top-view images (refer to FIG. 3 (c), which are individual top-view images corresponding to the captured images taken on the right side of the vehicle) are distorted to correspond to the generated shot images. The conversion rules corresponding to each camera are generated to be synthesized into AVM images meeting the standards.

여기서, 변환 규칙은 각 촬영 영상을 탑뷰 시점의 영상인 개별 탑뷰 영상으로 변환하기 위한 변환 행렬 및/또는 각 카메라의 왜곡 보정 알고리즘과 변환 행렬을 기초로 각 촬영 영상을 개별 탑뷰 영상으로 변환하도록 생성된 룩업 테이블(LUT) 등일 수 있다.Here, the conversion rule is generated to convert each shot image into a separate top view image based on a transformation matrix and / or a distortion correction algorithm and a transformation matrix of each camera to convert each shot image into an individual top view image that is a top view image. It may be a look-up table (LUT).

공차 보정 유닛(220)에서 생성한 변환 규칙은 저장부(도시되지 않음)에 저장되어 영상 합성부(230)가 카메라 유닛(200)에서 제공된 복수의 촬영 영상을 합성(예를 들어, 오버레이 방식 등)하여 차량 주변에 대한 탑뷰 시점의 AVM 영상을 생성하기 위해 이용될 수 있다. 영상 합성부(230)에 의해 생성된 AVM 영상은 예를 들어 디스플레이 장치 등인 출력부(230)를 통해 출력될 수 있다.The conversion rule generated by the tolerance correction unit 220 is stored in a storage unit (not shown), and the image synthesis unit 230 synthesizes a plurality of captured images provided by the camera unit 200 (for example, an overlay method, etc.) ) To generate an AVM image of a top-view point of view around the vehicle. The AVM image generated by the image synthesizing unit 230 may be output through the output unit 230, for example, a display device.

구체적으로, 공차 보정 유닛(220)은 영상 변환부(221), 정보 인식부(223), 틀어짐 검출부(225), 영상 보정부(227) 및 변환 규칙 갱신부(229)를 포함할 수 있다.Specifically, the tolerance correction unit 220 may include an image conversion unit 221, an information recognition unit 223, a distortion detection unit 225, an image correction unit 227, and a conversion rule update unit 229.

영상 변환부(221)는 카메라 유닛(210)의 각 카메라에서 제공되는 촬영 영상(도 3의 (a) 참조)에 상응하는 탑뷰 시점의 개별 탑뷰 영상(도 3의 (c) 참조)을 각각 생성한다. 영상 변환부(221)는 광각 렌즈 등을 이용하여 촬영된 촬영 영상을 모서리 영역의 왜곡이 보정되어 통상의 표준 렌즈에서 촬영된 영상의 형태를 가지는 주변 영상(도 3의 (b) 참조)으로 더 변환할 수도 있다.The image converter 221 generates individual top-view images (see FIG. 3 (c)) corresponding to the captured images (see (a) of FIG. 3) provided by each camera of the camera unit 210, respectively. do. The image converting unit 221 further converts the photographed image photographed using a wide-angle lens or the like into a peripheral image having a shape of an image photographed by a normal standard lens by correcting distortion of an edge region (see FIG. 3 (b)). You can also convert.

정보 인식부(223)는 촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 촬영된 주변 사물을 인식한다. 정보 인식부(223)에 의해 인식되는 주변 사물은 예를 들어 소실점(vanishing point), 도로, 차선, 신호등, 도로 바닥의 표시 정보(예를 들어, 횡단보도, 주차선 등), 보행자, 주변 차량 등 중 하나 이상일 수 있다.The information recognizing unit 223 recognizes a captured surrounding object by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image. The surrounding objects recognized by the information recognizing unit 223 include, for example, vanishing points, roads, lanes, traffic lights, and road marking information (for example, pedestrian crossings, parking lines, etc.), pedestrians, and surrounding vehicles. And more.

정보 인식부(223)는 카메라에 상응하는 각 대상 영상에서 주변 사물을 인식하기 위해 미리 지정된 인식 기법(예를 들어 허프 변환(Hough Transform), 푸리에 변환(Fourier Transform), 교차율(cross ratio)을 이용한 방법, 색상 정보를 이용하는 방법 등 중 하나 이상)을 이용할 수 있다.The information recognizing unit 223 uses predetermined recognition techniques (eg, Hough Transform, Fourier Transform, and cross ratio) to recognize surrounding objects in each target image corresponding to the camera. Method, one or more of methods using color information, and the like).

정보 인식부(223)는 예를 들어, 대상 영상에서 차선, 차량 주위의 보도 블록 등을 활용하여 평행한 직선이 만나는 점인 소실점을 인식할 수 있다. The information recognizing unit 223 may recognize, for example, a vanishing point that is a point where parallel straight lines meet by using lanes, sidewalk blocks around a vehicle, and the like in the target image.

도 4에 예시된 바와 같이, 원근 시점(perspective view)에서 모든 평행한 직선은 하나의 점에서 만나게 되므로, 정보 인식부(223)는 촬영 영상 또는/및 주변 영상인 원근 시점 영상에 존재하는 직선 요소들을 추출하여 예를 들어 RANSAC(RANdom SAample Consensus) 알고리즘, Mean Square Error(MSE) 방법 등을 이용하여 가장 많은 직선이 교차하는 점인 소실점을 검출할 수 있다.As illustrated in FIG. 4, in the perspective view, all parallel straight lines meet at one point, so the information recognition unit 223 is a straight line element present in the perspective image, which is a captured image and / or a surrounding image. By extracting them, the vanishing point, which is the point where the most straight lines cross, can be detected using, for example, the RANSAC (RANdom SAample Consensus) algorithm, the Mean Square Error (MSE) method, and the like.

또한, 정보 인식부(223)는 소실점을 검출한 후, 예를 들어 차량의 진행 방향, Hough 성분 벡터 등을 특징 벡터로 구성하여 SVM(Support Vector Machine)과 같은 분류기(Classifier)를 이용해 분류함으로써 기존의 단순 도로상의 직선 성분 만을 이용해서 차선을 인식하는 방식에 비해 좀 더 정확하게 차선을 인식하도록 설정될 수 있다.In addition, the information recognition unit 223 detects the vanishing point, and then, for example, configures a vehicle's traveling direction, a Hough component vector, etc. as a feature vector and classifies it using a classifier such as a support vector machine (SVM). It can be set to recognize the lane more accurately than the method of recognizing the lane by using only a straight line component on the road.

정보 인식부(223)는 예를 들어 영역별 이진화 방법, x축 히스토그램을 이용한 방법, Morphology Dilation 연산, 횡단보도에 대한 특징 벡터와 SVM 기계 학습 등을 이용하여 횡단 보도를 검출하도록 설정될 수도 있다. 또한 영상 내에 포함된 물체에 대한 외곽선 추출, 색상 분석 등의 방식으로 주변 사물을 인식할 수도 있다.The information recognition unit 223 may be set to detect a crosswalk using, for example, a binarization method for each region, a method using an x-axis histogram, a morphology dilation operation, a feature vector for crosswalk, and SVM machine learning. Also, surrounding objects may be recognized by methods such as outline extraction and color analysis of objects included in the image.

횡단보도, 주차선, 바닥면에 표시된 다양한 기호, 보행자 등과 같은 주변 사물을 인식함에 있어 정확성을 향상시키기 위해, 정보 인식부(223)에는 미리 지정된 기계 학습 기법(예를 들어 아다부스트(Adaboost), SVM(Support Vector Machine) 등의 섈로 러닝(Shallow Learning) 기법, CNN(Convolution Neural Network) 등의 딥 러닝(Deep Learning) 기법 등)이 적용될 수 있다. In order to improve accuracy in recognizing surrounding objects such as pedestrian crossings, parking lines, various symbols displayed on the floor, pedestrians, etc., the information recognition unit 223 includes a predetermined machine learning technique (for example, Adaboost, A shallow learning technique such as a support vector machine (SVM) or a deep learning technique such as a convolution neural network (CNN) may be applied.

차선 이외의 주변 사물에 대해서는 기계 학습 기법을 이용하여 인식된 주변 사물들 중 미리 지정된 기준에 따라 신뢰도(confidence)가 높게 평가된 주변 사물만을 인식 대상으로 선택하도록 미리 설정될 수도 있을 것이다.Peripheral objects other than the lane may be set in advance to select, as a recognition target, only peripheral objects having high reliability according to a predetermined criterion among peripheral objects recognized using a machine learning technique.

정보 인식부(223)에 의해 인식된 보행자, 횡단보도 등의 주변 사물의 위치 정보는 각각의 개별 탑뷰 영상을 AVM 영상으로 정합할 때 기준 정보로 이용될 수도 있다.The location information of surrounding objects such as pedestrians and pedestrian crossings recognized by the information recognizing unit 223 may be used as reference information when matching each individual top view image to an AVM image.

틀어짐 검출부(225)는 카메라 유닛(210)에 포함된 각 카메라에 상응하는 개별 탑뷰 영상에 포함된 주변 사물(예를 들어, 차선 등)이 틀어진 형태로 존재하는지 여부를 판단한다. 개별 탑뷰 영상에서 틀어진 형태로 주변 사물이 존재하는 경우는 예를 들어 카메라 장착 각도가 변동되거나 타이어 공기압이 변동되는 등 다양한 원인으로 발생될 수 있다. The distortion detection unit 225 determines whether surrounding objects (eg, lanes, etc.) included in an individual top view image corresponding to each camera included in the camera unit 210 exist in a wrong shape. In the case of surrounding objects in a distorted form in an individual top view image, it may be caused by various reasons, for example, the camera mounting angle is changed or the tire air pressure is changed.

도 5에는 카메라 유닛(210)의 각 카메라에 상응하는 개별 탑뷰 영상(510, 512, 514, 516)이 예시되어 있다. 각 개별 탑뷰 영상(510, 512, 514, 516)을 참조할 때, 전방의 개별 탑뷰 영상(510)에서 보이는 차선의 형상이 다른 개별 탑뷰 영상(512, 514, 516)에서 보이는 차선의 형상과 일관성을 가지 못하는 것을 확인할 수 있다. 이 경우, 전방의 개별 탑뷰 영상(510)이 틀어진 것으로 판단할 수 있는 것이다.5, individual top view images 510, 512, 514, and 516 corresponding to each camera of the camera unit 210 are illustrated. When referring to each individual top view image (510, 512, 514, 516), the shape of the lane shown in the front individual top view image (510) is consistent with the shape of the lane shown in other individual top view images (512, 514, 516). You can see that you can't go. In this case, it may be determined that the individual top view image 510 in the front is wrong.

틀어짐 검출부(225)는 개별 탑뷰 영상의 틀어짐 정도는 예를 들어 개별 탑뷰 영상에서 인식된 차선의 각도 편차, AVM 영상을 생성하기 위해 각 개별 탑뷰 영상들이 겹쳐지는 블렌딩(blending) 영역의 픽셀값 전체 차이 등 중 하나 이상을 이용하여 인식될 수 있다. In the distortion detection unit 225, the degree of distortion of the individual top-view images is, for example, the angular deviation of the lanes recognized in the individual top-view images, and the overall difference in pixel values of the blending regions in which the individual top-view images overlap to generate an AVM image. It can be recognized using one or more of the.

제1 기법으로, VF(전방), VR(우측), VL(좌측) 및 VB(후방)인 각 개별 탑뷰 영상에서 추출된 차선의 평균 각도를 μα라고 하면, 틀어짐 검출부(225)는 각 개별 탑뷰 영상의 틀어짐 추정값(G)을 하기 수학식 1에 의해 산출할 수 있다.As a first technique, if the average angle of the lanes extracted from each individual top view image of V F (front), V R (right), V L (left) and V B (rear) is μ α , the distortion detection unit 225 ) Can calculate the distortion estimate value (G) of each individual top-view image by Equation 1 below.

Figure 112018062587966-pat00012
Figure 112018062587966-pat00012

여기서,

Figure 112018062587966-pat00013
이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이다.here,
Figure 112018062587966-pat00013
, And μ α is the average lane angle (Radian) in one individual top-view image, α image.

수학식 1에 의해, 개별 탑뷰 영상에서 인식된 차선의 각도와 90도(π/2) 사이의 편차의 합이 연산된다. 이때, 정보 인식부(223)가 미리 지정된 임계값 이상의 신뢰도(confidence)를 가지는 것으로 판단한 차선들만이 연산 대상으로 선택될 수 있다. According to Equation 1, the sum of the deviation between the angle of the lane recognized in the individual top view image and 90 degrees (π / 2) is calculated. At this time, only lanes determined by the information recognition unit 223 to have a confidence level greater than or equal to a predetermined threshold may be selected as a calculation target.

따라서, 개별 탑뷰 영상에서 여러 방향으로 분산된 차선이 여러 개 존재하는 경우에는 현재 차량의 진행 방향과 미리 지정된 기준에 따라 유사한 방향의 차선만이 선택되어 해당 개별 탑뷰 영상에서의 평균 차선 각도가 산출될 수 있고, 이를 이용하여 개별 탑뷰 영상의 틀어짐 추정값이 산출될 수 있다.Therefore, in the case where there are multiple lanes distributed in various directions in the individual top view images, only the lanes in a similar direction are selected according to a current vehicle's traveling direction and a predetermined criterion, and an average lane angle in the corresponding individual top view images is calculated. In addition, a distortion estimation value of an individual top view image may be calculated using the same.

제2 기법으로, 틀어짐 검출부(225)는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역(도 6의 610 내지 640 참조) 각각에서의 픽셀값 전체 차이(D)를 연산하는 하기 수학식 2에 의해 각 개별 탑뷰 영상의 틀어짐 정도를 산출할 수도 있다. 여기서, 픽셀값은 예를 들어 픽셀의 밝기값일 수 있다.As a second technique, the distortion detection unit 225 calculates the overall difference (D) of the pixel values in each of the blending regions (see 610 to 640 of FIG. 6) where each individual top-view image overlaps to generate an AVM image. Equation 2 can also calculate the degree of distortion of each individual top view image. Here, the pixel value may be, for example, a pixel brightness value.

Figure 112018062587966-pat00014
Figure 112018062587966-pat00014

여기서, λ1과 λ2는 가중치 팩터(factor)로서, λ1과 λ2의 합산값이 1을 만족하도록 각각 설정될 수 있다. B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값일 수 있다. 또한, δ는 블렌딩 영역의 좌표 범위 중에서 정보 인식부(223)에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체(예를 들어, 보행자, 주변 차량 등)가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다. Here, λ 1 and λ 2 are weight factors, and may be respectively set so that the sum of λ 1 and λ 2 satisfies 1. B is a coordinate range of the blending region, β is one of the coordinate ranges of the blending region, p β is a pixel value at the β location in the blending region of the first individual top-view image forming the blending region, and q β is the blending region. It may be a pixel value at a β position in the blending region of the second individual top-view image forming the region. In addition, δ is a position where a surrounding object (for example, a pedestrian, a surrounding vehicle, etc.) having a height equal to or higher than a predetermined threshold among the surrounding objects recognized by the information recognition unit 223 among the coordinate ranges of the blending area, is in contact with the ground, p δ may be a pixel value at a δ position in the blending region of the first individual top-view image forming the blending region, and q δ may be a pixel value at δ position in the blending region of the second individual top-view image forming the blending region.

가중치 팩터 λ1은 블렌딩 영역에 속하는 각 픽셀의 픽셀값 차이들의 합산값에 적용되는 가중치 팩터이고, 가중치 팩터λ2는 블렌딩 영역에 속하는 픽셀들 중 임계값 이상의 높이를 가지는 주변 물체의 지면과 맞닿는 위치의 픽셀들의 픽셀값 차이들의 합산값에 적용되는 가중치 팩터이다. The weight factor λ 1 is a weight factor applied to the sum of pixel value differences of each pixel belonging to the blending area, and the weight factor λ 2 is a position in contact with the ground of a surrounding object having a height above a threshold among pixels belonging to the blending area. Is a weight factor applied to the sum of the pixel value differences of the pixels of.

따라서, 가중치 팩터인 λ2가 최소값 0부터 최대값 1의 범위 내에서 상대적으로 큰 값으로 설정될수록 정보 인식부(223)에 의해 인식된 주변 사물들 중 높이가 있는 물체(보행자, 차량 등)가 보다 중시되어 개별 탑뷰 영상의 틀어짐 정도가 산출될 수 있게 된다. 전술한 바와 같이, 주변 사물의 위치 정보가 AVM 영상을 생성할 때 기준 위치로 이용될 수 있음을 감안할 때 가중치 팩터인 λ2의 크기 설정은 특정한 의미를 가지게 될 수도 있을 것이다. 물론, 필요에 따라서는 λ1과 λ2 중 어느 하나가 0(zero)로 선정될 수도 있을 것이다. Accordingly, as the weight factor λ 2 is set to a relatively large value within the range of the minimum value 0 to the maximum value 1, an object having a height (pedestrian, vehicle, etc.) among surrounding objects recognized by the information recognition unit 223 is increased. More importantly, the degree of distortion of individual top view images can be calculated. As described above, considering that the location information of the surrounding objects can be used as a reference location when generating the AVM image, the size setting of the weight factor λ 2 may have a specific meaning. Of course, if necessary, any one of λ 1 and λ 2 may be selected as 0 (zero).

λ1과 λ2은 예를 들어 각각 0.5로 설정될 수도 있으나, 반복된 테스트를 통해 실험적, 통계적인 최적값으로 선정될 수 있으며, 테스트 결과 데이터가 축적된 이후에는 미리 지정된 최적화 알고리즘을 이용하여 주변 환경에 적응적인 최적값으로 각각 선정될 수도 있다.λ 1 and λ 2 may be set to 0.5, for example, respectively, but may be selected as experimental and statistical optimal values through repeated tests, and after the test result data is accumulated, a predetermined optimization algorithm is used to surround it. Each may be selected as an optimal value adaptive to the environment.

틀어짐 검출부(225)는 전술한 제1 기법에 의해 산출된 틀어짐 추정값(G) 및 제2 기법에 의해 산출된 블렌딩 영역 각각의 픽셀값 전체 차이(D) 중 어느 하나를 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)를 산출할 수도 있으나, 하기 수학식 3과 같이 제1 기법과 제2 기법의 결과값을 가중 연산하는 제3 기법을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)를 산출할 수도 있다.The distortion detection unit 225 uses any one of the distortion estimation value (G) calculated by the first technique and the overall difference (D) of each pixel value of the blending region calculated by the second technique, thereby distorting the individual top view images. Although the degree T may be calculated, the degree of distortion T of individual top view images may be calculated by using a third technique that weights the results of the first and second techniques as shown in Equation 3 below. .

Figure 112018062587966-pat00015
Figure 112018062587966-pat00015

여기서, ω1과 ω2는 가중치 팩터(factor)로서, ω1과 ω2의 합산값이 1을 만족하도록 각각 설정된다. Here, ω 1 and ω 2 are weight factors, and are respectively set such that the sum of ω 1 and ω 2 satisfies 1.

ω1이 ω2에 비해 상대적으로 크게 설정되는 경우 전술한 수학식 1에서 산출된 개별 탑뷰 영상 내의 틀어짐 추정값(G)을 중시하여 개별 탑뷰 영상의 틀어짐 정도(T)가 산출되고, ω2가 ω1에 비해 상대적으로 크게 설정되는 경우 전술한 수학식 2에서 산출된 블렌딩 영역을 형성하는 서로 다른 개별 탑뷰 영상들간의 차선의 틀어짐 차이가 중시된 개별 탑뷰 영상의 틀어짐 정도(T)가 산출된다. When ω 1 is set relatively large compared to ω 2 , the degree of distortion (T) of the individual top view images is calculated by focusing on the distortion estimation value (G) in the individual top view images calculated in Equation 1 above, and ω 2 is ω When it is set relatively large compared to 1 , the degree of distortion T of individual top-view images, in which the difference in lane distortion between different individual top-view images forming the blending region calculated in Equation 2 above, is emphasized is calculated.

물론, 제1 기법 또는 제2 기법의 결과만을 적용하여 개별 탑뷰 영상의 틀어짐 정도(T)를 산출하고자 하는 경우, ω1과 ω2 중 어느 하나는 0(zero)로 선정될 수도 있을 것이다. Of course, when only the results of the first technique or the second technique are applied to calculate the degree of distortion (T) of the individual top-view images, one of ω 1 and ω 2 may be selected as 0 (zero).

ω1과 ω2은 예를 들어 각각 0.5로 설정될 수도 있으나, 반복된 테스트를 통해 실험적, 통계적인 최적값으로 선정될 수 있으며, 테스트 결과 데이터가 축적된 이후에는 미리 지정된 최적화 알고리즘을 이용하여 주변 환경에 적응적인 최적값으로 각각 선정될 수도 있다. ω 1 and ω 2 may be set to 0.5, for example, respectively, but may be selected as experimental and statistical optimal values through repeated tests, and after the test result data is accumulated, a predetermined optimization algorithm is used to surround it. Each may be selected as an optimal value adaptive to the environment.

영상 보정부(227)는 틀어짐 검출부(225)에 의해 미리 지정된 기준값을 초과하는 틀어짐 정도를 가지는 개별 탑뷰 영상에 대해 영상 보정 작업을 실시한다. The image correction unit 227 performs image correction on individual top-view images having a degree of distortion exceeding a predetermined reference value by the distortion detection unit 225.

영상 보정 작업은 도 7 및 도 8에 예시된 바와 같이, AVM 영상을 생성하도록 미리 저장된 4개의 영상 정합 기준점(710) 각각의 위치를 해당 위치로부터 각각 미리 지정된 픽셀 단위(예를 들어 1픽셀)로 상, 하, 좌 또는 우의 방향으로 옮기고, 해당 시점에서의 영상 정합 기준점(710)의 위치 정보와 틀어짐 검출부(225)에 의해 연산된 각 개별 탑뷰 영상에 대한 산출값을 저장한다. As illustrated in FIGS. 7 and 8, the image correction operation is performed in such a manner that each location of each of the four image registration reference points 710 pre-stored to generate an AVM image is assigned to a predetermined pixel unit (for example, 1 pixel) from the location. It moves in the direction of up, down, left or right, and stores the position information of the image registration reference point 710 at the corresponding time point and the calculated value for each individual top view image calculated by the distortion detection unit 225.

산출값은 예를 들어 제1 기법에 의해 개별 탑뷰 영상에서 추출된 차선의 평균 각도를 이용하여 산출된 개별 탑뷰 영상의 틀어짐 추정값(G)이거나, 제2 기법에 의해 AVM 영상을 생성하기 위해 중첩된 복수의 개별 탑뷰 영상의 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)이거나, 또는 제3 기법에 의해 이들을 가중 합산한 틀어짐 정도(T)일 수 있다.The calculated value is, for example, a distortion estimation value (G) of the individual top view images calculated using the average angle of the lane extracted from the individual top view images by the first technique, or superimposed to generate an AVM image by the second technique. It may be a total difference (D) of pixel values in each of the blending regions of the plurality of individual top-view images, or a distortion degree (T) of weighting and summing them by a third technique.

영상 보정부(227)는 미리 지정된 영역 범위 내에서 개별 탑뷰 영상 내의 영상 정합 기준점(710)의 위치를 각각 변경하면서 산출한 각각의 산출값 중 최소의 크기를 가지는 산출값을 검출하고, 이에 상응하도록 저장된 4개의 영상 정합 기준점(710) 각각의 위치 정보를 검출한다. The image correction unit 227 detects an output value having the smallest size among the respective calculation values calculated while changing the positions of the image registration reference points 710 in the individual top-view images within a predetermined area range, so as to correspond to this Position information of each of the four stored image registration reference points 710 is detected.

각각의 영상 정합 기준점(710)을 이동시킬 때, 예를 들어 RANSAC, Gradient Descendent 방법 등의 미리 지정된 최적화 방법이 이용될 수도 있다.When moving each image registration reference point 710, a predefined optimization method, such as, for example, RANSAC, Gradient Descendent method, may be used.

또한 영상 보정부(227)는 영상 정합 기준점(710)이 이동될 최적의 위치를 결정하기 위해, 차선의 각도 차이 및/또는 블랜딩 영역에서의 픽셀값 차이가 최소화되는 개별 탑뷰 영상 내의 대응점의 위치를 찾는 비용 함수(cost function)을 더 이용할 수도 있다.In addition, the image correction unit 227 determines the position of the corresponding point in the individual top view image in which the angular difference in the lane and / or the pixel value difference in the blending area is minimized to determine the optimal position to which the image registration reference point 710 is to be moved. You can also use the cost function you are looking for.

이러한 과정으로 검출된 영상 정합 기준점(710)은 카메라 유닛(210)의 각 카메라에 상응하는 개별 탑뷰 영상을 이용하여 AVM 영상을 생성할 때 가장 화면 정합도가 높은 AVM 영상을 생성할 수 있도록 하는 기준 정보로 이용될 수 있으며, 새로운 영상 정합 기준점(710)으로 갱신 저장될 수 있다. 물론, 각각의 개별 탑뷰 영상을 이용하여 AVM 영상을 생성할 때 정보 인식부(223)에 의해 인식된 주변 사물의 위치 정보가 영상 정합을 위한 기준 정보로 더 이용될 수도 있다.The image matching reference point 710 detected through this process is a criterion for generating an AVM image with the highest screen matching when generating an AVM image using a separate top view image corresponding to each camera of the camera unit 210. It may be used as information, and may be updated and stored as a new image registration reference point 710. Of course, when generating an AVM image using each individual top view image, the location information of the surrounding objects recognized by the information recognition unit 223 may be further used as reference information for image matching.

다시 도 2를 참조하면, 영상 보정부(227)에 의해 영상 정합 기준점(710)의 위치가 결정되면, 변환 규칙 갱신부(229)는 이에 상응하도록 카메라 유닛(210)의 각 카메라에 대한 변환 규칙을 생성한다. 생성된 변환 규칙은 저장부(도시되지 않음)에 저장될 수 있다.Referring back to FIG. 2, when the position of the image registration reference point 710 is determined by the image correction unit 227, the conversion rule update unit 229 converts the conversion rules for each camera of the camera unit 210 to correspond to this. Produces The generated conversion rule may be stored in a storage unit (not shown).

변환 규칙은 각 촬영 영상을 탑뷰 시점의 영상으로 변환하기 위한 변환 행렬 및/또는 각 카메라의 왜곡 보정 알고리즘과 변환 행렬을 기초로 각 촬영 영상을 탑뷰 시점 영상으로 변환하도록 생성된 룩업 테이블(LUT) 등일 수 있다.The conversion rules include a transformation matrix for converting each shot image to a top view image and / or a lookup table (LUT) generated to convert each shot image to a top view image based on a distortion correction algorithm and a transformation matrix of each camera. You can.

카메라에서 촬영된 촬영 영상을 탑뷰 시점의 영상으로 변환하는 변환 규칙을 생성하는 방법은 당업자에게 자명한 사항이므로 이에 대한 구체적인 설명은 생략한다. The method of generating a conversion rule for converting a captured image taken by a camera to an image of a top view is obvious to those skilled in the art, so a detailed description thereof will be omitted.

영상 합성부(230)는 카메라 유닛(210)에서 제공되는 촬영 영상과 미리 저장된 변환 규칙을 이용하여 차량 주변에 대한 공차 보정된 탑뷰 시점의 AVM 영상을 생성하고, 출력부(240)를 통해 출력한다. The image synthesizing unit 230 generates an AVM image of a tolerance-corrected top view point around the vehicle using the captured image provided in the camera unit 210 and a pre-stored conversion rule, and outputs it through the output unit 240. .

전술한 바와 같이, 본 실시예에 따른 AVM 시스템은 각 카메라에서 촬영된 촬영 영상(도 3의 (a) 참조), 촬영 영상을 이용하여 생성한 주변 영상(도 3의 (b) 참조) 또는 개별 탑뷰 영상(도 3의 (c) 참조)인 대상 영상에서 소실점, 차선, 횡단보도 등 주변 사물을 인식하고, 인식된 주변 사물을 참조하여 개별 탑뷰 영상의 틀어짐 여부를 판단한다. As described above, in the AVM system according to the present embodiment, a captured image captured by each camera (see FIG. 3 (a)), a peripheral image generated using the captured image (see FIG. 3 (b)), or individually In the target image, which is a top view image (see (c) of FIG. 3), surrounding objects such as vanishing points, lanes, and pedestrian crossings are recognized, and whether the individual top view images are distorted is determined by referring to the recognized surrounding objects.

만일 개별 탑뷰 영상에서 틀어짐이 존재하는 경우 틀어짐이 개선되도록 개별 탑뷰 영상을 보정하고, 이에 상응하는 변환 규칙을 생성하여 정합성 기준을 만족하는 AVM 영상을 생성하여 출력할 수 있도록 하는 특징이 있다. If there is a distortion in the individual top view image, the individual top view image is corrected to improve the distortion, and a corresponding conversion rule is generated to generate and output an AVM image that satisfies the consistency criteria.

따라서, 차량의 출고 후 누적 공차가 발생되었거나 차량의 출고 이전에 공차 보정이 실시되지 않은 경우에도, 차량의 주행 중에 자동으로 공차 보정이 실시됨으로써 고객 편의가 극대화되고, 공차 보정되지 않은 AVM 영상으로 인한 사고 발생 위험이 미연에 방지되는 장점이 있다.Therefore, even if a cumulative tolerance occurs after the vehicle is shipped or the tolerance correction is not performed before the vehicle is shipped, the tolerance correction is automatically performed during the driving of the vehicle, thereby maximizing customer convenience and due to the uncorrected AVM image There is an advantage that the risk of accident occurrence is prevented.

도 9는 본 발명의 일 실시예에 따른 AVM 시스템의 카메라 공차 보정 방법을 나타낸 순서도이다.9 is a flowchart illustrating a camera tolerance correction method of an AVM system according to an embodiment of the present invention.

도 9를 참조하면, 단계 910에서 AVM 시스템은 원근 시점의 영상을 이용하여 주변 사물(예를 들어, 차선, 횡단보도, 보행자 등)을 인식한다. 원근 시점의 영상은 카메라 유닛(210)의 각 카메라에서 촬영된 각각의 촬영 영상이거나, 통상의 표준 렌즈에서 촬영된 영상의 형태를 가지도록 각 촬영 영상의 모서리 영역 왜곡이 보정되어 생성된 각 주변 영상일 수 있다.Referring to FIG. 9, in step 910, the AVM system recognizes surrounding objects (eg, lanes, pedestrian crossings, pedestrians, etc.) using an image from a perspective. The perspective view image is each shot image taken by each camera of the camera unit 210, or each peripheral image generated by correcting the distortion of the corners of each shot image so that it has the shape of an image shot by a normal standard lens. Can be

AVM 시스템은 차선을 인식하기 위해, 예를 들어, 원근 시점의 영상에서 직선 요소들을 검출하고, RANSAC 알고리즘, MSE 방법 등을 이용하여 가장 많은 직선이 교차하는 점인 소실점을 검출할 수도 있고, 특징 벡터(예를 들어 차량의 진행 방향, Hough 성분 벡터 등)와 분류기를 이용할 수도 있다. 또한, 주변 사물의 인식을 위해 영역별 이진화 방법, 외곽선 검출 및 색상 분석 등의 방식을 이용할 수 있고, 신뢰도 높은 주변 사물의 검출을 위해 기계 학습 기법이 적용될 수도 있다.In order to recognize the lane, the AVM system may detect, for example, linear elements in an image at a perspective, and may use a RANSAC algorithm, an MSE method, or the like, to detect a vanishing point, which is the point where the most straight lines intersect, and feature vectors ( For example, the direction of travel of the vehicle, Hough component vectors, etc.) and classifiers can also be used. In addition, a method such as binarization for each area, outline detection, and color analysis may be used for recognition of surrounding objects, and machine learning techniques may be applied for detection of highly reliable surrounding objects.

단계 920에서, AVM 시스템은 검출된 주변 사물(예를 들어 차선)이 각 카메라에 대응되는 개별 탑뷰 영상에서 틀어짐 판단을 위한 산출값을 산출한다.In step 920, the AVM system calculates a calculated value for determining that the detected surrounding objects (eg, lanes) are distorted in individual top-view images corresponding to each camera.

앞서 설명한 바와 같이, 개별 탑뷰 영상이 틀어짐 판단을 위한 산출값은 예를 들어 제1 기법에 의해 개별 탑뷰 영상에서 추출된 차선의 평균 각도를 이용하여 산출된 개별 탑뷰 영상의 틀어짐 추정값(G)이거나, 제2 기법에 의해 AVM 영상을 생성하기 위해 중첩된 복수의 개별 탑뷰 영상의 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)이거나, 또는 제3 기법에 의해 이들을 가중 합산하여 산출한 틀어짐 정도(T)일 수 있다.As described above, the calculated value for determining the individual top view image distortion is, for example, the distortion estimation value G of the individual top view image calculated using the average angle of the lane extracted from the individual top view image by the first technique, or The total difference (D) of pixel values in each of the blending regions of a plurality of individual top-view images superimposed to generate the AVM image by the second technique, or the degree of distortion (T) calculated by weighting and summing them by the third technique Can be

단계 930에서, AVM 시스템은 틀어짐이 존재하는 개별 탑뷰 영상이 존재하는지 여부를 판단한다. AVM 시스템은 예를 들어 산출된 산출값이 미리 지정된 기준값을 초과하는 경우 해당 개별 탑뷰 영상이 틀어진 것으로 판단할 수 있다.In step 930, the AVM system determines whether an individual top view image with distortion exists. The AVM system, for example, may determine that the corresponding individual top view image is wrong when the calculated output value exceeds a predetermined reference value.

만일 틀어짐이 존재하는 개별 탑뷰 영상이 존재하지 않으면, AVM 시스템은 단계 950으로 진행하여 카메라 유닛(210)에서 제공된 촬영 영상과 미리 저장된 변환 규칙을 이용하여 차량 주변에 대한 탑뷰 시점의 AVM 영상을 생성하고, 출력부를 통해 출력한다.If there is no individual top view image with distortion, the AVM system proceeds to step 950 to generate the AVM image of the top view point around the vehicle using the captured image provided in the camera unit 210 and the pre-stored conversion rule. , Output through the output.

그러나 만일 틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상이 존재하면, 단계 940에서 AVM 시스템은 산출값이 최소화되도록 개별 탑뷰 영상을 보정하고, 이에 상응하도록 변환 규칙을 갱신한다. However, if there is an individual top-view image determined to exist, in step 940, the AVM system corrects the individual top-view image so that the output value is minimized, and updates the conversion rule accordingly.

개별 탑뷰 영상을 보정하고 상응하는 변환 규칙으로 갱신하기 위해, AVM 시스템은 예를 들어 AVM 영상을 생성하도록 미리 저장된 4개의 영상 정합 기준점 각각의 위치를 해당 위치로부터 미리 지정된 픽셀 간격만큼(예를 들어 1픽셀 간격) 상, 하, 좌 또는 우의 방향으로 옮기고, 해당 시점에서의 영상 정합 기준점의 위치 정보와 틀어짐 검출부에 의해 연산된 각 개별 탑뷰 영상에 대한 산출값을 저장한다. 이러한 처리는 개별 탑뷰 영상 내의 미리 지정된 영역 범위 내에서 영상 정합 기준점의 위치를 각각 변경하면서 반복된다. In order to correct individual top view images and update them with corresponding conversion rules, the AVM system, for example, positions each of the four image registration reference points pre-stored to generate an AVM image by a predetermined pixel interval from the location (eg 1 Pixel spacing) It moves in the direction of up, down, left or right, and stores the position information of the image registration reference point at the corresponding time point and the calculated value for each individual top view image calculated by the distortion detection unit. This process is repeated while changing the position of the image registration reference point within a predetermined area range in the individual top view image, respectively.

이어서, AVM 시스템은 산출된 산출값들 중 최소의 크기를 가지는 산출값을 검출하고, 이에 상응하도록 저장된 4개의 영상 정합 기준점 각각의 위치 정보를 검출하며, 검출된 4개의 영상 정합 기준점 각각의 위치 정보를 참조하여 갱신된 변환 규칙을 생성한다. Subsequently, the AVM system detects the calculated value having the smallest size among the calculated values, detects location information of each of the four image registration reference points stored correspondingly, and positions information of each of the four detected image registration reference points. Create an updated conversion rule with reference to.

단계 950에서, AVM 시스템은 카메라 유닛(210)에서 제공된 촬영 영상과 갱신 저장된 변환 규칙을 이용하여 차량 주변에 대한 공차 보정된 탑뷰 시점의 AVM 영상을 생성하고, 출력부를 통해 출력한다.In step 950, the AVM system generates a tolerance-corrected top-view AVM image for the vehicle surroundings using the captured image provided by the camera unit 210 and the updated stored conversion rule, and outputs it through the output unit.

상술한 공차 보정 방법은 시계열적 순서에 따라 자동화된 절차를 수행하도록 하는 컴퓨터 프로그램으로 구현될 수 있고, 구현된 프로그램이 컴퓨터 장치에 내장되거나 설치되어 구동될 수 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있을 것이다. It is natural that the above-described tolerance correction method may be implemented as a computer program that performs an automated procedure in a time-series order, and that the implemented program can be driven by being built in or installed in a computer device. The codes and code segments constituting the program may be easily inferred by a computer programmer in the field.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.The above has been described with reference to embodiments of the present invention, but those skilled in the art variously modify the present invention within the scope not departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can change it.

10, 20, 30, 40 : 카메라 50 : 보정판
210 : 카메라 유닛 220 : 공차 보정 유닛
221 : 영상 변환부 223 : 정보 인식부
225 : 틀어짐 검출부 227 : 영상 보정부
229 : 변환 규칙 갱신부 510, 512, 514, 516 : 개별 탑뷰 영상
610, 620, 630, 640 : 블렌딩 영역
710 : 영상 정합 기준점
10, 20, 30, 40: camera 50: calibration board
210: camera unit 220: tolerance correction unit
221: image conversion unit 223: information recognition unit
225: distortion detection unit 227: image correction unit
229: Conversion rule update unit 510, 512, 514, 516: individual top view video
610, 620, 630, 640: blending area
710: image registration reference point

Claims (11)

차량의 전방, 우측면, 좌측면 및 후방 각각을 촬영하도록 장착된 복수의 카메라를 포함하는 카메라 유닛;
각 카메라에서 촬영된 촬영 영상에 상응하는 개별 탑뷰 영상에서 미리 지정된 기준에 따른 틀어짐이 존재하는지 여부를 판단하고, 틀어짐이 존재하면 촬영 영상을 상응하는 개별 탑뷰 영상으로 변환하기 위한 변환 규칙을 갱신하는 공차 보정 유닛; 및
상기 갱신된 변환 규칙과 상기 카메라 유닛에서 생성된 복수의 촬영 영상을 이용하여 AVM 영상을 생성하는 영상 합성부를 포함하되,
상기 공차 보정 유닛은,
상기 카메라 유닛에서 제공되는 복수의 촬영 영상 각각을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 영상 변환부;
촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 정보 인식부;
각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 틀어짐 검출부;
틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출부가 상기 틀어짐 검출 기법의 적용에 따라 산출한 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 영상 보정부; 및
상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록 상기 변환 규칙을 갱신하는 변환 규칙 갱신부를 포함하고,
상기 미리 지정된 틀어짐 검출 기법은 하기 수학식을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
Figure 112019090797714-pat00036

Figure 112019090797714-pat00037

Figure 112019090797714-pat00038

여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며,
Figure 112019090797714-pat00039
이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값임.
A camera unit including a plurality of cameras mounted to photograph the front, right side, left side, and rear sides of the vehicle;
Tolerances for determining whether or not a distortion according to a predetermined criterion exists in an individual top view image corresponding to a captured image captured by each camera, and updating a conversion rule for converting a captured image to a corresponding individual top view image if a distortion exists. Correction unit; And
An image synthesis unit for generating an AVM image using the updated conversion rule and a plurality of captured images generated by the camera unit,
The tolerance correction unit,
An image converting unit converting each of the plurality of photographed images provided by the camera unit into one or more of a peripheral image and an individual top view image according to a predetermined format;
An information recognition unit for recognizing a surrounding object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image;
A distortion detection unit to determine whether each individual top-view image is distorted by applying a predetermined distortion detection technique to each individual top-view image;
For each top-view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the positions moved in a predetermined pixel unit. An image correction unit configured to detect location information of an image registration reference point having a minimum calculated value among the calculated values calculated by the distortion detection unit according to the application of the distortion detection method; And
And a conversion rule update unit that updates the conversion rule to correspond to the detected position information of the matched reference point,
The pre-specified distortion detection technique is characterized by calculating the calculated value that is the degree of distortion (T) of an individual top-view image using the following equation, and determining that the distortion exists when the calculated value exceeds a predetermined reference value. Around view monitoring system.
Figure 112019090797714-pat00036

Figure 112019090797714-pat00037

Figure 112019090797714-pat00038

Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image,
Figure 112019090797714-pat00039
, V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of the pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 have a sum of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. and a pixel value, β q is the pixel value of the β position in the blending area of the second individual top view image to form a blended region, δ is the peripheral four recognized by the information identification portion in the coordinate range of the blending area In a position close to the object in contact with the ground with the advance over the specified threshold height, p δ is the pixel value of the δ position in the blending area of the first individual top view image to form a blended region, q δ is to form a blended region Pixel value at position δ in the blending region of the second individual top view image.
삭제delete 제1항에 있어서,
상기 미리 지정된 틀어짐 검출 기법은 하기 수학식을 이용하여 각 개별 탑뷰 영상의 틀어짐 추정값(G)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
Figure 112019090797714-pat00040

여기서,
Figure 112019090797714-pat00041
이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)임.
According to claim 1,
The pre-specified distortion detection technique is characterized in that it calculates a distortion value (G) of each individual top-view image using the following equation, and determines that a distortion exists when the calculated value exceeds a predetermined reference value. Around view monitoring system.
Figure 112019090797714-pat00040

here,
Figure 112019090797714-pat00041
, V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the image, α image.
제1항에 있어서,
상기 미리 지정된 틀어짐 검출 기법은 하기 수학식을 이용하여 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
Figure 112019090797714-pat00042

여기서, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값임.
According to claim 1,
The predetermined distortion detection technique calculates a calculated value that is the total difference (D) of pixel values in each blending region where each individual top-view image overlaps to generate an AVM image using the following equation, and the calculated calculated value Around view monitoring system, characterized in that it is determined that there is a distortion when the predetermined reference value is exceeded.
Figure 112019090797714-pat00042

Here, λ 1 and λ 2 are weight factors respectively designated so that the sum value satisfies 1, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β forms a blending region. Is a pixel value at a β position in the blending region of the first individual top view image, q β is a pixel value at a β position in the blending region of the second individual top view image forming the blending region, and δ is among the coordinate ranges of the blending region Of the surrounding objects recognized by the information recognition unit, a surrounding object having a height equal to or greater than a predetermined threshold value is in contact with the ground, and p δ is a pixel value at the δ position in the blending area of the first individual top-view image forming the blending area, q δ is the pixel value of the δ position in the blending region of the second individual top-view image forming the blending region.
삭제delete 제1항에 있어서,
상기 정보 인식부는 차량의 진행 방향 및 허프(Hough) 성분 벡터를 특징 벡터로 구성하여 미리 지정된 분류기(Classifier)를 이용하여 분류함으로써 상기 차선을 인식하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
According to claim 1,
The information recognition unit is configured to configure the vehicle's traveling direction and Hough component vector as a feature vector, and classify it using a predefined classifier to recognize the lane.
제1항에 있어서,
상기 정보 인식부는 상기 대상 영상에서 신호등, 보행자, 도로 바닥의 표시 정보, 주변 차량 중 하나 이상인 주변 사물을 더 인식하고,
인식된 주변 사물의 위치 정보는 복수의 개별 탑뷰 영상을 이용하여 상기 AVM 영상을 생성하기 위한 기준 정보로 이용되는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
According to claim 1,
The information recognition unit further recognizes at least one of traffic lights, pedestrians, road floor information, and surrounding objects in the target image,
Around view monitoring system, characterized in that the recognized location information of surrounding objects is used as reference information for generating the AVM image using a plurality of individual top view images.
제7항에 있어서,
상기 정보 인식부는 미리 지정된 기계 학습 기법을 적용하여 주변 사물들 중 미리 지정된 기준을 만족하도록 신뢰도(confidence)가 평가된 주변 사물만을 인식 대상으로 한정하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
The method of claim 7,
The information recognition unit applies a pre-designated machine learning technique to surround the surrounding view monitoring system, characterized in that to limit only those objects whose reliability is evaluated to satisfy a predetermined criterion among surrounding objects.
제1항에 있어서,
상기 영상 보정부는, 차선의 각도와 블렌딩 영역에서의 픽셀값 차이가 최소가 되는 개별 탑뷰 영상 내의 대응점의 위치를 찾는 비용 함수 및 미리 지정된 최적화 기법 중 하나 이상을 적용하여 영상 정합 기준점을 이동시키는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
According to claim 1,
The image correction unit moves the image registration reference point by applying at least one of a predetermined optimization technique and a cost function for finding a position of a corresponding point in an individual top-view image in which a difference between a lane angle and a pixel value in a blending region is minimized. Around view monitoring system.
카메라 공차를 보정하기 위한 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨터로 하여금 이하의 단계들을 수행하도록 하며, 상기 단계들은,
카메라 유닛에 포함된 복수의 카메라에 의해 각각 생성된 촬영 영상을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 단계;
촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 단계;
각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 단계;
틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출 기법의 적용에 따라 산출된 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 단계; 및
상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록, 복수의 촬영 영상을 이용하여 AVM 영상을 생성하기 위한 변환 규칙을 갱신하는 단계를 포함하되,
상기 틀어짐 검출 기법은 하기 수학식을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램.
Figure 112019090797714-pat00043

Figure 112019090797714-pat00044

Figure 112019090797714-pat00045

여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며,
Figure 112019090797714-pat00046
이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 인식된 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값임.
A computer program stored in a computer-readable medium for correcting camera tolerance, the computer program causing the computer to perform the following steps, the steps comprising:
Converting each of the captured images generated by the plurality of cameras included in the camera unit into one or more of a peripheral image and an individual top view image according to a predetermined format;
Recognizing a surrounding object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image;
Determining whether each individual top view image is distorted by applying a predetermined distortion detection method to each individual top view image;
For each individual top view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the moved positions in a predetermined pixel unit. Detecting position information of an image registration reference point having a minimum calculated value among calculated values calculated according to the application of the distortion detection technique; And
And updating a conversion rule for generating an AVM image using a plurality of captured images, so as to correspond to the detected location information of the matched reference point.
The distortion detection method calculates a distortion value (T) of an individual top-view image by using the following equation, and when the calculated calculated value exceeds a predetermined reference value, it is determined that a distortion exists. -A computer program stored on a readable medium.
Figure 112019090797714-pat00043

Figure 112019090797714-pat00044

Figure 112019090797714-pat00045

Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image,
Figure 112019090797714-pat00046
, V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 are sums of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. Is the pixel value of, q β is the pixel value of the β position in the blending region of the second individual top-view image forming the blending region, and δ is pre-designated among the recognized peripheral objects among the coordinate ranges of the blending region. A position where a peripheral object having a height above a threshold is in contact with the ground, p δ is a pixel value at a position δ in the blending area of the first individual top-view image forming a blending area, and q δ is a second individual forming a blending area Pixel value at position δ in the blending area of the top view image.
삭제delete
KR1020180073290A 2018-06-26 2018-06-26 Around view monitoring system and calibration method for around view cameras KR102089343B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180073290A KR102089343B1 (en) 2018-06-26 2018-06-26 Around view monitoring system and calibration method for around view cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180073290A KR102089343B1 (en) 2018-06-26 2018-06-26 Around view monitoring system and calibration method for around view cameras

Publications (2)

Publication Number Publication Date
KR20200000953A KR20200000953A (en) 2020-01-06
KR102089343B1 true KR102089343B1 (en) 2020-03-16

Family

ID=69158930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180073290A KR102089343B1 (en) 2018-06-26 2018-06-26 Around view monitoring system and calibration method for around view cameras

Country Status (1)

Country Link
KR (1) KR102089343B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102481289B1 (en) * 2020-08-24 2022-12-27 오토아이티(주) Apparatus for providing vehicle AVM image for collision prevention of approaching objects
CN112184723B (en) * 2020-09-16 2024-03-26 杭州三坛医疗科技有限公司 Image processing method and device, electronic equipment and storage medium
KR102327860B1 (en) * 2021-06-14 2021-11-17 주식회사 에이스뷰 Method and system for monitoring multi channel around view for vehicle
CN113592960B (en) * 2021-08-18 2024-03-01 易思维(杭州)科技股份有限公司 Method for screening images containing specific features from multiple images
KR102543308B1 (en) * 2022-08-12 2023-06-14 주식회사 디티지코리아 method for generating vehicle around-view with 3.5D

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100948886B1 (en) 2009-06-25 2010-03-24 주식회사 이미지넥스트 Tolerance compensating apparatus and method for automatic vehicle-mounted camera
KR101772178B1 (en) * 2015-12-04 2017-08-25 엘지전자 주식회사 Land mark detecting apparatus and land mark detection method for vehicle
KR102457264B1 (en) * 2016-05-02 2022-10-20 현대모비스 주식회사 Around view monitoring system and method for compensating camera tolerance there of
KR20180040469A (en) * 2016-10-12 2018-04-20 엘지이노텍 주식회사 Method and apparatus for stitching image

Also Published As

Publication number Publication date
KR20200000953A (en) 2020-01-06

Similar Documents

Publication Publication Date Title
KR102089343B1 (en) Around view monitoring system and calibration method for around view cameras
US11170466B2 (en) Dense structure from motion
US11062155B2 (en) Monocular cued detection of three-dimensional structures from depth images
KR102022388B1 (en) Calibration system and method using real-world object information
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
Wu et al. Lane-mark extraction for automobiles under complex conditions
US10878288B2 (en) Database construction system for machine-learning
US10169667B2 (en) External environment recognizing device for vehicle and vehicle behavior control device
US9818301B2 (en) Lane correction system, lane correction apparatus and method of correcting lane
US7091837B2 (en) Obstacle detecting apparatus and method
US8005266B2 (en) Vehicle surroundings monitoring apparatus
KR102073971B1 (en) Vehicle enforcement system and method based on deep learning
EP2237988B1 (en) Object detection and recognition system
EP2924653A1 (en) Image processing apparatus and image processing method
CN109409186B (en) Driver assistance system and method for object detection and notification
JP5180126B2 (en) Road recognition device
WO2018235300A1 (en) Object detection device, object detection method, and computer-readable recording medium
KR101705558B1 (en) Top view creating method for camera installed on vehicle and AVM system
JP6701057B2 (en) Recognizer, program
Nath et al. On road vehicle/object detection and tracking using template
JP5521217B2 (en) Obstacle detection device and obstacle detection method
US20240103525A1 (en) Vehicle and control method thereof
JP7460282B2 (en) Obstacle detection device, obstacle detection method, and obstacle detection program
CN111133439B (en) Panoramic monitoring system
KR20220006416A (en) Surround monitoring system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant