KR102089343B1 - Around view monitoring system and calibration method for around view cameras - Google Patents
Around view monitoring system and calibration method for around view cameras Download PDFInfo
- Publication number
- KR102089343B1 KR102089343B1 KR1020180073290A KR20180073290A KR102089343B1 KR 102089343 B1 KR102089343 B1 KR 102089343B1 KR 1020180073290 A KR1020180073290 A KR 1020180073290A KR 20180073290 A KR20180073290 A KR 20180073290A KR 102089343 B1 KR102089343 B1 KR 102089343B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- individual top
- view image
- top view
- blending
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012544 monitoring process Methods 0.000 title claims abstract description 13
- 238000012937 correction Methods 0.000 claims abstract description 39
- 238000006243 chemical reaction Methods 0.000 claims abstract description 33
- 238000002156 mixing Methods 0.000 claims description 89
- 238000001514 detection method Methods 0.000 claims description 32
- 230000002093 peripheral effect Effects 0.000 claims description 16
- 238000003702 image correction Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 abstract description 4
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
Abstract
어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법이 개시된다. 어라운드 뷰 모니터링 시스템은 차량의 전방, 우측면, 좌측면 및 후방 각각을 촬영하도록 장착된 복수의 카메라를 포함하는 카메라 유닛; 각 카메라에서 촬영된 촬영 영상에 상응하는 개별 탑뷰 영상에서 미리 지정된 기준에 따른 틀어짐이 존재하는지 여부를 판단하고, 틀어짐이 존재하면 촬영 영상을 개별 탑뷰 영상으로 변환하는 변환 규칙을 갱신하는 공차 보정 유닛; 및 상기 갱신된 변환 규칙과 상기 카메라 유닛에서 촬영된 복수의 촬영 영상을 이용하여 AVM 영상을 생성하는 영상 합성부를 포함한다.Around view monitoring system and camera tolerance correction method are disclosed. The around view monitoring system includes a camera unit including a plurality of cameras mounted to photograph the front, right, left, and rear of the vehicle, respectively; A tolerance correction unit that determines whether or not a distortion according to a predetermined criterion exists in an individual top view image corresponding to the captured image captured by each camera, and updates a conversion rule for converting the captured image into an individual top view image if the distortion exists; And an image synthesizing unit generating an AVM image by using the updated conversion rule and a plurality of captured images captured by the camera unit.
Description
본 발명은 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법에 관한 것이다. The present invention relates to an around view monitoring system and a camera tolerance correction method.
일반적으로, 차량 내부에 탑승한 운전자는 주로 전방을 주시하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당 부분 가려지기 때문에, 운전자는 매우 한정된 시계를 가질 수 밖에 없다. In general, the driver who boards the inside of the vehicle mainly looks at the front, and since the left and right and rear clocks of the driver are largely obscured by the vehicle body, the driver is forced to have a very limited clock.
이러한 문제를 해결하기 위하여, 룸 미러, 사이드 미러 등의 시계 보조수단이 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있는 추세이다.To solve this problem, clock assisting means such as a room mirror and a side mirror are used, and recently, technologies including camera means for photographing an external image of a vehicle and providing it to the driver are being applied to the vehicle.
그 중에서 차량에 복수의 카메라를 설치하여 차량 주변의 360ㅀ전방향의 영상을 보여주는 어라운드 뷰 모니터링(Around View Monitoring) 시스템(이하, AVM 시스템이라 칭함)이 있다. Among them, there is an Around View Monitoring system (hereinafter referred to as an AVM system) that installs a plurality of cameras in a vehicle and shows a 360-degree omnidirectional image around the vehicle.
AVM 시스템은 차량 각 위치에 구비된 카메라들에 의해 촬영된 차량 주변의 영상을 조합하여, 운전자가 하늘에서 차량을 바라보는 듯한 탑뷰(Top View) 이미지 형식의 AVM 영상을 제공함으로써, 차량 주변 장애물을 표시하고 사각지대를 해소할 수 있는 장점이 있다.The AVM system combines the images around the vehicle captured by the cameras provided at each location of the vehicle, and provides AVM images in the form of a Top View image that looks like the driver is looking at the vehicle from the sky, thereby preventing obstacles around the vehicle. It has the advantage of being able to mark and eliminate blind spots.
AVM 시스템은 카메라 장착시 각 카메라의 공차를 보정하는 작업이 필수적이며, AVM 시스템이 설치된 차량은 AVM 영상의 생성을 위한 화면 정합성 기준에 맞도록 공차가 보정된 후 출고되고 있다.In the AVM system, it is essential to correct the tolerance of each camera when the camera is mounted, and the vehicle with the AVM system is shipped after the tolerance is corrected to meet the screen conformance criteria for the generation of the AVM image.
그러나 차량이 출고된 후 차량의 운행 도중 공차가 누적되면 화면 정합성이 낮아지게 된다. 이 경우, 누적 공차의 보정을 위해 운전자는 차량을 가지고 서비스 센터나 사업소를 방문하여야 하는 불편함이 있었다.However, if the tolerances accumulate during the operation of the vehicle after the vehicle is shipped, the screen consistency is lowered. In this case, in order to correct the accumulated tolerance, the driver had the inconvenience of having to visit a service center or a business office with a vehicle.
본 발명은 차량의 출고 후 AVM 카메라 장착 각도 변동되거나 타이어 공기압이 변화되는 등 다양한 이유로 누적 공차가 발생되었을 때에도 차량을 가지고 서비스 센터나 사업소를 방문할 필요없이 차량의 주행 중에 자동으로 공차 보정을 실시함으로써 고객 편의를 극대화되고, 공차 보정되지 않은 AVM 영상으로 인한 사고 발생 위험이 미연에 방지되는 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법을 제공하기 위한 것이다.The present invention is performed by automatically calibrating tolerances while driving a vehicle without having to visit a service center or a business site with the vehicle even when a cumulative tolerance occurs for various reasons such as an angle change of the AVM camera or a change in tire pressure after the vehicle is shipped. To maximize customer convenience and to provide an around view monitoring system and camera tolerance correction method that prevents the risk of accidents caused by uncorrected AVM images.
본 발명은 차량의 이동 중에 AVM 시스템용 카메라들에 대한 공차 보정이 이루어지기 때문에, 차량의 출고 이전에 각 카메라에 대한 공차 보정이 실시되지 않은 AVM 시스템뿐 아니라, 차량의 출고 이후에 공차 누적으로 인해 공차 보정이 요구되는 AVM 시스템에 범용적으로 활용될 수 있는 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법을 제공하기 위한 것이다.In the present invention, since tolerance correction is performed for cameras for the AVM system while the vehicle is moving, not only the AVM system in which tolerance correction for each camera is not performed before the vehicle is shipped, but also due to the accumulation of tolerances after the vehicle is shipped. It is to provide an around view monitoring system and a camera tolerance compensation method that can be widely used in AVM systems that require tolerance compensation.
본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Objects other than the present invention will be easily understood through the following description.
본 발명의 일 측면에 따르면, 차량의 전방, 우측면, 좌측면 및 후방 각각을 촬영하도록 장착된 복수의 카메라를 포함하는 카메라 유닛; 각 카메라에서 촬영된 촬영 영상에 상응하는 개별 탑뷰 영상에서 미리 지정된 기준에 따른 틀어짐이 존재하는지 여부를 판단하고, 틀어짐이 존재하면 촬영 영상을 상응하는 개별 탑뷰 영상으로 변환하기 위한 변환 규칙을 갱신하는 공차 보정 유닛; 및 상기 갱신된 변환 규칙과 상기 카메라 유닛에서 생성된 복수의 촬영 영상을 이용하여 AVM 영상을 생성하는 영상 합성부를 포함하는 어라운드 뷰 모니터링 시스템이 제공된다.According to an aspect of the present invention, a camera unit including a plurality of cameras mounted to photograph each of the front, right, left, and rear of a vehicle; Tolerances for determining whether or not there is a distortion according to a predetermined criterion in an individual top view image corresponding to a captured image taken by each camera, and updating the conversion rule for converting the captured image to a corresponding individual top view image if there is a distortion Correction unit; And an image synthesizing unit that generates an AVM image by using the updated conversion rule and a plurality of captured images generated by the camera unit.
상기 공차 보정 유닛은, 상기 카메라 유닛에서 제공되는 복수의 촬영 영상 각각을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 영상 변환부; 촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 정보 인식부; 각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 틀어짐 검출부; 틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출부가 상기 틀어짐 검출 기법의 적용에 따라 산출한 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 영상 보정부; 및 상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록 상기 변환 규칙을 갱신하는 변환 규칙 갱신부를 포함할 수 있다.The tolerance correction unit includes: an image conversion unit that converts each of a plurality of captured images provided by the camera unit into one or more of a peripheral image and an individual top view image according to a predetermined format; An information recognition unit for recognizing a target object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image; A distortion detection unit to determine whether each individual top-view image is distorted by applying a predetermined distortion detection technique to each individual top-view image; For each individual top view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the moved positions in a predetermined pixel unit. An image correction unit configured to detect location information of an image registration reference point having a minimum calculated value among the calculated values calculated by the distortion detection unit according to the application of the distortion detection method; And a conversion rule update unit that updates the conversion rule to correspond to the detected position information of the matched reference point.
상기 미리 지정된 틀어짐 검출 기법은 수학식 을 이용하여 각 개별 탑뷰 영상의 틀어짐 추정값(G)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. 여기서, 이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)일 수 있다.The predetermined distortion detection technique is an equation It is possible to calculate the calculated value, which is the distortion estimation value G of each individual top-view image, and determine that the distortion exists when the calculated calculated value exceeds a predetermined reference value. here, , V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image It may be an average lane angle (Radian) in the image α image.
상기 미리 지정된 틀어짐 검출 기법은 수학식 을 이용하여 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. 여기서, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다.The predetermined distortion detection technique is an equation In order to generate an AVM image, a calculated value that is the total difference (D) of the pixel values in each blending area where each individual top-view image overlaps is calculated, and if the calculated calculated value exceeds a predetermined reference value, there is a distortion. You can judge that. Here, λ 1 and λ 2 are weight factors respectively designated so that the sum value satisfies 1, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β forms a blending region. Is a pixel value at a β position in the blending region of the first individual top view image, q β is a pixel value at a β position in the blending region of the second individual top view image forming the blending region, and δ is among the coordinate ranges of the blending region Of the surrounding objects recognized by the information recognition unit, a surrounding object having a height equal to or greater than a predetermined threshold value is in contact with the ground, and p δ is a pixel value at the δ position in the blending area of the first individual top-view image forming the blending area, q δ may be a pixel value of the δ position in the blending region of the second individual top-view image forming the blending region.
상기 미리 지정된 틀어짐 검출 기법은 수학식 , 및 을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. The predetermined distortion detection technique is an equation , And By calculating the calculated value that is the degree of distortion (T) of the individual top view images, and if the calculated calculated value exceeds a predetermined reference value, it can be determined that the distortion exists.
여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며, 이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다.Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image, , V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 are sums of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. and a pixel value, β q is the pixel value of the β position in the blending area of the second individual top view image to form a blended region, δ is the peripheral four recognized by the information identification portion in the coordinate range of the blending area In a position close to the object in contact with the ground with the advance over the specified threshold height, p δ is the pixel value of the δ position in the blending area of the first individual top view image to form a blended region, q δ is to form a blended region It may be a pixel value at the δ position in the blending region of the second individual top view image.
상기 정보 인식부는 차량의 진행 방향 및 허프(Hough) 성분 벡터를 특징 벡터로 구성하여 미리 지정된 분류기(Classifier)를 이용하여 분류함으로써 상기 차선을 인식할 수 있다.The information recognition unit may recognize the lane by classifying a traveling direction and a Hough component vector of the vehicle as a feature vector and classifying them using a predetermined classifier.
상기 정보 인식부는 상기 대상 영상에서 신호등, 보행자, 도로 바닥의 표시 정보, 주변 차량 중 하나 이상인 주변 사물을 더 인식하고, 인식된 주변 사물의 위치 정보는 복수의 개별 탑뷰 영상을 이용하여 상기 AVM 영상을 생성하기 위한 기준 정보로 이용될 수 있다.The information recognition unit further recognizes at least one of traffic lights, pedestrians, road floor display information, and surrounding objects in the target image, and the recognized location information of the surrounding objects uses the plurality of individual top view images to view the AVM image. It can be used as reference information to generate.
상기 정보 인식부는 미리 지정된 기계 학습 기법을 적용하여 주변 사물들 중 미리 지정된 기준을 만족하도록 신뢰도(confidence)가 평가된 주변 사물만을 인식 대상으로 한정할 수 있다.The information recognizing unit may limit a recognition object to a recognition object whose reliability is evaluated to satisfy a predetermined criterion among the surrounding objects by applying a predetermined machine learning technique.
상기 영상 보정부는, 차선의 각도와 블렌딩 영역에서의 픽셀값 차이가 최소가 되는 개별 탑뷰 영상 내의 대응점의 위치를 찾는 비용 함수 및 미리 지정된 최적화 기법 중 하나 이상을 적용하여 영상 정합 기준점을 이동시킬 수 있다.The image correction unit may move the image registration reference point by applying at least one of a predetermined optimization technique and a cost function for finding a position of a corresponding point in an individual top-view image in which a difference between a lane angle and a pixel value in a blending region is minimum. .
본 발명의 다른 측면에 따르면, 카메라 공차를 보정하기 위한 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨터로 하여금 이하의 단계들을 수행하도록 하며, 상기 단계들은, 카메라 유닛에 포함된 복수의 카메라에 의해 각각 생성된 촬영 영상을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 단계; 촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 단계; 각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 단계; 틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출 기법의 적용에 따라 산출된 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 단계; 및 상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록, 복수의 촬영 영상을 이용하여 AVM 영상을 생성하기 위한 변환 규칙을 갱신하는 단계를 포함하는 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램이 제공된다. According to another aspect of the present invention, a computer program stored in a computer-readable medium for correcting camera tolerance, the computer program causing the computer to perform the following steps, the steps comprising: a plurality of camera units Converting each of the captured images generated by the cameras of the camera into one or more of a peripheral image and an individual top view image according to a predefined format; Recognizing a surrounding object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image; Determining whether each individual top view image is distorted by applying a predetermined distortion detection method to each individual top view image; For each individual top view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the moved positions in a predetermined pixel unit. Detecting position information of an image registration reference point having a minimum calculated value among calculated values calculated according to the application of the distortion detection technique; And updating a conversion rule for generating an AVM image by using a plurality of captured images, so as to correspond to the detected location information of the matched reference point.
상기 틀어짐 검출 기법은 수학식 , , 을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단할 수 있다. The distortion detection technique is an equation , , By calculating the calculated value that is the degree of distortion (T) of the individual top view images, and if the calculated calculated value exceeds a predetermined reference value, it can be determined that the distortion exists.
여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며, 이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 인식된 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다.Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image, , V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 are sums of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. Is a pixel value of, q β is a pixel value of a β position in a blending region of a second individual top-view image forming a blending region, and δ is pre-designated among the recognized peripheral objects among coordinate ranges of the blending region. A position where a peripheral object having a height above a threshold is in contact with the ground, p δ is a pixel value at a position δ in the blending area of the first individual top-view image forming a blending area, and q δ is a second individual forming a blending area It may be a pixel value of δ in the blending area of the top view image.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages than those described above will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예에 따르면, 차량의 출고 후 AVM 카메라 장착 각도 변동되거나 타이어 공기압이 변화되는 등 다양한 이유로 누적 공차가 발생되었을 때에도 차량을 가지고 서비스 센터나 사업소를 방문할 필요없이 차량의 주행 중에 자동으로 공차 보정을 실시함으로써 고객 편의를 극대화되고, 공차 보정되지 않은 AVM 영상으로 인한 사고 발생 위험이 미연에 방지되는 효과가 있다.According to an embodiment of the present invention, even when a cumulative tolerance occurs for various reasons, such as a change in the angle of mounting the AVM camera or a change in tire pressure after leaving the vehicle, the vehicle is automatically operated while driving without having to visit a service center or a business office. By performing tolerance correction, there is an effect of maximizing customer convenience and preventing the risk of accidents due to AVM images that have not been corrected.
또한 차량의 이동 중에 AVM 시스템용 카메라들에 대한 공차 보정이 이루어지기 때문에, 차량의 출고 이전에 각 카메라에 대한 공차 보정이 실시되지 않은 AVM 시스템뿐 아니라, 차량의 출고 이후에 공차 누적으로 인해 공차 보정이 요구되는 AVM 시스템에 범용적으로 활용될 수 있는 효과도 있다.In addition, since the tolerance correction for the cameras for the AVM system is performed while the vehicle is moving, the tolerance correction is performed due to the accumulation of tolerances after the vehicle is shipped, as well as the AVM system in which tolerance correction for each camera is not performed before the vehicle is shipped. There is also an effect that can be universally used in the required AVM system.
도 1은 종래기술에 따른 공차 보정 방법을 설명하기 위한 도면.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 블록 구성도.
도 3 내지 도 8은 본 발명의 일 실시예에 따른 AVM 시스템의 공차 보정 동작을 설명하기 위한 도면.
도 9는 본 발명의 일 실시예에 따른 AVM 시스템의 카메라 공차 보정 방법을 나타낸 순서도.1 is a view for explaining a tolerance correction method according to the prior art.
2 is a block diagram of an AVM system according to an embodiment of the present invention.
3 to 8 are views for explaining the tolerance correction operation of the AVM system according to an embodiment of the present invention.
9 is a flowchart illustrating a camera tolerance correction method of an AVM system according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be applied to various changes and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same components, regardless of reference numerals, are assigned the same or related reference numerals, and redundant description thereof will be omitted. In the description of the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.
도 1은 종래기술에 따른 공차 보정 방법을 설명하기 위한 도면이다.1 is a view for explaining a tolerance correction method according to the prior art.
도 1에 예시된 바와 같이, 차량의 전면, 우측면, 좌측면 및 후면의 위치 각각에 카메라(10, 20, 30, 40)가 장착되고, 차량은 공차 보정을 위해 보정판(50)이 설치된 장소의 미리 지정된 위치에 배치된다. As illustrated in FIG. 1, the
보정판(50)은 차량의 전방 좌측 모서리, 전방 우측 모서리, 후방 좌측 모서리 및 후방 우측 모서리에 차량의 각 바퀴 축 선상에서 일정 거리 이격되도록 각각 배치될 수 있다. The
보정판(50)은 특징점의 추출 오류를 방지하기 위해 격자 모양의 무늬로 이루어질 수 있으며, 격자 모양의 무늬는 색상 대비가 강한 색들의 조합으로 이루어진다.The
공차 보정을 위해 각 카메라(10, 20, 30, 40)에서 생성된 촬영 영상에서 보정판(50) 내 특징점의 좌표 정보가 추출되고, 해당 좌표 정보는 각 특징점에 대응되는 표준 좌표 정보와 비교되어 변환 행렬이 산출된다. 이때, 예를 들어 보정 알고리즘, 어파인(Affine) 변환 알고리즘, 호모그래피(Homography) 변환 알고리즘, 시점 변환 알고리즘 등을 적용하여 룩업 테이블도 생성될 수 있다.For tolerance correction, coordinate information of the feature points in the
이와 같이 생성된 변환 규칙(즉, 변환 행렬 및/또는 룩업 테이블)은 저장부에 저장되어 AVM 영상을 생성하기 위해 이용된다. The generated transformation rules (ie, transformation matrix and / or lookup table) are stored in the storage unit and used to generate the AVM image.
그러나 전술한 방법으로 차량의 출고 이전에, 또는 서비스 센터 등에서 생성된 변환 규칙은 차량의 운행 과정에서 카메라 장착 각도의 변동 등 누적 공차가 발생될 수 있고, 이 경우 서비스 센터나 사업소를 다시 방문하여 공차 보정을 재차 실시하여야 하는 불편함이 있다.However, in the above-described method, the conversion rule generated before the vehicle is released or generated in a service center may generate a cumulative tolerance, such as a change in the camera mounting angle, in the course of driving the vehicle. In this case, visit the service center or office again to allow the tolerance. There is the inconvenience of having to perform the calibration again.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 블록 구성도이고, 도 3 내지 도 8은 본 발명의 일 실시예에 따른 AVM 시스템의 공차 보정 동작을 설명하기 위한 도면이다.2 is a block diagram of an AVM system according to an embodiment of the present invention, and FIGS. 3 to 8 are views for explaining a tolerance correction operation of the AVM system according to an embodiment of the present invention.
도 2를 참조하면, AVM 시스템은 카메라 유닛(210), 공차 보정 유닛(220), 영상 합성부(230) 및 출력부(240)를 포함할 수 있다.Referring to FIG. 2, the AVM system may include a
카메라 유닛(200)에는 4개 이상의 AVM 시스템용 카메라가 포함될 수 있다. 카메라들은 차량의 전방, 후방, 좌측 및 우측 등의 미리 지정된 위치에 각각 설치될 수 있다. 카메라들은 예를 들어 광각 렌즈, 어안 렌즈 등과 같이 화각이 큰 카메라일 수 있다. 이외에, 카메라 유닛(200)은 차량의 전방, 후방 등의 미리 지정된 위치에 각각 설치되어 원거리의 영상을 촬영하는 협각 카메라를 더 포함할 수도 있다.The camera unit 200 may include four or more cameras for AVM systems. The cameras can be installed at predetermined positions such as front, rear, left and right of the vehicle, respectively. The cameras may be, for example, a wide-angle lens, a fish-eye lens, or the like, with a large angle of view. In addition, the camera unit 200 may further include a narrow-angle camera that is installed at a predetermined location, such as a front or rear of the vehicle, to photograph a long distance image.
각 카메라는 지정된 화각 및 설치 각도에 상응하여 3차원의 피사체를 촬영하여 2차원의 촬영 영상(도 3의 (a) 참조)을 생성하고, 생성된 촬영 영상은 공차 보정 유닛(220) 및/또는 영상 합성부(230)로 제공된다. 각 카메라에 의해 생성된 촬영 영상은 저장부(도시되지 않음)에 저장되어, 공차 보정 유닛(220) 등이 저장부에 접근하여 촬영 영상을 이용하도록 구성될 수도 있다.Each camera generates a two-dimensional photographed image (refer to (a) of FIG. 3) by photographing a three-dimensional object corresponding to a designated angle of view and an installation angle, and the generated photographed image is a
공차 보정 유닛(220)은 복수의 촬영 영상을 합성하여 화면 정합성 기준에 부합하는 AVM 영상(도 3의 (d) 참조)이 생성될 수 있도록 하기 위해, 카메라 유닛(200)에 포함된 카메라들에서 각각 생성한 촬영 영상에 상응하도록 생성한 개별 탑뷰 영상(차량 우측을 촬영한 촬영 영상에 상응하는 개별 탑뷰 영상인 도 3의 (c) 참조)의 틀어짐 여부를 해석하여 각각의 개별 탑뷰 영상들이 화면 정합성 기준에 부합하는 AVM 영상으로 합성되도록 각 카메라에 상응하는 변환 규칙을 생성한다. To allow the
여기서, 변환 규칙은 각 촬영 영상을 탑뷰 시점의 영상인 개별 탑뷰 영상으로 변환하기 위한 변환 행렬 및/또는 각 카메라의 왜곡 보정 알고리즘과 변환 행렬을 기초로 각 촬영 영상을 개별 탑뷰 영상으로 변환하도록 생성된 룩업 테이블(LUT) 등일 수 있다.Here, the conversion rule is generated to convert each shot image into a separate top view image based on a transformation matrix and / or a distortion correction algorithm and a transformation matrix of each camera to convert each shot image into an individual top view image that is a top view image. It may be a look-up table (LUT).
공차 보정 유닛(220)에서 생성한 변환 규칙은 저장부(도시되지 않음)에 저장되어 영상 합성부(230)가 카메라 유닛(200)에서 제공된 복수의 촬영 영상을 합성(예를 들어, 오버레이 방식 등)하여 차량 주변에 대한 탑뷰 시점의 AVM 영상을 생성하기 위해 이용될 수 있다. 영상 합성부(230)에 의해 생성된 AVM 영상은 예를 들어 디스플레이 장치 등인 출력부(230)를 통해 출력될 수 있다.The conversion rule generated by the
구체적으로, 공차 보정 유닛(220)은 영상 변환부(221), 정보 인식부(223), 틀어짐 검출부(225), 영상 보정부(227) 및 변환 규칙 갱신부(229)를 포함할 수 있다.Specifically, the
영상 변환부(221)는 카메라 유닛(210)의 각 카메라에서 제공되는 촬영 영상(도 3의 (a) 참조)에 상응하는 탑뷰 시점의 개별 탑뷰 영상(도 3의 (c) 참조)을 각각 생성한다. 영상 변환부(221)는 광각 렌즈 등을 이용하여 촬영된 촬영 영상을 모서리 영역의 왜곡이 보정되어 통상의 표준 렌즈에서 촬영된 영상의 형태를 가지는 주변 영상(도 3의 (b) 참조)으로 더 변환할 수도 있다.The
정보 인식부(223)는 촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 촬영된 주변 사물을 인식한다. 정보 인식부(223)에 의해 인식되는 주변 사물은 예를 들어 소실점(vanishing point), 도로, 차선, 신호등, 도로 바닥의 표시 정보(예를 들어, 횡단보도, 주차선 등), 보행자, 주변 차량 등 중 하나 이상일 수 있다.The
정보 인식부(223)는 카메라에 상응하는 각 대상 영상에서 주변 사물을 인식하기 위해 미리 지정된 인식 기법(예를 들어 허프 변환(Hough Transform), 푸리에 변환(Fourier Transform), 교차율(cross ratio)을 이용한 방법, 색상 정보를 이용하는 방법 등 중 하나 이상)을 이용할 수 있다.The
정보 인식부(223)는 예를 들어, 대상 영상에서 차선, 차량 주위의 보도 블록 등을 활용하여 평행한 직선이 만나는 점인 소실점을 인식할 수 있다. The
도 4에 예시된 바와 같이, 원근 시점(perspective view)에서 모든 평행한 직선은 하나의 점에서 만나게 되므로, 정보 인식부(223)는 촬영 영상 또는/및 주변 영상인 원근 시점 영상에 존재하는 직선 요소들을 추출하여 예를 들어 RANSAC(RANdom SAample Consensus) 알고리즘, Mean Square Error(MSE) 방법 등을 이용하여 가장 많은 직선이 교차하는 점인 소실점을 검출할 수 있다.As illustrated in FIG. 4, in the perspective view, all parallel straight lines meet at one point, so the
또한, 정보 인식부(223)는 소실점을 검출한 후, 예를 들어 차량의 진행 방향, Hough 성분 벡터 등을 특징 벡터로 구성하여 SVM(Support Vector Machine)과 같은 분류기(Classifier)를 이용해 분류함으로써 기존의 단순 도로상의 직선 성분 만을 이용해서 차선을 인식하는 방식에 비해 좀 더 정확하게 차선을 인식하도록 설정될 수 있다.In addition, the
정보 인식부(223)는 예를 들어 영역별 이진화 방법, x축 히스토그램을 이용한 방법, Morphology Dilation 연산, 횡단보도에 대한 특징 벡터와 SVM 기계 학습 등을 이용하여 횡단 보도를 검출하도록 설정될 수도 있다. 또한 영상 내에 포함된 물체에 대한 외곽선 추출, 색상 분석 등의 방식으로 주변 사물을 인식할 수도 있다.The
횡단보도, 주차선, 바닥면에 표시된 다양한 기호, 보행자 등과 같은 주변 사물을 인식함에 있어 정확성을 향상시키기 위해, 정보 인식부(223)에는 미리 지정된 기계 학습 기법(예를 들어 아다부스트(Adaboost), SVM(Support Vector Machine) 등의 섈로 러닝(Shallow Learning) 기법, CNN(Convolution Neural Network) 등의 딥 러닝(Deep Learning) 기법 등)이 적용될 수 있다. In order to improve accuracy in recognizing surrounding objects such as pedestrian crossings, parking lines, various symbols displayed on the floor, pedestrians, etc., the
차선 이외의 주변 사물에 대해서는 기계 학습 기법을 이용하여 인식된 주변 사물들 중 미리 지정된 기준에 따라 신뢰도(confidence)가 높게 평가된 주변 사물만을 인식 대상으로 선택하도록 미리 설정될 수도 있을 것이다.Peripheral objects other than the lane may be set in advance to select, as a recognition target, only peripheral objects having high reliability according to a predetermined criterion among peripheral objects recognized using a machine learning technique.
정보 인식부(223)에 의해 인식된 보행자, 횡단보도 등의 주변 사물의 위치 정보는 각각의 개별 탑뷰 영상을 AVM 영상으로 정합할 때 기준 정보로 이용될 수도 있다.The location information of surrounding objects such as pedestrians and pedestrian crossings recognized by the
틀어짐 검출부(225)는 카메라 유닛(210)에 포함된 각 카메라에 상응하는 개별 탑뷰 영상에 포함된 주변 사물(예를 들어, 차선 등)이 틀어진 형태로 존재하는지 여부를 판단한다. 개별 탑뷰 영상에서 틀어진 형태로 주변 사물이 존재하는 경우는 예를 들어 카메라 장착 각도가 변동되거나 타이어 공기압이 변동되는 등 다양한 원인으로 발생될 수 있다. The
도 5에는 카메라 유닛(210)의 각 카메라에 상응하는 개별 탑뷰 영상(510, 512, 514, 516)이 예시되어 있다. 각 개별 탑뷰 영상(510, 512, 514, 516)을 참조할 때, 전방의 개별 탑뷰 영상(510)에서 보이는 차선의 형상이 다른 개별 탑뷰 영상(512, 514, 516)에서 보이는 차선의 형상과 일관성을 가지 못하는 것을 확인할 수 있다. 이 경우, 전방의 개별 탑뷰 영상(510)이 틀어진 것으로 판단할 수 있는 것이다.5, individual
틀어짐 검출부(225)는 개별 탑뷰 영상의 틀어짐 정도는 예를 들어 개별 탑뷰 영상에서 인식된 차선의 각도 편차, AVM 영상을 생성하기 위해 각 개별 탑뷰 영상들이 겹쳐지는 블렌딩(blending) 영역의 픽셀값 전체 차이 등 중 하나 이상을 이용하여 인식될 수 있다. In the
제1 기법으로, VF(전방), VR(우측), VL(좌측) 및 VB(후방)인 각 개별 탑뷰 영상에서 추출된 차선의 평균 각도를 μα라고 하면, 틀어짐 검출부(225)는 각 개별 탑뷰 영상의 틀어짐 추정값(G)을 하기 수학식 1에 의해 산출할 수 있다.As a first technique, if the average angle of the lanes extracted from each individual top view image of V F (front), V R (right), V L (left) and V B (rear) is μ α , the distortion detection unit 225 ) Can calculate the distortion estimate value (G) of each individual top-view image by
여기서, 이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이다.here, , And μ α is the average lane angle (Radian) in one individual top-view image, α image.
수학식 1에 의해, 개별 탑뷰 영상에서 인식된 차선의 각도와 90도(π/2) 사이의 편차의 합이 연산된다. 이때, 정보 인식부(223)가 미리 지정된 임계값 이상의 신뢰도(confidence)를 가지는 것으로 판단한 차선들만이 연산 대상으로 선택될 수 있다. According to
따라서, 개별 탑뷰 영상에서 여러 방향으로 분산된 차선이 여러 개 존재하는 경우에는 현재 차량의 진행 방향과 미리 지정된 기준에 따라 유사한 방향의 차선만이 선택되어 해당 개별 탑뷰 영상에서의 평균 차선 각도가 산출될 수 있고, 이를 이용하여 개별 탑뷰 영상의 틀어짐 추정값이 산출될 수 있다.Therefore, in the case where there are multiple lanes distributed in various directions in the individual top view images, only the lanes in a similar direction are selected according to a current vehicle's traveling direction and a predetermined criterion, and an average lane angle in the corresponding individual top view images is calculated. In addition, a distortion estimation value of an individual top view image may be calculated using the same.
제2 기법으로, 틀어짐 검출부(225)는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역(도 6의 610 내지 640 참조) 각각에서의 픽셀값 전체 차이(D)를 연산하는 하기 수학식 2에 의해 각 개별 탑뷰 영상의 틀어짐 정도를 산출할 수도 있다. 여기서, 픽셀값은 예를 들어 픽셀의 밝기값일 수 있다.As a second technique, the
여기서, λ1과 λ2는 가중치 팩터(factor)로서, λ1과 λ2의 합산값이 1을 만족하도록 각각 설정될 수 있다. B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값일 수 있다. 또한, δ는 블렌딩 영역의 좌표 범위 중에서 정보 인식부(223)에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체(예를 들어, 보행자, 주변 차량 등)가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값일 수 있다. Here, λ 1 and λ 2 are weight factors, and may be respectively set so that the sum of λ 1 and λ 2 satisfies 1. B is a coordinate range of the blending region, β is one of the coordinate ranges of the blending region, p β is a pixel value at the β location in the blending region of the first individual top-view image forming the blending region, and q β is the blending region. It may be a pixel value at a β position in the blending region of the second individual top-view image forming the region. In addition, δ is a position where a surrounding object (for example, a pedestrian, a surrounding vehicle, etc.) having a height equal to or higher than a predetermined threshold among the surrounding objects recognized by the
가중치 팩터 λ1은 블렌딩 영역에 속하는 각 픽셀의 픽셀값 차이들의 합산값에 적용되는 가중치 팩터이고, 가중치 팩터λ2는 블렌딩 영역에 속하는 픽셀들 중 임계값 이상의 높이를 가지는 주변 물체의 지면과 맞닿는 위치의 픽셀들의 픽셀값 차이들의 합산값에 적용되는 가중치 팩터이다. The weight factor λ 1 is a weight factor applied to the sum of pixel value differences of each pixel belonging to the blending area, and the weight factor λ 2 is a position in contact with the ground of a surrounding object having a height above a threshold among pixels belonging to the blending area. Is a weight factor applied to the sum of the pixel value differences of the pixels of.
따라서, 가중치 팩터인 λ2가 최소값 0부터 최대값 1의 범위 내에서 상대적으로 큰 값으로 설정될수록 정보 인식부(223)에 의해 인식된 주변 사물들 중 높이가 있는 물체(보행자, 차량 등)가 보다 중시되어 개별 탑뷰 영상의 틀어짐 정도가 산출될 수 있게 된다. 전술한 바와 같이, 주변 사물의 위치 정보가 AVM 영상을 생성할 때 기준 위치로 이용될 수 있음을 감안할 때 가중치 팩터인 λ2의 크기 설정은 특정한 의미를 가지게 될 수도 있을 것이다. 물론, 필요에 따라서는 λ1과 λ2 중 어느 하나가 0(zero)로 선정될 수도 있을 것이다. Accordingly, as the weight factor λ 2 is set to a relatively large value within the range of the minimum value 0 to the
λ1과 λ2은 예를 들어 각각 0.5로 설정될 수도 있으나, 반복된 테스트를 통해 실험적, 통계적인 최적값으로 선정될 수 있으며, 테스트 결과 데이터가 축적된 이후에는 미리 지정된 최적화 알고리즘을 이용하여 주변 환경에 적응적인 최적값으로 각각 선정될 수도 있다.λ 1 and λ 2 may be set to 0.5, for example, respectively, but may be selected as experimental and statistical optimal values through repeated tests, and after the test result data is accumulated, a predetermined optimization algorithm is used to surround it. Each may be selected as an optimal value adaptive to the environment.
틀어짐 검출부(225)는 전술한 제1 기법에 의해 산출된 틀어짐 추정값(G) 및 제2 기법에 의해 산출된 블렌딩 영역 각각의 픽셀값 전체 차이(D) 중 어느 하나를 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)를 산출할 수도 있으나, 하기 수학식 3과 같이 제1 기법과 제2 기법의 결과값을 가중 연산하는 제3 기법을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)를 산출할 수도 있다.The
여기서, ω1과 ω2는 가중치 팩터(factor)로서, ω1과 ω2의 합산값이 1을 만족하도록 각각 설정된다. Here, ω 1 and ω 2 are weight factors, and are respectively set such that the sum of ω 1 and ω 2 satisfies 1.
ω1이 ω2에 비해 상대적으로 크게 설정되는 경우 전술한 수학식 1에서 산출된 개별 탑뷰 영상 내의 틀어짐 추정값(G)을 중시하여 개별 탑뷰 영상의 틀어짐 정도(T)가 산출되고, ω2가 ω1에 비해 상대적으로 크게 설정되는 경우 전술한 수학식 2에서 산출된 블렌딩 영역을 형성하는 서로 다른 개별 탑뷰 영상들간의 차선의 틀어짐 차이가 중시된 개별 탑뷰 영상의 틀어짐 정도(T)가 산출된다. When ω 1 is set relatively large compared to ω 2 , the degree of distortion (T) of the individual top view images is calculated by focusing on the distortion estimation value (G) in the individual top view images calculated in
물론, 제1 기법 또는 제2 기법의 결과만을 적용하여 개별 탑뷰 영상의 틀어짐 정도(T)를 산출하고자 하는 경우, ω1과 ω2 중 어느 하나는 0(zero)로 선정될 수도 있을 것이다. Of course, when only the results of the first technique or the second technique are applied to calculate the degree of distortion (T) of the individual top-view images, one of ω 1 and ω 2 may be selected as 0 (zero).
ω1과 ω2은 예를 들어 각각 0.5로 설정될 수도 있으나, 반복된 테스트를 통해 실험적, 통계적인 최적값으로 선정될 수 있으며, 테스트 결과 데이터가 축적된 이후에는 미리 지정된 최적화 알고리즘을 이용하여 주변 환경에 적응적인 최적값으로 각각 선정될 수도 있다. ω 1 and ω 2 may be set to 0.5, for example, respectively, but may be selected as experimental and statistical optimal values through repeated tests, and after the test result data is accumulated, a predetermined optimization algorithm is used to surround it. Each may be selected as an optimal value adaptive to the environment.
영상 보정부(227)는 틀어짐 검출부(225)에 의해 미리 지정된 기준값을 초과하는 틀어짐 정도를 가지는 개별 탑뷰 영상에 대해 영상 보정 작업을 실시한다. The
영상 보정 작업은 도 7 및 도 8에 예시된 바와 같이, AVM 영상을 생성하도록 미리 저장된 4개의 영상 정합 기준점(710) 각각의 위치를 해당 위치로부터 각각 미리 지정된 픽셀 단위(예를 들어 1픽셀)로 상, 하, 좌 또는 우의 방향으로 옮기고, 해당 시점에서의 영상 정합 기준점(710)의 위치 정보와 틀어짐 검출부(225)에 의해 연산된 각 개별 탑뷰 영상에 대한 산출값을 저장한다. As illustrated in FIGS. 7 and 8, the image correction operation is performed in such a manner that each location of each of the four image
산출값은 예를 들어 제1 기법에 의해 개별 탑뷰 영상에서 추출된 차선의 평균 각도를 이용하여 산출된 개별 탑뷰 영상의 틀어짐 추정값(G)이거나, 제2 기법에 의해 AVM 영상을 생성하기 위해 중첩된 복수의 개별 탑뷰 영상의 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)이거나, 또는 제3 기법에 의해 이들을 가중 합산한 틀어짐 정도(T)일 수 있다.The calculated value is, for example, a distortion estimation value (G) of the individual top view images calculated using the average angle of the lane extracted from the individual top view images by the first technique, or superimposed to generate an AVM image by the second technique. It may be a total difference (D) of pixel values in each of the blending regions of the plurality of individual top-view images, or a distortion degree (T) of weighting and summing them by a third technique.
영상 보정부(227)는 미리 지정된 영역 범위 내에서 개별 탑뷰 영상 내의 영상 정합 기준점(710)의 위치를 각각 변경하면서 산출한 각각의 산출값 중 최소의 크기를 가지는 산출값을 검출하고, 이에 상응하도록 저장된 4개의 영상 정합 기준점(710) 각각의 위치 정보를 검출한다. The
각각의 영상 정합 기준점(710)을 이동시킬 때, 예를 들어 RANSAC, Gradient Descendent 방법 등의 미리 지정된 최적화 방법이 이용될 수도 있다.When moving each image
또한 영상 보정부(227)는 영상 정합 기준점(710)이 이동될 최적의 위치를 결정하기 위해, 차선의 각도 차이 및/또는 블랜딩 영역에서의 픽셀값 차이가 최소화되는 개별 탑뷰 영상 내의 대응점의 위치를 찾는 비용 함수(cost function)을 더 이용할 수도 있다.In addition, the
이러한 과정으로 검출된 영상 정합 기준점(710)은 카메라 유닛(210)의 각 카메라에 상응하는 개별 탑뷰 영상을 이용하여 AVM 영상을 생성할 때 가장 화면 정합도가 높은 AVM 영상을 생성할 수 있도록 하는 기준 정보로 이용될 수 있으며, 새로운 영상 정합 기준점(710)으로 갱신 저장될 수 있다. 물론, 각각의 개별 탑뷰 영상을 이용하여 AVM 영상을 생성할 때 정보 인식부(223)에 의해 인식된 주변 사물의 위치 정보가 영상 정합을 위한 기준 정보로 더 이용될 수도 있다.The image matching
다시 도 2를 참조하면, 영상 보정부(227)에 의해 영상 정합 기준점(710)의 위치가 결정되면, 변환 규칙 갱신부(229)는 이에 상응하도록 카메라 유닛(210)의 각 카메라에 대한 변환 규칙을 생성한다. 생성된 변환 규칙은 저장부(도시되지 않음)에 저장될 수 있다.Referring back to FIG. 2, when the position of the image
변환 규칙은 각 촬영 영상을 탑뷰 시점의 영상으로 변환하기 위한 변환 행렬 및/또는 각 카메라의 왜곡 보정 알고리즘과 변환 행렬을 기초로 각 촬영 영상을 탑뷰 시점 영상으로 변환하도록 생성된 룩업 테이블(LUT) 등일 수 있다.The conversion rules include a transformation matrix for converting each shot image to a top view image and / or a lookup table (LUT) generated to convert each shot image to a top view image based on a distortion correction algorithm and a transformation matrix of each camera. You can.
카메라에서 촬영된 촬영 영상을 탑뷰 시점의 영상으로 변환하는 변환 규칙을 생성하는 방법은 당업자에게 자명한 사항이므로 이에 대한 구체적인 설명은 생략한다. The method of generating a conversion rule for converting a captured image taken by a camera to an image of a top view is obvious to those skilled in the art, so a detailed description thereof will be omitted.
영상 합성부(230)는 카메라 유닛(210)에서 제공되는 촬영 영상과 미리 저장된 변환 규칙을 이용하여 차량 주변에 대한 공차 보정된 탑뷰 시점의 AVM 영상을 생성하고, 출력부(240)를 통해 출력한다. The
전술한 바와 같이, 본 실시예에 따른 AVM 시스템은 각 카메라에서 촬영된 촬영 영상(도 3의 (a) 참조), 촬영 영상을 이용하여 생성한 주변 영상(도 3의 (b) 참조) 또는 개별 탑뷰 영상(도 3의 (c) 참조)인 대상 영상에서 소실점, 차선, 횡단보도 등 주변 사물을 인식하고, 인식된 주변 사물을 참조하여 개별 탑뷰 영상의 틀어짐 여부를 판단한다. As described above, in the AVM system according to the present embodiment, a captured image captured by each camera (see FIG. 3 (a)), a peripheral image generated using the captured image (see FIG. 3 (b)), or individually In the target image, which is a top view image (see (c) of FIG. 3), surrounding objects such as vanishing points, lanes, and pedestrian crossings are recognized, and whether the individual top view images are distorted is determined by referring to the recognized surrounding objects.
만일 개별 탑뷰 영상에서 틀어짐이 존재하는 경우 틀어짐이 개선되도록 개별 탑뷰 영상을 보정하고, 이에 상응하는 변환 규칙을 생성하여 정합성 기준을 만족하는 AVM 영상을 생성하여 출력할 수 있도록 하는 특징이 있다. If there is a distortion in the individual top view image, the individual top view image is corrected to improve the distortion, and a corresponding conversion rule is generated to generate and output an AVM image that satisfies the consistency criteria.
따라서, 차량의 출고 후 누적 공차가 발생되었거나 차량의 출고 이전에 공차 보정이 실시되지 않은 경우에도, 차량의 주행 중에 자동으로 공차 보정이 실시됨으로써 고객 편의가 극대화되고, 공차 보정되지 않은 AVM 영상으로 인한 사고 발생 위험이 미연에 방지되는 장점이 있다.Therefore, even if a cumulative tolerance occurs after the vehicle is shipped or the tolerance correction is not performed before the vehicle is shipped, the tolerance correction is automatically performed during the driving of the vehicle, thereby maximizing customer convenience and due to the uncorrected AVM image There is an advantage that the risk of accident occurrence is prevented.
도 9는 본 발명의 일 실시예에 따른 AVM 시스템의 카메라 공차 보정 방법을 나타낸 순서도이다.9 is a flowchart illustrating a camera tolerance correction method of an AVM system according to an embodiment of the present invention.
도 9를 참조하면, 단계 910에서 AVM 시스템은 원근 시점의 영상을 이용하여 주변 사물(예를 들어, 차선, 횡단보도, 보행자 등)을 인식한다. 원근 시점의 영상은 카메라 유닛(210)의 각 카메라에서 촬영된 각각의 촬영 영상이거나, 통상의 표준 렌즈에서 촬영된 영상의 형태를 가지도록 각 촬영 영상의 모서리 영역 왜곡이 보정되어 생성된 각 주변 영상일 수 있다.Referring to FIG. 9, in
AVM 시스템은 차선을 인식하기 위해, 예를 들어, 원근 시점의 영상에서 직선 요소들을 검출하고, RANSAC 알고리즘, MSE 방법 등을 이용하여 가장 많은 직선이 교차하는 점인 소실점을 검출할 수도 있고, 특징 벡터(예를 들어 차량의 진행 방향, Hough 성분 벡터 등)와 분류기를 이용할 수도 있다. 또한, 주변 사물의 인식을 위해 영역별 이진화 방법, 외곽선 검출 및 색상 분석 등의 방식을 이용할 수 있고, 신뢰도 높은 주변 사물의 검출을 위해 기계 학습 기법이 적용될 수도 있다.In order to recognize the lane, the AVM system may detect, for example, linear elements in an image at a perspective, and may use a RANSAC algorithm, an MSE method, or the like, to detect a vanishing point, which is the point where the most straight lines intersect, and feature vectors ( For example, the direction of travel of the vehicle, Hough component vectors, etc.) and classifiers can also be used. In addition, a method such as binarization for each area, outline detection, and color analysis may be used for recognition of surrounding objects, and machine learning techniques may be applied for detection of highly reliable surrounding objects.
단계 920에서, AVM 시스템은 검출된 주변 사물(예를 들어 차선)이 각 카메라에 대응되는 개별 탑뷰 영상에서 틀어짐 판단을 위한 산출값을 산출한다.In step 920, the AVM system calculates a calculated value for determining that the detected surrounding objects (eg, lanes) are distorted in individual top-view images corresponding to each camera.
앞서 설명한 바와 같이, 개별 탑뷰 영상이 틀어짐 판단을 위한 산출값은 예를 들어 제1 기법에 의해 개별 탑뷰 영상에서 추출된 차선의 평균 각도를 이용하여 산출된 개별 탑뷰 영상의 틀어짐 추정값(G)이거나, 제2 기법에 의해 AVM 영상을 생성하기 위해 중첩된 복수의 개별 탑뷰 영상의 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)이거나, 또는 제3 기법에 의해 이들을 가중 합산하여 산출한 틀어짐 정도(T)일 수 있다.As described above, the calculated value for determining the individual top view image distortion is, for example, the distortion estimation value G of the individual top view image calculated using the average angle of the lane extracted from the individual top view image by the first technique, or The total difference (D) of pixel values in each of the blending regions of a plurality of individual top-view images superimposed to generate the AVM image by the second technique, or the degree of distortion (T) calculated by weighting and summing them by the third technique Can be
단계 930에서, AVM 시스템은 틀어짐이 존재하는 개별 탑뷰 영상이 존재하는지 여부를 판단한다. AVM 시스템은 예를 들어 산출된 산출값이 미리 지정된 기준값을 초과하는 경우 해당 개별 탑뷰 영상이 틀어진 것으로 판단할 수 있다.In
만일 틀어짐이 존재하는 개별 탑뷰 영상이 존재하지 않으면, AVM 시스템은 단계 950으로 진행하여 카메라 유닛(210)에서 제공된 촬영 영상과 미리 저장된 변환 규칙을 이용하여 차량 주변에 대한 탑뷰 시점의 AVM 영상을 생성하고, 출력부를 통해 출력한다.If there is no individual top view image with distortion, the AVM system proceeds to step 950 to generate the AVM image of the top view point around the vehicle using the captured image provided in the
그러나 만일 틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상이 존재하면, 단계 940에서 AVM 시스템은 산출값이 최소화되도록 개별 탑뷰 영상을 보정하고, 이에 상응하도록 변환 규칙을 갱신한다. However, if there is an individual top-view image determined to exist, in
개별 탑뷰 영상을 보정하고 상응하는 변환 규칙으로 갱신하기 위해, AVM 시스템은 예를 들어 AVM 영상을 생성하도록 미리 저장된 4개의 영상 정합 기준점 각각의 위치를 해당 위치로부터 미리 지정된 픽셀 간격만큼(예를 들어 1픽셀 간격) 상, 하, 좌 또는 우의 방향으로 옮기고, 해당 시점에서의 영상 정합 기준점의 위치 정보와 틀어짐 검출부에 의해 연산된 각 개별 탑뷰 영상에 대한 산출값을 저장한다. 이러한 처리는 개별 탑뷰 영상 내의 미리 지정된 영역 범위 내에서 영상 정합 기준점의 위치를 각각 변경하면서 반복된다. In order to correct individual top view images and update them with corresponding conversion rules, the AVM system, for example, positions each of the four image registration reference points pre-stored to generate an AVM image by a predetermined pixel interval from the location (eg 1 Pixel spacing) It moves in the direction of up, down, left or right, and stores the position information of the image registration reference point at the corresponding time point and the calculated value for each individual top view image calculated by the distortion detection unit. This process is repeated while changing the position of the image registration reference point within a predetermined area range in the individual top view image, respectively.
이어서, AVM 시스템은 산출된 산출값들 중 최소의 크기를 가지는 산출값을 검출하고, 이에 상응하도록 저장된 4개의 영상 정합 기준점 각각의 위치 정보를 검출하며, 검출된 4개의 영상 정합 기준점 각각의 위치 정보를 참조하여 갱신된 변환 규칙을 생성한다. Subsequently, the AVM system detects the calculated value having the smallest size among the calculated values, detects location information of each of the four image registration reference points stored correspondingly, and positions information of each of the four detected image registration reference points. Create an updated conversion rule with reference to.
단계 950에서, AVM 시스템은 카메라 유닛(210)에서 제공된 촬영 영상과 갱신 저장된 변환 규칙을 이용하여 차량 주변에 대한 공차 보정된 탑뷰 시점의 AVM 영상을 생성하고, 출력부를 통해 출력한다.In
상술한 공차 보정 방법은 시계열적 순서에 따라 자동화된 절차를 수행하도록 하는 컴퓨터 프로그램으로 구현될 수 있고, 구현된 프로그램이 컴퓨터 장치에 내장되거나 설치되어 구동될 수 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있을 것이다. It is natural that the above-described tolerance correction method may be implemented as a computer program that performs an automated procedure in a time-series order, and that the implemented program can be driven by being built in or installed in a computer device. The codes and code segments constituting the program may be easily inferred by a computer programmer in the field.
상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.The above has been described with reference to embodiments of the present invention, but those skilled in the art variously modify the present invention within the scope not departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can change it.
10, 20, 30, 40 : 카메라 50 : 보정판
210 : 카메라 유닛 220 : 공차 보정 유닛
221 : 영상 변환부 223 : 정보 인식부
225 : 틀어짐 검출부 227 : 영상 보정부
229 : 변환 규칙 갱신부 510, 512, 514, 516 : 개별 탑뷰 영상
610, 620, 630, 640 : 블렌딩 영역
710 : 영상 정합 기준점10, 20, 30, 40: camera 50: calibration board
210: camera unit 220: tolerance correction unit
221: image conversion unit 223: information recognition unit
225: distortion detection unit 227: image correction unit
229: Conversion
610, 620, 630, 640: blending area
710: image registration reference point
Claims (11)
각 카메라에서 촬영된 촬영 영상에 상응하는 개별 탑뷰 영상에서 미리 지정된 기준에 따른 틀어짐이 존재하는지 여부를 판단하고, 틀어짐이 존재하면 촬영 영상을 상응하는 개별 탑뷰 영상으로 변환하기 위한 변환 규칙을 갱신하는 공차 보정 유닛; 및
상기 갱신된 변환 규칙과 상기 카메라 유닛에서 생성된 복수의 촬영 영상을 이용하여 AVM 영상을 생성하는 영상 합성부를 포함하되,
상기 공차 보정 유닛은,
상기 카메라 유닛에서 제공되는 복수의 촬영 영상 각각을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 영상 변환부;
촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 정보 인식부;
각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 틀어짐 검출부;
틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출부가 상기 틀어짐 검출 기법의 적용에 따라 산출한 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 영상 보정부; 및
상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록 상기 변환 규칙을 갱신하는 변환 규칙 갱신부를 포함하고,
상기 미리 지정된 틀어짐 검출 기법은 하기 수학식을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며, 이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값임.
A camera unit including a plurality of cameras mounted to photograph the front, right side, left side, and rear sides of the vehicle;
Tolerances for determining whether or not a distortion according to a predetermined criterion exists in an individual top view image corresponding to a captured image captured by each camera, and updating a conversion rule for converting a captured image to a corresponding individual top view image if a distortion exists. Correction unit; And
An image synthesis unit for generating an AVM image using the updated conversion rule and a plurality of captured images generated by the camera unit,
The tolerance correction unit,
An image converting unit converting each of the plurality of photographed images provided by the camera unit into one or more of a peripheral image and an individual top view image according to a predetermined format;
An information recognition unit for recognizing a surrounding object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image;
A distortion detection unit to determine whether each individual top-view image is distorted by applying a predetermined distortion detection technique to each individual top-view image;
For each top-view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the positions moved in a predetermined pixel unit. An image correction unit configured to detect location information of an image registration reference point having a minimum calculated value among the calculated values calculated by the distortion detection unit according to the application of the distortion detection method; And
And a conversion rule update unit that updates the conversion rule to correspond to the detected position information of the matched reference point,
The pre-specified distortion detection technique is characterized by calculating the calculated value that is the degree of distortion (T) of an individual top-view image using the following equation, and determining that the distortion exists when the calculated value exceeds a predetermined reference value. Around view monitoring system.
Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image, , V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of the pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 have a sum of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. and a pixel value, β q is the pixel value of the β position in the blending area of the second individual top view image to form a blended region, δ is the peripheral four recognized by the information identification portion in the coordinate range of the blending area In a position close to the object in contact with the ground with the advance over the specified threshold height, p δ is the pixel value of the δ position in the blending area of the first individual top view image to form a blended region, q δ is to form a blended region Pixel value at position δ in the blending region of the second individual top view image.
상기 미리 지정된 틀어짐 검출 기법은 하기 수학식을 이용하여 각 개별 탑뷰 영상의 틀어짐 추정값(G)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
여기서, 이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)임.
According to claim 1,
The pre-specified distortion detection technique is characterized in that it calculates a distortion value (G) of each individual top-view image using the following equation, and determines that a distortion exists when the calculated value exceeds a predetermined reference value. Around view monitoring system.
here, , V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the image, α image.
상기 미리 지정된 틀어짐 검출 기법은 하기 수학식을 이용하여 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이(D)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
여기서, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 정보 인식부에서 인식한 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값임.
According to claim 1,
The predetermined distortion detection technique calculates a calculated value that is the total difference (D) of pixel values in each blending region where each individual top-view image overlaps to generate an AVM image using the following equation, and the calculated calculated value Around view monitoring system, characterized in that it is determined that there is a distortion when the predetermined reference value is exceeded.
Here, λ 1 and λ 2 are weight factors respectively designated so that the sum value satisfies 1, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β forms a blending region. Is a pixel value at a β position in the blending region of the first individual top view image, q β is a pixel value at a β position in the blending region of the second individual top view image forming the blending region, and δ is among the coordinate ranges of the blending region Of the surrounding objects recognized by the information recognition unit, a surrounding object having a height equal to or greater than a predetermined threshold value is in contact with the ground, and p δ is a pixel value at the δ position in the blending area of the first individual top-view image forming the blending area, q δ is the pixel value of the δ position in the blending region of the second individual top-view image forming the blending region.
상기 정보 인식부는 차량의 진행 방향 및 허프(Hough) 성분 벡터를 특징 벡터로 구성하여 미리 지정된 분류기(Classifier)를 이용하여 분류함으로써 상기 차선을 인식하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
According to claim 1,
The information recognition unit is configured to configure the vehicle's traveling direction and Hough component vector as a feature vector, and classify it using a predefined classifier to recognize the lane.
상기 정보 인식부는 상기 대상 영상에서 신호등, 보행자, 도로 바닥의 표시 정보, 주변 차량 중 하나 이상인 주변 사물을 더 인식하고,
인식된 주변 사물의 위치 정보는 복수의 개별 탑뷰 영상을 이용하여 상기 AVM 영상을 생성하기 위한 기준 정보로 이용되는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
According to claim 1,
The information recognition unit further recognizes at least one of traffic lights, pedestrians, road floor information, and surrounding objects in the target image,
Around view monitoring system, characterized in that the recognized location information of surrounding objects is used as reference information for generating the AVM image using a plurality of individual top view images.
상기 정보 인식부는 미리 지정된 기계 학습 기법을 적용하여 주변 사물들 중 미리 지정된 기준을 만족하도록 신뢰도(confidence)가 평가된 주변 사물만을 인식 대상으로 한정하는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
The method of claim 7,
The information recognition unit applies a pre-designated machine learning technique to surround the surrounding view monitoring system, characterized in that to limit only those objects whose reliability is evaluated to satisfy a predetermined criterion among surrounding objects.
상기 영상 보정부는, 차선의 각도와 블렌딩 영역에서의 픽셀값 차이가 최소가 되는 개별 탑뷰 영상 내의 대응점의 위치를 찾는 비용 함수 및 미리 지정된 최적화 기법 중 하나 이상을 적용하여 영상 정합 기준점을 이동시키는 것을 특징으로 하는 어라운드 뷰 모니터링 시스템.
According to claim 1,
The image correction unit moves the image registration reference point by applying at least one of a predetermined optimization technique and a cost function for finding a position of a corresponding point in an individual top-view image in which a difference between a lane angle and a pixel value in a blending region is minimized. Around view monitoring system.
카메라 유닛에 포함된 복수의 카메라에 의해 각각 생성된 촬영 영상을 미리 지정된 형식에 따른 주변 영상 및 개별 탑뷰 영상 중 하나 이상으로 변환하는 단계;
촬영 영상, 주변 영상 및 개별 탑뷰 영상 중 하나 이상인 대상 영상을 해석하여 적어도 차선을 포함하는 주변 사물을 인식하는 단계;
각각의 개별 탑뷰 영상을 대상으로 미리 지정된 틀어짐 검출 기법을 적용하여 각 개별 탑뷰 영상의 틀어짐 여부를 판단하는 단계;
틀어짐이 존재하는 것으로 판단된 개별 탑뷰 영상에 대해 미리 지정된 복수의 영상 정합 기준점 각각의 위치를 미리 지정된 영역 범위 내에서 미리 지정된 픽셀 단위로 이동시키고, 미리 지정된 픽셀 단위로 이동된 위치들 각각을 기준으로 상기 틀어짐 검출 기법의 적용에 따라 산출된 산출값들 중 최소의 산출값을 가지는 영상 정합 기준점의 위치 정보를 검출하는 단계; 및
상기 검출된 영상 정합 기준점의 위치 정보에 상응하도록, 복수의 촬영 영상을 이용하여 AVM 영상을 생성하기 위한 변환 규칙을 갱신하는 단계를 포함하되,
상기 틀어짐 검출 기법은 하기 수학식을 이용하여 개별 탑뷰 영상의 틀어짐 정도(T)인 산출값을 산출하고, 산출된 산출값이 미리 지정된 기준값을 초과하면 틀어짐이 존재하는 것으로 판단하는 것을 특징으로 하는 컴퓨터-판독 가능 매체에 저장된 컴퓨터 프로그램.
여기서, ω1과 ω2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, G는 각 개별 탑뷰 영상의 틀어짐 추정값이며, 이고, VF는 전방의 개별 탑뷰 영상이며, VR은 우측의 개별 탑뷰 영상이며, VL은 좌측의 개별 탑뷰 영상이고, VB는 후방의 개별 탑뷰 영상이고, μα는 어느 하나의 개별 탑뷰 영상인 α 영상에서의 평균 차선 각도(Radian)이며, D는 AVM 영상을 생성하기 위해 각 개별 탑뷰 영상이 겹쳐지는 블렌딩 영역 각각에서의 픽셀값 전체 차이이고, λ1과 λ2는 합산값이 1을 만족하도록 각각 지정된 가중치 팩터이고, B는 블렌딩 영역의 좌표 범위이고, β는 블렌딩 영역의 좌표 범위 중 어느 한 위치이며, pβ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이고, qβ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 β위치의 픽셀값이며, δ는 블렌딩 영역의 좌표 범위 중에서 상기 인식된 주변 사물 중 미리 지정된 임계값 이상의 높이를 가지는 주변 물체가 지면과 맞닿는 위치이며, pδ는 블렌딩 영역을 형성하는 제1 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값이고, qδ는 블렌딩 영역을 형성하는 제2 개별 탑뷰 영상의 블렌딩 영역 내의 δ위치의 픽셀값임.
A computer program stored in a computer-readable medium for correcting camera tolerance, the computer program causing the computer to perform the following steps, the steps comprising:
Converting each of the captured images generated by the plurality of cameras included in the camera unit into one or more of a peripheral image and an individual top view image according to a predetermined format;
Recognizing a surrounding object including at least a lane by analyzing a target image of at least one of a captured image, a surrounding image, and an individual top view image;
Determining whether each individual top view image is distorted by applying a predetermined distortion detection method to each individual top view image;
For each individual top view image determined to be distorted, positions of each of a plurality of predefined image registration reference points are moved within a predetermined area range in a predetermined pixel unit, and based on each of the moved positions in a predetermined pixel unit. Detecting position information of an image registration reference point having a minimum calculated value among calculated values calculated according to the application of the distortion detection technique; And
And updating a conversion rule for generating an AVM image using a plurality of captured images, so as to correspond to the detected location information of the matched reference point.
The distortion detection method calculates a distortion value (T) of an individual top-view image by using the following equation, and when the calculated calculated value exceeds a predetermined reference value, it is determined that a distortion exists. -A computer program stored on a readable medium.
Here, ω 1 and ω 2 are weight factors respectively designated so that the sum value satisfies 1, and G is a distortion estimation value of each individual top view image, , V F is an individual top view image at the front, V R is an individual top view image at the right, V L is an individual top view image at the left, V B is an individual top view image at the rear, μ α is any one individual top view image The average lane angle (Radian) in the α image, which is the image, D is the total difference of pixel values in each blending area where each individual top-view image overlaps to generate an AVM image, and λ 1 and λ 2 are sums of 1 , Respectively, B is a coordinate range of the blending region, β is any one of the coordinate ranges of the blending region, and p β is a β location in the blending region of the first individual top-view image forming the blending region. Is the pixel value of, q β is the pixel value of the β position in the blending region of the second individual top-view image forming the blending region, and δ is pre-designated among the recognized peripheral objects among the coordinate ranges of the blending region. A position where a peripheral object having a height above a threshold is in contact with the ground, p δ is a pixel value at a position δ in the blending area of the first individual top-view image forming a blending area, and q δ is a second individual forming a blending area Pixel value at position δ in the blending area of the top view image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180073290A KR102089343B1 (en) | 2018-06-26 | 2018-06-26 | Around view monitoring system and calibration method for around view cameras |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180073290A KR102089343B1 (en) | 2018-06-26 | 2018-06-26 | Around view monitoring system and calibration method for around view cameras |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200000953A KR20200000953A (en) | 2020-01-06 |
KR102089343B1 true KR102089343B1 (en) | 2020-03-16 |
Family
ID=69158930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180073290A KR102089343B1 (en) | 2018-06-26 | 2018-06-26 | Around view monitoring system and calibration method for around view cameras |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102089343B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102481289B1 (en) * | 2020-08-24 | 2022-12-27 | 오토아이티(주) | Apparatus for providing vehicle AVM image for collision prevention of approaching objects |
CN112184723B (en) * | 2020-09-16 | 2024-03-26 | 杭州三坛医疗科技有限公司 | Image processing method and device, electronic equipment and storage medium |
KR102327860B1 (en) * | 2021-06-14 | 2021-11-17 | 주식회사 에이스뷰 | Method and system for monitoring multi channel around view for vehicle |
CN113592960B (en) * | 2021-08-18 | 2024-03-01 | 易思维(杭州)科技股份有限公司 | Method for screening images containing specific features from multiple images |
KR102543308B1 (en) * | 2022-08-12 | 2023-06-14 | 주식회사 디티지코리아 | method for generating vehicle around-view with 3.5D |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100948886B1 (en) | 2009-06-25 | 2010-03-24 | 주식회사 이미지넥스트 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
KR101772178B1 (en) * | 2015-12-04 | 2017-08-25 | 엘지전자 주식회사 | Land mark detecting apparatus and land mark detection method for vehicle |
KR102457264B1 (en) * | 2016-05-02 | 2022-10-20 | 현대모비스 주식회사 | Around view monitoring system and method for compensating camera tolerance there of |
KR20180040469A (en) * | 2016-10-12 | 2018-04-20 | 엘지이노텍 주식회사 | Method and apparatus for stitching image |
-
2018
- 2018-06-26 KR KR1020180073290A patent/KR102089343B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20200000953A (en) | 2020-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102089343B1 (en) | Around view monitoring system and calibration method for around view cameras | |
US11170466B2 (en) | Dense structure from motion | |
US11062155B2 (en) | Monocular cued detection of three-dimensional structures from depth images | |
KR102022388B1 (en) | Calibration system and method using real-world object information | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
US10878288B2 (en) | Database construction system for machine-learning | |
US10169667B2 (en) | External environment recognizing device for vehicle and vehicle behavior control device | |
US9818301B2 (en) | Lane correction system, lane correction apparatus and method of correcting lane | |
US7091837B2 (en) | Obstacle detecting apparatus and method | |
US8005266B2 (en) | Vehicle surroundings monitoring apparatus | |
KR102073971B1 (en) | Vehicle enforcement system and method based on deep learning | |
EP2237988B1 (en) | Object detection and recognition system | |
EP2924653A1 (en) | Image processing apparatus and image processing method | |
CN109409186B (en) | Driver assistance system and method for object detection and notification | |
JP5180126B2 (en) | Road recognition device | |
WO2018235300A1 (en) | Object detection device, object detection method, and computer-readable recording medium | |
KR101705558B1 (en) | Top view creating method for camera installed on vehicle and AVM system | |
JP6701057B2 (en) | Recognizer, program | |
Nath et al. | On road vehicle/object detection and tracking using template | |
JP5521217B2 (en) | Obstacle detection device and obstacle detection method | |
US20240103525A1 (en) | Vehicle and control method thereof | |
JP7460282B2 (en) | Obstacle detection device, obstacle detection method, and obstacle detection program | |
CN111133439B (en) | Panoramic monitoring system | |
KR20220006416A (en) | Surround monitoring system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |