KR20160045482A - Around view system and the operating method - Google Patents

Around view system and the operating method Download PDF

Info

Publication number
KR20160045482A
KR20160045482A KR1020140141126A KR20140141126A KR20160045482A KR 20160045482 A KR20160045482 A KR 20160045482A KR 1020140141126 A KR1020140141126 A KR 1020140141126A KR 20140141126 A KR20140141126 A KR 20140141126A KR 20160045482 A KR20160045482 A KR 20160045482A
Authority
KR
South Korea
Prior art keywords
parking
image
slope
avm
lines
Prior art date
Application number
KR1020140141126A
Other languages
Korean (ko)
Inventor
이성수
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020140141126A priority Critical patent/KR20160045482A/en
Priority to US14/884,121 priority patent/US9902426B2/en
Priority to CN201510666895.7A priority patent/CN105528914B/en
Priority to DE102015117535.5A priority patent/DE102015117535A1/en
Publication of KR20160045482A publication Critical patent/KR20160045482A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention includes: a camera module taking an image of a neighboring part of a vehicle; a display module displaying an inputted AVM synthetic image; and a control module outputting the AVM synthetic image, generated based on the image of the neighboring part, to the display module. The control module includes an around view system which includes: a generating part generating an AVM image having a changed view of the neighboring image; a recognizing part recognizing left and right parking lines and a parking division guide line from the AVM image; and a control part predicting a first inclination of the left and right parking lines and a parking line inclination direction, vertical to the parking division guide line, estimating a second inclination of the left and right parking lines based on the first inclination and position coordinates of the vehicle, and generating left and right parking indication lines corresponding to the left and right parking lines to generate the AVM synthetic image, overlapping the AVM image with the left and right parking indication lines, if a difference value between the first and second inclinations is smaller than a set threshold difference value.

Description

어라운드 뷰 시스템 및 그 동작방법{Around view system and the operating method}Around view system and a method of operating the same

본 발명은 어라운드 뷰 시스템 및 그 동작방법에 관한 것으로서, 더욱 상세하게는 차량의 목표주차구획에 주차시, 좌우 주차선을 인식하여 주차 정렬도 성능을 향상시킬 수 있는 어라운드 뷰 시스템 및 그 동작방법에 관한 것이다.More particularly, the present invention relates to an arousal view system capable of recognizing left and right parking lines at the time of parking in a target parking section of a vehicle and improving the performance of parking alignment, and an operation method thereof .

자동차는 이미 오래전부터 현대사회의 필수품이 되었다. 현대 도시생활에서 빠질 수 없는 대표적인 이동수단으로 자리잡게 되면서, 자동차는 더욱 빠른 속도로 보급이 확대되었고 그에 비례하여 여성 운전자의 수도 크게 늘어나고 있다.Cars have long been a necessity in modern society. As a typical means of transportation in modern urban life, automobiles have been increasingly distributed at a faster rate, and the number of female drivers is increasing accordingly.

한편, 대부분의 여성 운전자가 가장 큰 어려움으로 느끼는 주차 문제에 도움을 제공하기 위하여, 자동 주차시스템이 개발된 바 있고 이미 여러가지 형태로 제품에 적용되어 판매되고 있다.On the other hand, in order to provide assistance to parking problems that most female drivers feel as the greatest difficulty, a self parking system has been developed and already sold in various forms.

상기 자동 주차시스템의 동작은 먼저, 차량에 장착된 초음파 센서를 이용하여 주차할 공간을 스캔하여 해당 영역에 자리하고 있는 장애물을 확인함으로써 주차 가능여부를 판단하게 되는데, 앞서 주차된 차량이 놓인 자세에 따라 목표 주차위치의 방향이 비뚤어질 수 있고, 소정의 빔 폭을 갖는 초음파 센서의 특성상 좌/우 주차된 차량의 경계를 정밀하게 인식하지 못하여 목표 주차위치 설정 성공률이 낮은 단점이 있다.In the operation of the automatic parking system, the parking space is determined by scanning a space to be parked by using an ultrasonic sensor mounted on the vehicle and checking an obstacle located in the corresponding area. The direction of the target parking position can be skewed and the boundary of the left / right parked vehicle can not be precisely recognized due to the characteristics of the ultrasonic sensor having a predetermined beam width.

또한, 상기한 초음파 센서를 이용한 주차 지원 시스템은 탐색 대상의 공간에 이미 존재하고 있는 물체의 위치와 방향을 근거로 주차 제어를 실행하게 되므로, 기존 주차된 차량이 없는 경우에는 주차 기준을 설정할 수 없어 자동 주차 지원기능을 제공할 수 없는 단점이 있었다.In addition, since the parking assist system using the ultrasonic sensor performs parking control based on the position and direction of an object already existing in the space to be searched, the parking standard can not be set when there is no existing parked vehicle There is a disadvantage that the automatic parking support function can not be provided.

최근들어, 차량에 장착된 카메라모듈을 통하여 차량의 주변영상을 촬영하고, 촬영된 주변영상에 포함된 주차선을 인식하여 주차 정렬도 성능을 향상시키기 위한 연구가 진행 중에 있다.In recent years, research is underway to improve the performance of parking alignment by photographing a surrounding image of a vehicle through a camera module mounted on the vehicle and recognizing a parking line included in the captured peripheral image.

본 발명의 목적은, 차량의 목표주차구획에 주차시, 좌우 주차선을 인식하여 주차 정렬도 성능을 향상시킬 수 있는 어라운드 뷰 시스템 및 그 동작방법을 제공함에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an arousal view system and an operation method thereof that can improve parking alignment performance by recognizing left and right parking lines when parking a target parking section of a vehicle.

본 발명에 따른 어라운드 뷰 시스템의 동작방법은, 제1 시점에서 촬영된 제1 AVM 영상에서 주차구획 가이드선을 인식하는 단계, 상기 제1 시점 이후의 제2 시점에서, 촬영된 제2 AVM 영상에서 좌우 주차선의 제1 기울기를 예측 및 차량의 위치정보를 기반으로 상기 좌우 주차선의 제2 기울기를 추정하는 단계, 상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작은지 판단하는 단계 및 상기 차이값이 상기 임계차이값보다 작으면, 상기 좌우 주차선에 대응하는 좌우 주차지시선을 포함하는 AVM 합성 영상을 생성하는 단계를 포함한다.The method of operating an ambient view system according to the present invention includes the steps of recognizing a parking space guide line on a first AVM image photographed at a first point of view, Estimating a first slope of the left and right parking lines, estimating a second slope of the left and right parking lines based on the position information of the vehicle, determining whether the difference between the first slope and the second slope is less than a set threshold difference value, And generating an AVM composite image including left and right parking directors corresponding to the left and right parking lines if the difference value is smaller than the threshold difference value.

상기 주차구획 가이드선 인식 단계는, 상기 제1 AVM 영상을 변환한 제1 그레이 영상에서 수평방향으로 조도 편차를 이용하여 복수의 가이드선 특징점을 추출하는 단계, 상기 복수의 가이드선 특징점에 대한 선 성분을 추출하여, 상기 주차구획 가이드선을 인식하는 단계 및 상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향을 예측하는 단계를 포함한다.Wherein the step of recognizing the parking section guide line comprises the steps of extracting a plurality of guide line minutiae points by using an illuminance deviation in a horizontal direction in a first gray image transformed from the first AVM image, And recognizing the parking section guide line and predicting a parking line tilting direction perpendicular to the parking section guide line.

상기 기울기 예측 추정 단계는, 상기 제1 기울기를 예측하는 단계 및 상기 제2 기울기를 추정하는 단계를 포함한다.The slope prediction estimation step includes predicting the first slope and estimating the second slope.

상기 기울기 예측 단계는, 상기 제2 AVM 영상을 변환한 제2 그레이 영상에서 수직방향의 조도 편차를 이용하여 복수의 주차선 특징점을 추출하는 단계, 상기 복수의 주차선 특징점에 대한 선 성분을 추출하여, 상기 좌우 주차선을 인식하는 단계 및 상기 좌우 주차선의 영상 좌표 및 상기 차량의 위치 좌표를 기반으로, 상기 제1 기울기를 예측하는 단계를 포함한다.The slope predicting step may include extracting a plurality of parking line feature points using a vertical deviation in a second gray image transformed from the second AVM image, extracting line components of the plurality of parking line feature points , Recognizing the left and right parking lines, and predicting the first slope based on the image coordinates of the left and right parking lines and the position coordinates of the vehicle.

상기 기울기 추정 단계는, 상기 기울기 예측 단계에서 예측한 상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 제2 기울기를 추정한다.The tilt estimation step estimates the second tilt based on the first tilt estimated by the tilt prediction step and the position coordinates of the vehicle.

상기 임계차이값은, 1 °내지 11 °이다.The threshold difference value is between 1 [deg.] And 11 [deg.].

상기 영상 생성 단계는, 상기 제1, 2 기울기 중 어느 하나를 기반으로 생성한 상기 좌우 주차지시선을 상기 좌우 주차선 상에 오버랩된 상기 AVM 합성 영상을 생성한다.The image generating step generates the AVM composite image overlapped on the left and right parking lines with the left and right parking leader lines generated based on any one of the first and second slopes.

본 발명에 따른 어라운드 뷰 시스뎀의 동작방법은, 상기 AVM 합성영상을 디스플레이하는 단계를 더 포함한다.The method of operating the surround view system further includes displaying the AVM composite image.

본 발명에 따른 어라운드 뷰 시스템은, 차량의 주변영상을 촬영하는 카메라모듈, 입력된 AVM 합성영상을 디스플레이하는 디스플레이모듈 및 상기 주변영상을 기반으로 생성한 상기 AVM 합성영상을 상기 디스플레이모듈로 출력하는 제어모듈을 포함하고, 상기 제어모듈은, 상기 주변영상의 뷰가 변환된 AVM 영상을 생성하는 생성부, 상기 AVM 영상에서 주차구획 가이드선 및 좌우 주차선을 인식하는 인식부 및 상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향 및 상기 좌우 주차선의 제1 기울기를 예측하고, 상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 좌우 주차선의 제2 기울기를 추정하여, 상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작으면, 상기 좌우 주차선에 대응하는 좌우 주차지시선을 생성하여, 상기 AVM 영상에 상기 좌우주차지시선이 오버랩된 상기 AVM 합성영상을 생성하는 제어부를 포함한다.The surround view system according to the present invention includes a camera module for capturing a surrounding image of a vehicle, a display module for displaying an input AVM composite image, and a control unit for outputting the AVM composite image generated based on the peripheral image to the display module Module, wherein the control module comprises: a generation unit for generating an AVM image in which the view of the peripheral image is converted; a recognition unit for recognizing a parking compartment guide line and left and right parking lines in the AVM image; Estimating a second slope of the left and right parking lines on the basis of the first slope and the position coordinates of the vehicle, estimating a second slope of the left and right parking lines based on the first slope and the position coordinates of the vehicle, The left and right parking instruction lines corresponding to the left and right parking lines are generated, and if the difference value is smaller than the set threshold difference value, And a controller for generating the AVM composite image in which the left and right parking leader lines overlap.

상기 카메라모듈은, 상기 차량의 전후영상 및 좌우영상을 포함하는 상기 주변영상을 촬영하는 복수의 카메라를 포함한다.The camera module includes a plurality of cameras for capturing the surrounding image including the front and rear images and the left and right images of the vehicle.

상기 인식부는, 상기 AVM 영상을 그레이 영상으로 변환하는 영상 변환부, 상기 그레이 영상의 조도 편차를 이용하여, 복수의 가이드선 특징점 및 복수의 주차선 특징점을 추출하는 탑햇 필터부 및 상기 복수의 가이드선 특징점 및 상기 복수의 주차선 특징점 각각에 대한 선 성분을 추출하여, 상기 구획주차 가이드선 및 상기 좌우 주차선을 인식하는 차선 인식부를 포함한다.The recognition unit includes an image conversion unit for converting the AVM image into a gray image, a top hat filter unit for extracting a plurality of guide line feature points and a plurality of parking line feature points using the illumination deviation of the gray image, And a lane recognition unit for extracting a line component for each of the feature points and the plurality of parking line feature points and recognizing the divided parking guide line and the left and right parking lines.

상기 제어부는, 상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향 및 상기 좌우 주차선의 제1 기울기를 예측하는 예측부, 상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 좌우 주차선의 제2 기울기를 추정하는 추정부 및 상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작으면, 상기 좌우 주차선에 대응하는 좌우 주차지시선을 생성하여, 상기 AVM 영상에 상기 좌우주차지시선이 오버랩된 상기 AVM 합성영상을 생성부를 포함한다.The control unit includes a predictor for predicting a slope of the parking line perpendicular to the parking compartment guide line and a first slope of the left and right parking lines, a second slope of the second slope of the left and right parking lines based on the first slope, A left and a right parking instruction line corresponding to the left and right parking lines is generated when the difference between the first and second slopes is smaller than a set threshold difference value, And generating the AVM composite image.

상기 예측부는, 상기 좌우 주차선의 영상 좌표 및 상기 차량의 위치 좌료를 기반으로 상기 제1 기울기를 예측하며, 상기 임계 차이값은, 1 °내지 11 °이다.The predicting unit predicts the first slope based on the image coordinates of the left and right parking lines and the locus of the vehicle, and the threshold difference value is 1 DEG to 11 DEG.

본 발명에 따른 어라운드 뷰 시스템 및 그 동작방법은, 차량 주차시 목표주차구획에서 좌우 주차선을 인식하며, 차량을 기준으로 좌우 주차선에 대하여 추정된 기울기와 예측된 기울기에 따라 목표주차구획에 대한 인식 오차를 줄일 수 있으며, 목표주차구획의 좌우 주차선에 오버랩된 좌우 주차지시선을 디스플레이하여, 주차 정렬도 성능을 향상시킬 수 있는 이점이 있다. The surround view system and its operation method according to the present invention recognize left and right parking lines in a target parking section when a vehicle is parked, and calculate a target parking section for a target parking section according to an estimated slope and a predicted slope with respect to left and right parking lines, It is possible to reduce the recognition error and display the left and right parking instruction lines overlapped with the left and right parking lines of the target parking section to improve the parking alignment performance.

도 1은 본 발명에 따른 어라운드 뷰 시스템의 제어구성을 나타낸 제어블록도이다.
도 2는 도 1에 나타낸 제어모듈의 제어구성을 나타낸 제어블록도이다.
도 3은 도 1에 나타낸 제어모듈에서 주차구획 가이드선을 인식하기 위한 예시도이다.
도 4는 도 1에 나타낸 제어모듈에서 주차선을 인식하기 위한 예시도이다.
도 5는 본 발명에 따른 어라운드 뷰 시스템에서 좌우 주차선에 좌우주차 지시선이 오버랩된 영상을 나타낸 예시도이다.
도 6은 본 발명에 따른 어라운드 뷰 시스템의 동작방법을 나타낸 순서도이다.
FIG. 1 is a control block diagram showing a control configuration of an ambient view system according to the present invention.
2 is a control block diagram showing a control configuration of the control module shown in Fig.
FIG. 3 is an exemplary view for recognizing a parking compartment guide line in the control module shown in FIG. 1. FIG.
4 is an exemplary diagram for recognizing a parking line in the control module shown in FIG.
FIG. 5 is a diagram illustrating an example in which left and right parking direction lines overlap left and right parking lines in the surround view system according to the present invention.
6 is a flowchart illustrating an operation method of the surround view system according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

이하에서는 도면을 참조하여 실시예를 보다 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the drawings.

도 1은 본 발명에 따른 어라운드 뷰 시스템의 제어구성을 나타낸 제어블록도, 도 2는 도 1에 나타낸 제어모듈의 제어구성을 나타낸 제어블록도, 도 3은 도 1에 나타낸 제어모듈에서 주차구획 가이드선을 인식하기 위한 예시도, 도 4는 도 1에 나타낸 제어모듈에서 주차선을 인식하기 위한 예시도 및 도 5는 본 발명에 따른 어라운드 뷰 시스템에서 좌우 주차선에 좌우주차 지시선이 오버랩된 영상을 나타낸 예시도이다.1 is a control block diagram showing a control configuration of the control module shown in Fig. 1. Fig. 3 is a block diagram of a control block shown in Fig. FIG. 4 is an exemplary view for recognizing a parking line in the control module shown in FIG. 1, and FIG. 5 is a view for explaining a method for recognizing a parking line in the surround- Fig.

도 1 내지 도 5를 참조하면, 어라운드 뷰 시스템은 카메라모듈(110), 디스플레이모듈(120) 및 제어모듈(130)을 포함할 수 있다.Referring to FIGS. 1 to 5, the surround view system may include a camera module 110, a display module 120, and a control module 130.

카메라모듈(110)는 차량의 주변영상, 즉 차량의 전방 영상을 촬영하는 제1 카메라(112), 차량의 후방 영상을 촬영하는 제2 카메라(114), 차량의 좌측방 영상을 촬영하는 제3 카메라(116), 차량의 우측방 영상을 촬영하는 제4 카메라(118)를 포함할 수 있다.The camera module 110 includes a first camera 112 for photographing a peripheral image of the vehicle, that is, a forward image of the vehicle, a second camera 114 for photographing a rear image of the vehicle, a third camera 114 for photographing a left image of the vehicle, A camera 116, and a fourth camera 118 for shooting a right-side image of the vehicle.

실시 예에서, 카메라모듈(110)은 4대의 제1 내지 제4 카메라(112, 114, 116, 118)를 포함하는 것으로 나타내었으나, 차량의 후방 영상을 촬영하는 제2 카메라(114) 만을 포함할 수 있으며, 카메라 대수에 대하여 한정을 두지 않는다.In the embodiment, the camera module 110 is shown as including four first to fourth cameras 112, 114, 116, and 118, but may include only a second camera 114 that captures a backward image of the vehicle And there is no limitation on the number of cameras.

또한, 실시 예에서, 제1 내지 제4 카메라(112, 114, 116, 118)는 각각 촬영한 영상을 제어모듈(130)로 전달하는 것으로 설명하고, 도면에 나타내지만, 제1 내지 제4 카메라(112, 114, 116, 118)에서 촬영된 영상들을 통합하여 주변영상을 생성하고 제어모듈(130)로 전달하는 카메라제어부(미도시)를 포함할 수 있으며, 이에 한정을 두지 않는다.In the embodiment, the first to fourth cameras 112, 114, 116, and 118 transmit the photographed images to the control module 130, respectively. As shown in the figure, (Not shown) that integrates images photographed by the cameras 112, 114, 116, and 118 to generate a peripheral image and transmits the generated peripheral image to the control module 130. However, the present invention is not limited thereto.

디스플레이모듈(120)은 제어모듈(130)로부터 전달된 AVM 합성영상을 디스플레이할 수 있다.The display module 120 may display the AVM composite image transmitted from the control module 130. [

또한, 디스플레이모듈(120)은 사용자에 의해 터치 입력이 가능한 터치 디스플레이패널을 포함할 수 있으며, 이에 한정을 두지 않는다.In addition, the display module 120 may include a touch display panel capable of touch input by a user, but is not limited thereto.

제어모듈(130)는 차량의 속도 및 기어 위치 중 적어도 하나를 포함하는 차량의 주행정보를 차량에 설치된 복수의 센서(미도시)로부터 수집할 수 있다.The control module 130 may collect the running information of the vehicle including at least one of the speed and the gear position of the vehicle from a plurality of sensors (not shown) installed in the vehicle.

이때, 제어모듈(130)는 상기 복수의 센서에서 수집한 상기 주행정보에 따라 제1 내지 제4 카메라(112 ~ 118)에서 촬영된 상기 주변영상을 설정 기준에 따라 합성한 AVM 합성영상을 생성하여, 디스플레이모듈(120)에 디스플레이되도록 제어할 수 있다.At this time, the control module 130 generates an AVM composite image in which the surrounding images photographed by the first to fourth cameras 112 to 118 are synthesized according to the setting reference according to the traveling information collected from the plurality of sensors , And display on the display module 120.

도 2에 나타낸 바와 같이, 제어모듈(130)은 생성부(140), 인식부(150) 및 제어부(160)를 포함할 수 있다.2, the control module 130 may include a generation unit 140, a recognition unit 150, and a control unit 160. [

생성부(142)는 상기 주변영상의 뷰가 변환된 AVM 영상을 생성할 수 있다.The generation unit 142 may generate an AVM image in which the view of the surrounding image is converted.

즉, 생성부(140)는 제1 내지 제4 카메라(112 ~ 118)에서 촬영된 영상들을 설정된 변환비에 따라 뷰를 변환시켜 상기 AVM 영상을 생성한다.That is, the generating unit 140 converts the images photographed by the first to fourth cameras 112 to 118 according to a predetermined conversion ratio to generate the AVM image.

인식부(150)는 상기 AVM 영상을 그레이 영상으로 변환하는 영상 변환부(152), 상기 그레이 영상의 조도 편차를 이용하여 복수의 가이드선 특징점 및 복수의 주차선 특징점을 추출하는 탑햇 필터부(154) 및 상기 복수의 가이드선 특징점 및 상기 복수의 주차선 특징점 각각에 대한 선 성분을 추출하여, 상기 구획주차 가이드선 및 상기 좌우 주차선을 인식하는 차선 인식부(156)를 포함할 수 있다.The recognition unit 150 includes an image conversion unit 152 for converting the AVM image into a gray image, a top hat filter unit 154 for extracting a plurality of guide line feature points and a plurality of parking line feature points using the illumination deviation of the gray image And a lane recognition unit 156 for extracting a line component for each of the plurality of guide line feature points and the plurality of parking line feature points and recognizing the divided parking guide line and the left and right parking lines.

영상 변환부(152)는 상기 AVM 영상을 설정된 영상 변환 방식에 따라 상기 그레이 영상으로 영상 변환한다.The image converting unit 152 converts the AVM image into the gray image according to a predetermined image conversion method.

탑햇 필터부(Top-Hat fiter, 154)는 상기 그레이 영상에서 상기 조도 편차가 발생되는 점에 해당되는 주차구획 가이드선에 대한 상기 복수의 가이드선 특징점 및 좌우 주차선에 대한 상기 복수의 주차선 특징점을 추출을 추출할 수 있다.The top hat filter (154) filters the plurality of guide line minutiae points and the plurality of parking line minutiae points for the left and right parking lines with respect to the parking zone guiding line corresponding to the point where the roughness deviation occurs in the gray image The extraction can be extracted.

예를 들면, 탑햇 필터부(154)는 일반적으로 흰색의 주차선과 일반 도로와의 조도 편차를 측정하여, 상기 조도 편차가 발생된 부분의 중심점을 상기 복수의 가이드선 특징점 및 상기 복수의 주차선 특징점으로 추출할 수 있다.For example, the top hat filter unit 154 generally measures the luminance deviation between the white parking line and the general road, and calculates the center point of the portion where the illumination deviation is generated to the plurality of guide line minutiae points and the plurality of parking line minutiae points .

우선, 도 3에 나타낸 바와 같이, 탑햇 필터부(154)는 상기 목표주차구획에서 수평 방향에 위치한 상기 주차구획 가이드선에 대하여 조도 편차를 측정한 값을 나타낸다.3, the top hat filter section 154 shows a value obtained by measuring the roughness deviation with respect to the parking section guide line positioned in the horizontal direction in the target parking section.

이때, 탑햇 필터부(154)는 상기 주차구획 가이드 선의 폭에 따라 삼각형 형상으로 값을 측정할 수 있으며, 삼각형 형상에서 중심값을 상기 복수의 가이드선 특징점으로 추출할 수 있다.At this time, the top hat filter unit 154 may measure a value in a triangle shape according to the width of the parking space guiding guide line, and extract a center value from the triangle shape as the plurality of guide line minutiae points.

그리고, 도 4에 나타낸 바와 같이, 탑햇 필터부(154)는 상술한 바와 같이 동일하게, 상기 목표주차구획에서 수직 방향에 위치한 상기 좌우 주차선에 대하여 조도 편차를 측정한 값을 나타낸다.As shown in Fig. 4, the top hat filter section 154 similarly shows a value obtained by measuring the luminance deviation with respect to the left and right parking lines located in the vertical direction in the target parking section.

제어부(160)는 예측부(162), 추정부(164) 및 생성부(166)을 포함할 수 있다.The controller 160 may include a predictor 162, an estimator 164, and a generator 166.

예측부(162)는 인식부(150)에서 인식한 상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향(p) 및 상기 좌우 주차선의 제1 기울기를 예측할 수 있다.The predicting unit 162 can predict the parking line inclination direction p perpendicular to the parking section guide line recognized by the recognition unit 150 and the first slope of the left and right parking lines.

즉, 주차선 기울기 방향(p)는 도 3에 나타낸 바와 같이 상기 주차구획 가이드선에 수직을 이루는 방향을 나타내며, 상기 좌우 주차선과 상기 주차구획 가이드선이 이루는 기울기각과 동일할 수 있다.That is, the parking line inclination direction p indicates a direction perpendicular to the parking space partitioning guide line as shown in FIG. 3, and may be the same as the slope angle formed between the left and right parking lines and the parking space partitioning guide line.

이때, 예측부(162)는 상기 좌우 주차선의 영상 좌표 및 상기 차량의 위치 좌표를 기반으로 상기 제1 기울기를 예측할 수 있다.At this time, the predicting unit 162 may predict the first slope based on the image coordinates of the left and right parking lines and the position coordinates of the vehicle.

즉, 예측부(162)는 상기 AVM 영상에서 상기 좌우 주차선의 영상 좌표와 상기 차량에 설치된 좌표계로 측정된 상기 위치 좌표를 기반으로 상기 제1 기울기를 예측할 수 있다.That is, the predicting unit 162 can predict the first slope based on the image coordinates of the left and right parking lines in the AVM image and the position coordinates measured in the coordinate system installed in the vehicle.

추정부(164)는 예측부(162)에서 예측한 상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 좌우 주차선의 제2 기울기를 추정할 수 있다.The estimator 164 may estimate the second slope of the left and right parking lines based on the first slope predicted by the predictor 162 and the position coordinates of the vehicle.

이때, 추정부(164)는 상기 제1 기울기와 상기 위치 좌표에 의해 산출된 차량위치각도에 설정된 각도를 더하여, 상기 제2 기울기를 추정할 수 있다.At this time, the estimator 164 may estimate the second slope by adding the angle set at the vehicle position angle calculated by the first slope and the position coordinates.

생성부(166)는 상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작으면, 상기 좌우 주차선에 대응하는 좌우 주차지시선을 생성하여, 상기 AVM 영상에 상기 좌우주차지시선이 오버랩된 상기 AVM 합성영상을 생성할 수 있다.If the difference between the first and second slopes is smaller than the set threshold difference value, the generating unit 166 generates left and right parking directories corresponding to the left and right parking lines, and the left and right parking directories are overlapped with the AVM image The AVM composite image can be generated.

여기서, 상기 임계차이값은, 1°내지 11 °일 수 있으며, 이에 한정을 두지 않는다.Here, the threshold difference value may be 1 DEG to 11 DEG, but is not limited thereto.

즉, 상기 임계차이값은 11 °보다 크면, 오차율이 증가되는 문제점이 발생될 수 있다.That is, if the threshold difference value is larger than 11 degrees, the error rate may increase.

이때, 생성부(166)는 상기 AVM 합성영상에 상기 좌우 주차지시선의 중심을 나타내는 기준지시선을 오버랩시킬 수 있으며, 이에 한정을 두지 않는다.At this time, the generator 166 may overlap the AVM composite image with the reference leader indicating the center of the left and right parking leader lines, but is not limited thereto.

즉, 생성부(166)는 도 5에 나타낸 바와 같이 상기 AVM 합성영상을 생성할 수 있으며, 이에 한정을 두지 않는다.That is, the generator 166 can generate the AVM composite image as shown in FIG. 5, but the present invention is not limited thereto.

도 6은 본 발명에 따른 어라운드 뷰 시스템의 동작방법을 나타낸 순서도이다.6 is a flowchart illustrating an operation method of the surround view system according to the present invention.

도 6을 참조하면, 어라운드 뷰 시스템은 제1 시점에서 촬영된 제1 AVM 영상을 변환한 제1 그레이 영상에서 수평방향으로 조도 편차를 이용하여 복수의 가이드선 특징점을 추출하고(S110), 상기 복수의 가이드선 특징점에 대한 선 성분을 추출하여, 상기 주차구획 가이드선을 인식하며(S120), 상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향을 예측한다(S130).Referring to FIG. 6, the surround view system extracts a plurality of guide line feature points using the illumination deviation in the horizontal direction in the first gray image obtained by converting the first AVM image captured at the first view (S110) (S120), and estimates the parking line inclination direction perpendicular to the parking space guiding line (S130).

이후, 어라운드 뷰 시스템은 상기 제1 시점 이후의 제2 시점에서, 촬영된 상기 제2 AVM 영상을 변환한 제2 그레이 영상에서 수직방향의 조도 편차를 이용하여 복수의 주차선 특징점을 추출하고(S140), 상기 복수의 주차선 특징점에 대한 선 성분을 추출하여, 상기 좌우 주차선을 인식하며(S150), 상기 좌우 주차선의 영상 좌표 및 상기 차량의 위치 좌표를 기반으로, 상기 제1 기울기를 예측한다(S160).Then, the surround view system extracts a plurality of parking line minutiae points from the second gray image obtained by converting the photographed second AVM image at a second point in time after the first point in time, using the luminance deviation in the vertical direction (S140 ), The line components of the plurality of parking line feature points are extracted to recognize the left and right parking lines (S150), and the first slope is predicted based on the image coordinates of the left and right parking lines and the position coordinates of the vehicle (S160).

어라운드 뷰 시스템은 상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 제2 기울기를 추정한다(S170).The surround view system estimates the second slope based on the first slope and the position coordinates of the vehicle (S170).

어라운드 뷰 시스템은 상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작은지 판단하여(S180), 상기 차이값이 상기 임계차이값보다 작으면, 상기 제1, 2 기울기 중 어느 하나를 기반으로 생성한 상기 좌우 주차지시선을 상기 좌우 주차선 상에 오버랩된 상기 AVM 합성 영상을 생성을 생성한다(S190).The surround view system determines whether the difference between the first and second slopes is smaller than a predetermined threshold difference value in step S180. If the difference value is smaller than the threshold difference value, And generates the AVM composite image overlapped on the left and right parking lines with the left and right parking leader lines generated based on the left and right parking lines (S190).

이후, 어라운드 뷰 시스템은 상기 AVM 합성 영상을 디스플레이한다(S200).Thereafter, the surround view system displays the AVM composite image (S200).

이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다.It is to be understood that the terms "comprises", "comprising", or "having" as used in the foregoing description mean that the constituent element can be implanted unless specifically stated to the contrary, But should be construed as further including other elements.

이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

Claims (14)

제1 시점에서 촬영된 제1 AVM 영상에서 주차구획 가이드선을 인식하는 단계;
상기 제1 시점 이후의 제2 시점에서, 촬영된 제2 AVM 영상에서 좌우 주차선의 제1 기울기를 예측 및 차량의 위치정보를 기반으로 상기 좌우 주차선의 제2 기울기를 추정하는 단계;
상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작은지 판단하는 단계; 및
상기 차이값이 상기 임계차이값보다 작으면, 상기 좌우 주차선에 대응하는 좌우 주차지시선을 포함하는 AVM 합성 영상을 생성하는 단계;를 포함하는 어라운드 뷰 시스테의 동작방법.
Recognizing a parking compartment guide line in a first AVM image photographed at a first point in time;
Estimating a first slope of the left and right parking lines on the photographed second AVM image at a second point of time after the first point of view and estimating a second slope of the left and right parking lines based on the position information of the vehicle;
Determining whether a difference value between the first and second slopes is smaller than a set threshold difference value; And
And generating an AVM composite image including left and right parking directors corresponding to the left and right parking lines if the difference value is smaller than the threshold difference value.
제 1 항에 있어서,
상기 주차구획 가이드선 인식 단계는,
상기 제1 AVM 영상을 변환한 제1 그레이 영상에서 수평방향으로 조도 편차를 이용하여 복수의 가이드선 특징점을 추출하는 단계;
상기 복수의 가이드선 특징점에 대한 선 성분을 추출하여, 상기 주차구획 가이드선을 인식하는 단계; 및
상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향을 예측하는 단계;를 포함하는 어라운드 뷰 시스템의 동작방법.
The method according to claim 1,
Wherein the step of recognizing the parking-
Extracting a plurality of guide line minutiae points by using an illumination deviation in a horizontal direction in a first gray image transformed from the first AVM image;
Extracting line components for the plurality of guide line feature points and recognizing the parking segment guide line; And
And predicting a parking line slanting direction perpendicular to the parking space guiding line.
제 2 항에 있어서,
상기 기울기 예측 추정 단계는,
상기 제1 기울기를 예측하는 단계; 및
상기 제2 기울기를 추정하는 단계;를 포함하는 어라운드 뷰 시스템의 동작방법.
3. The method of claim 2,
Wherein the tilt prediction estimation step comprises:
Predicting the first slope; And
And estimating the second slope based on the second slope.
제 3 항에 있어서,
상기 기울기 예측 단계는,
상기 제2 AVM 영상을 변환한 제2 그레이 영상에서 수직방향의 조도 편차를 이용하여 복수의 주차선 특징점을 추출하는 단계;
상기 복수의 주차선 특징점에 대한 선 성분을 추출하여, 상기 좌우 주차선을 인식하는 단계; 및
상기 좌우 주차선의 영상 좌표 및 상기 차량의 위치 좌표를 기반으로, 상기 제1 기울기를 예측하는 단계;를 포함하는 어라운드 뷰 시스템의 동작방법.
The method of claim 3,
Wherein the slope prediction step comprises:
Extracting a plurality of parking line minutiae points by using an illumination deviation in a vertical direction in a second gray image converted from the second AVM image;
Extracting line components for the plurality of parking line feature points and recognizing the left and right parking lines; And
And predicting the first slope based on the image coordinates of the left and right parking lines and the position coordinates of the vehicle.
제 3 항에 있어서,
상기 기울기 추정 단계는,
상기 기울기 예측 단계에서 예측한 상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 제2 기울기를 추정하는 어라운드 뷰 시스템의 동작방법.
The method of claim 3,
The tilt estimation step may include:
And estimating the second slope based on the first slope predicted in the slope prediction step and the position coordinates of the vehicle.
제 1 항에 있어서,
상기 임계차이값은,
1 °내지 11 °인 어라운드 뷰 시스템의 동작방법.
The method according to claim 1,
The threshold difference value,
Lt; RTI ID = 0.0 > 1 < / RTI >
제 1 항에 있어서,
상기 영상 생성 단계는,
상기 제1, 2 기울기 중 어느 하나를 기반으로 생성한 상기 좌우 주차지시선을 상기 좌우 주차선 상에 오버랩된 상기 AVM 합성 영상을 생성하는 어라운드 뷰 시스템의 동작방법.
The method according to claim 1,
The image generation step may include:
And generating the AVM composite image overlapped on the left and right parking lines with the left and right parking leader lines generated based on any one of the first and second slopes.
제 1 항에 있어서,
상기 AVM 합성영상을 디스플레이하는 단계;를 더 포함하는 어라운드 뷰 시스템의 동작방법.
The method according to claim 1,
And displaying the AVM composite image.
차량의 주변영상을 촬영하는 카메라모듈;
입력된 AVM 합성영상을 디스플레이하는 디스플레이모듈; 및
상기 주변영상을 기반으로 생성한 상기 AVM 합성영상을 상기 디스플레이모듈로 출력하는 제어모듈;을 포함하고,
상기 제어모듈은,
상기 주변영상의 뷰가 변환된 AVM 영상을 생성하는 생성부;
상기 AVM 영상에서 주차구획 가이드선 및 좌우 주차선을 인식하는 인식부; 및
상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향 및 상기 좌우 주차선의 제1 기울기를 예측하고, 상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 좌우 주차선의 제2 기울기를 추정하여, 상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작으면, 상기 좌우 주차선에 대응하는 좌우 주차지시선을 생성하여, 상기 AVM 영상에 상기 좌우주차지시선이 오버랩된 상기 AVM 합성영상을 생성하는 제어부;를 포함하는 어라운드 뷰 시스템.
A camera module for photographing a peripheral image of the vehicle;
A display module for displaying the input AVM composite image; And
And a control module for outputting the AVM composite image generated based on the peripheral image to the display module,
The control module includes:
A generating unit generating an AVM image in which a view of the surrounding image is converted;
A recognition unit for recognizing the parking space guiding line and the left and right parking lines in the AVM image; And
Estimating a second slope of the left and right parking lines based on the first slope and the position coordinates of the vehicle, estimating a second slope of the left and right parking lines by predicting the slope of the parking line perpendicular to the parking space guiding line and the first slope of the left and right parking lines, If the difference between the first and second slopes is smaller than the set threshold difference value, a left and right parking instruction line corresponding to the left and right parking lines is generated to generate the AVM composite image in which the left and right parking instruction lines overlap the AVM image And a control unit.
제 9 항에 있어서,
상기 카메라모듈은,
상기 차량의 전후영상 및 좌우영상을 포함하는 상기 주변영상을 촬영하는 복수의 카메라를 포함하는 어라운드 뷰 시스템.
10. The method of claim 9,
The camera module includes:
And a plurality of cameras for photographing the surrounding image including the front and rear images and the left and right images of the vehicle.
제 9 항에 있어서,
상기 인식부는,
상기 AVM 영상을 그레이 영상으로 변환하는 영상 변환부;
상기 그레이 영상의 조도 편차를 이용하여, 복수의 가이드선 특징점 및 복수의 주차선 특징점을 추출하는 탑햇 필터부; 및
상기 복수의 가이드선 특징점 및 상기 복수의 주차선 특징점 각각에 대한 선 성분을 추출하여, 상기 구획주차 가이드선 및 상기 좌우 주차선을 인식하는 차선 인식부;를 포함하는 어라운드 뷰 시스템.
10. The method of claim 9,
Wherein,
An image converter for converting the AVM image into a gray image;
A top hat filter unit for extracting a plurality of guide line feature points and a plurality of parking line feature points using the illumination deviation of the gray image; And
And a lane recognition unit for extracting line components for each of the plurality of guide line feature points and the plurality of parking line feature points and recognizing the division parking guide line and the left and right parking lines.
제 9 항에 있어서,
상기 제어부는,
상기 주차구획 가이드선에 수직을 이루는 주차선 기울기 방향 및 상기 좌우 주차선의 제1 기울기를 예측하는 예측부;
상기 제1 기울기 및 상기 차량의 위치 좌표를 기반으로 상기 좌우 주차선의 제2 기울기를 추정하는 추정부; 및
상기 제1, 2 기울기 사이의 차이값이 설정된 임계차이값보다 작으면, 상기 좌우 주차선에 대응하는 좌우 주차지시선을 생성하여, 상기 AVM 영상에 상기 좌우주차지시선이 오버랩된 상기 AVM 합성영상을 생성부;를 포함하는 어라운드 뷰 시스템.
10. The method of claim 9,
Wherein,
A predictor for predicting a slope of the parking line perpendicular to the parking compartment guide line and a first slope of the left and right parking lines;
An estimator for estimating a second slope of the left and right parking lines based on the first slope and the position coordinates of the vehicle; And
Generating a left and a right parking instruction line corresponding to the left and right parking lines if the difference between the first and second slopes is smaller than the set threshold difference value, and generating the AVM composite image in which the left and right parking instruction lines overlap the AVM image Around view system that includes parts.
제 12 항에 있어서,
상기 예측부는,
상기 좌우 주차선의 영상 좌표 및 상기 차량의 위치 좌료를 기반으로 상기 제1 기울기를 예측하는 어라운드 뷰 시스템.
13. The method of claim 12,
The predicting unit,
And estimating the first slope based on the image coordinate of the left and right parking lines and the positional coordinate of the vehicle.
제 12 항에 있어서,
상기 임계 차이값은,
1 °내지 11 °인 어라운드 뷰 시스템.
13. The method of claim 12,
The threshold difference value,
Around view system with 1 ° to 11 °.
KR1020140141126A 2014-10-17 2014-10-17 Around view system and the operating method KR20160045482A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140141126A KR20160045482A (en) 2014-10-17 2014-10-17 Around view system and the operating method
US14/884,121 US9902426B2 (en) 2014-10-17 2015-10-15 Apparatus and method for driver assistance
CN201510666895.7A CN105528914B (en) 2014-10-17 2015-10-15 Driver's assisting system and driver's support method
DE102015117535.5A DE102015117535A1 (en) 2014-10-17 2015-10-15 Device and method for driver assistance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140141126A KR20160045482A (en) 2014-10-17 2014-10-17 Around view system and the operating method

Publications (1)

Publication Number Publication Date
KR20160045482A true KR20160045482A (en) 2016-04-27

Family

ID=55914747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140141126A KR20160045482A (en) 2014-10-17 2014-10-17 Around view system and the operating method

Country Status (1)

Country Link
KR (1) KR20160045482A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058505A (en) * 2016-11-24 2018-06-01 (주)캠시스 Avm system for providing information of parking guide line and method thereof
KR20200068045A (en) * 2018-11-26 2020-06-15 (주)캠시스 Around view monitoring system and method for detecting parking line with deep learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058505A (en) * 2016-11-24 2018-06-01 (주)캠시스 Avm system for providing information of parking guide line and method thereof
KR20200068045A (en) * 2018-11-26 2020-06-15 (주)캠시스 Around view monitoring system and method for detecting parking line with deep learning

Similar Documents

Publication Publication Date Title
CN108027976B (en) Travel assist device and travel assist method based on travel assist device
US9378425B2 (en) On-vehicle image processing device
US10311618B2 (en) Virtual viewpoint position control device and virtual viewpoint position control method
KR101988811B1 (en) Signaling device and signaling device recognition method
JP5421072B2 (en) Approaching object detection system
JP3739693B2 (en) Image recognition device
JP6649738B2 (en) Parking lot recognition device, parking lot recognition method
JP4835201B2 (en) 3D shape detector
JP5729158B2 (en) Parking assistance device and parking assistance method
US20180307919A1 (en) Parking Space Line Detection Method and Device
KR101566912B1 (en) Around view monitoring apparatus and Method of thereof
KR20160004113A (en) Around view system and the operating method
US11024051B2 (en) Object detection device
JP2014034251A (en) Vehicle traveling control device and method thereof
KR102268641B1 (en) Around view system and the operating method
JP2010009235A (en) Image display device
JP2008158640A (en) Moving object detection apparatus
JP7044513B2 (en) Road recognition device
JP6194245B2 (en) Traffic light recognition device
KR20060021922A (en) Two camera based obstacle detection method and device
JP2007280132A (en) Travel guide obstacle detector, and controller for vehicle
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JPWO2014156166A1 (en) Parking support system and parking support method
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP5910180B2 (en) Moving object position and orientation estimation apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application