KR20170016143A - Lane recognition system using light fied camera and method therefor - Google Patents

Lane recognition system using light fied camera and method therefor Download PDF

Info

Publication number
KR20170016143A
KR20170016143A KR1020150109550A KR20150109550A KR20170016143A KR 20170016143 A KR20170016143 A KR 20170016143A KR 1020150109550 A KR1020150109550 A KR 1020150109550A KR 20150109550 A KR20150109550 A KR 20150109550A KR 20170016143 A KR20170016143 A KR 20170016143A
Authority
KR
South Korea
Prior art keywords
lane
unit
image
template
vehicle
Prior art date
Application number
KR1020150109550A
Other languages
Korean (ko)
Other versions
KR101720679B1 (en
Inventor
박대한
이성안
최태선
Original Assignee
박대한
최태선
이성안
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박대한, 최태선, 이성안 filed Critical 박대한
Priority to KR1020150109550A priority Critical patent/KR101720679B1/en
Publication of KR20170016143A publication Critical patent/KR20170016143A/en
Application granted granted Critical
Publication of KR101720679B1 publication Critical patent/KR101720679B1/en

Links

Images

Classifications

    • G06K9/00798
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Abstract

The present invention relates to a lane recognition system using a light-field camera and a method thereof, which improve the accuracy of lane recognition and a variety of changes in the environment, prevent a big accident by recognizing the distance between the vehicle and an external object, and greatly enhance user convenience. The system of the present invention comprises: an image shooting unit (100) which converts an image, which is shot by a light-field camera (111), into an all-in-focus image which has an estimated depth value, which is obtained by estimating the distance between an external object and the vehicle; an image converting unit (200) which removes noise by using the estimated depth value of the all-in-focus image and converts the image into an around view image; a template matching unit (300) which generates a template in the around view image of the image converting unit (200), sets a lane sign candidate area, and connects lane signs by matching template; an image processing unit (400) which extends and erodes the lane sign candidate area of the template matching unit (300) and connects the lanes which are straight lines and curves; a lane recognizing unit (500) which sets an area of interest in the connected lane sign candidate area of the image processing unit (400) and selects and detects a used lane; and a determination control unit (600) which determines the presence or absence of an error of the used lane, which is detected by the lane recognizing unit (500), and if the vehicle has escaped from the lane.

Description

광계카메라를 이용한 차선 인식 시스템 및 방법{LANE RECOGNITION SYSTEM USING LIGHT FIED CAMERA AND METHOD THEREFOR}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a lane recognition system and method using a photo-

본 발명은 광계카메라를 이용한 차선 인식 시스템 및 방법에 관한 것으로, 보다 상세하게는 다양한 환경변화에서도 도로 차선 인식의 정확도를 향상시킬 뿐만 아니라 차량과 외부물체의 거리를 인식할 수 있어 대형사고를 예방하고 사용자의 편리성을 대폭 향상시켜주는 광계카메라를 이용한 차선 인식 시스템 및 방법에 관한 것이다.The present invention relates to a lane recognition system and method using a photosystem camera. More particularly, the present invention not only improves the accuracy of road lane recognition, but also recognizes the distance between the vehicle and an external object, And more particularly, to a system and method for recognizing a lane using a photosystem camera that greatly improves user's convenience.

종래의 차량용 카메라 시스템은 단일 카메라에 레이저, 적외선 센서 등을 사용한 깊이 카메라(Time of Flight) 방식과 양안 입체카메라를 포함하여 사용되고 있다. Conventional vehicle camera systems have been used including a depth camera (Time of Flight) system using a laser, an infrared sensor and the like and a binocular stereoscopic camera in a single camera.

여기서, 상기 양안 입체카메라 방식은 좌우 카메라의 광축을 회전시키는 교차방식과 좌우 카메라의 렌즈와 센서를 분리하여 관심물체의 거리에 따라 렌즈 혹은 센서를 수평으로 이동하여 주 시각을 조절하는 수평이동방식이 있다.In the binocular stereoscopic camera system, a horizontal movement method of rotating the optical axis of the left and right cameras and a horizontal movement method of moving the lens or sensor horizontally according to the distance of the object of interest by separating the lens and sensor of the left and right cameras, have.

일반적으로 상기 양안 입체카메라와 별도의 센서를 도입하는 시스템은 종래의 단안 카메라보다 부피가 크고 고가이며, 두 대의 카메라를 6mm 이하로 접근할 수 없어 근접영상을 촬영하기 어려워 영상의 배율이 저하되고 두 대의 카메라를 사용하므로 좌우 카메라의 밝기, 색상, 화질 등의 불일치와 줌, 포커스 등의 연동 불가능함에 따른 상하좌우 불일치, 배율의 불일치, 화면의 회전 등의 문제점이 있다.In general, a system for introducing a separate sensor from the binocular stereoscopic camera is bulkier and bulkier than a conventional monocular camera, and since two cameras can not be accessed below 6 mm, it is difficult to capture close-up images, There is a problem such as inconsistency of the brightness, color, and image quality of the left and right cameras, inconsistency of the vertical and horizontal directions due to the inability of interlocking of the zoom and focus, inconsistency of magnification, and rotation of the screen.

또한, 깊이 카메라 방식은 해상도가 낮다는 문제점이 있다.Also, there is a problem that the depth camera method has a low resolution.

위와 같은 문제점을 해소하기 위해 등록특허 제10-1498975호와 같이 차량의 카메라로부터 획득한 영상을 조도 불변 영상으로 형성한 후 차선을 검출함으로써 차선 인식률을 향상시켜 차량이 차선을 이탈할 경우 경보할 수 있는 방법이 기재되어 있다.In order to solve the above problems, a lane recognition is improved by forming an image acquired from a camera of a vehicle as an illuminance invariant image, as in the registered patent No. 10-1498975, and the lane recognition rate is improved, Is described.

그러나, 차선을 인식할 때 원근감이 적용되기 때문에 도로를 한눈에 보기 어려우며 차량이 차선을 이탈할 경우, 이탈정도를 사용자가 시각적으로 확인하기 어려운 문제점이 발생할 수 있다.However, since the perspective is applied when recognizing the lane, it is difficult to see the road at a glance, and when the vehicle leaves the lane, it is difficult for the user to visually confirm the degree of departure.

또한, 에지 필터나 차선 강조 필터로 차선 후보들을 검출하고 명도 차이를 이용하여 영상에서 경계를 이루는 부분을 차선 후보 검출하기 때문에 강한 윤곽선을 가진 도로에서만 적용이 가능한 문제점이 있다.In addition, since the lane candidate is detected by the edge filter or the lane emphasis filter and the lane candidate is detected at the boundary of the image using the brightness difference, there is a problem that it can be applied only to a road having a strong outline.

따라서, 차선 표시와 강한 윤곽선을 가진 도로뿐만 아니라 일반적인 도로 차선의 인식률을 향상시키고 실제 차량의 빠른 주행 속도에도 실시간으로 차선을 연결하여 사용자의 안전성을 향상시킬 수 있는 방안이 요구되고 있는 실정이다.Accordingly, there is a need for a method for enhancing the recognition rate of a general road lane as well as a road having a lane marking and a strong outline, and improving the safety of a user by connecting a lane in real time to a real vehicle speed.

본 발명은 상술한 문제점을 해결하기 위해 제안된 것으로, 본 발명은 차선 표시와 강한 윤곽선을 가진 도로뿐만 아니라 일반적인 도로인 경우에도 차선 인식의 정확도를 향상시키기 위해 광계카메라를 이용한 촬영한 영상으로 올인포커스(All-in-focus)와 템플릿 매칭을 통해 사용자의 편리성과 안전성을 향상시킬 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.The present invention has been proposed in order to solve the above-described problems. The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a road- The present invention provides a lane recognition system and method using a photosystem camera that can improve user's convenience and safety through all-in-focus and template matching.

또한, 사용자가 이용하는 도로 이외의 영역에 해당하는 노이즈를 제거하여 차선 검출 정확도를 향상시킬 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.Another object of the present invention is to provide a lane recognition system and a lane recognition system using a photosystem camera, which can improve lane detection accuracy by removing noise corresponding to a region other than a road used by a user.

또한, 차선 검출 프로세스의 연산량을 감소시키고 실제 차량의 빠른 주행 속도에서 형태학적 영상처리를 이용하여 실시간으로 차선을 연결하는 처리속도를 향상시킬 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.It is another object of the present invention to provide a lane recognition system and method using a photosystem camera capable of reducing a calculation amount of a lane detecting process and improving a processing speed of connecting lanes in real time using a morphological image processing at a fast traveling speed of an actual vehicle .

또한, 사용자의 차량과 외부물체의 거리를 인식하여 사고를 예방할 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.It is another object of the present invention to provide a lane recognition system and method using a photosystem camera capable of recognizing a distance between a user's vehicle and an external object to prevent an accident.

본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위한 본 발명에 의한 광계카메라를 이용한 차선 인식 시스템 및 방법은 광계카메라(111)로 촬영된 영상을 외부물체와 차량의 거리를 추정한 깊이 추정 값을 갖는 올인포커스(All-in-focus)영상으로 변환하는 영상촬영부(100)와, 상기 올인포커스(All-in-focus)영상의 깊이 추정 값을 이용하여 노이즈를 제거하고 어라운드뷰 영상으로 변환하는 영상변환부(200)와, 상기 영상변환부(200)의 어라운드뷰 영상에서 템플릿을 생성하고, 차선 표식 후보 영역을 설정한 후 템플릿 매칭으로 차선 표식 간을 연결하는 템플릿매칭부(300)와, 상기 템플릿매칭부(300)의 차선 표식 후보 영역에 확장 및 침식 처리하여 직선과 곡선인 차선을 연결하는 영상처리부(400)와, 상기 영상처리부(400)의 연결된 차선 표식 후보 영역 중 관심 영역 설정하고 사용차선을 선택하여 검출하는 차선인식부(500)와, 상기 차선인식부(500)에서 검출된 사용차선의 오류 여부와 차량의 차선이탈여부를 판단하는 판단제어부(600)를 포함하여 구성되는 것을 특징으로 한다.In order to accomplish the above object, the present invention provides a lane recognition system and method using a photosystem camera, the system comprising: an all-in-focus (AI) camera having a depth estimation value obtained by estimating a distance between an external object and a vehicle, in-focus image, an image converting unit 200 for removing noise using the depth estimation value of the all-in-focus image and converting the noise into an ambient view image, A template matching unit 300 for generating a template from the surrounding view image of the image transform unit 200, setting a lane marker candidate region and connecting lane markers by template matching, A lane marker candidate region of the lane marker candidate region of the lane marker candidate region and connecting the straight line and the curved lane to each other; Will be in the lane recognition unit 500 for detecting, characterized in that the configuration including the determination controller 600 for determining the lane departure whether the lane recognition unit used error and whether the vehicle in the lane is detected in 500. The

또한, 상기 영상촬영부(100)는, 영상을 촬영하고 촬영된 영상을 입력하는 촬영입력부(110)와, 상기 촬영입력부(110)에 저장된 영상의 외부물체와 차량의 거리를 추정하는 깊이추정부(120)와, 상기 깊이추정부(120)의 정보를 포함하고 다수개의 초점으로 영상으로 변환하여 선명도를 향상시키는 올인포커스(All-in-focus)부(130)를 포함하여 구성되는 것을 특징으로 한다.The image capturing unit 100 includes a capturing input unit 110 for capturing an image and inputting a captured image, a depth estimating unit 110 for estimating a distance between the external object and the vehicle stored in the image capturing input unit 110, An all-in-focus unit 130 that includes information of the depth estimator 120 and converts the image into a plurality of focus images to improve sharpness. do.

또한, 상기 영상변환부(200)는, 상기 올인포커스(All-in-focus)부(130)에 포함된 깊이 추정 정보를 이용하여 노이즈에 해당하는 외부물체를 제거하는 노이즈제거부(210)와, 상기 노이즈제거부(210)에서 노이즈가 제거된 영상의 차선이 원근감 없이 일정한 폭으로 어라운드뷰로 변환시키는 어라운드뷰부(220)를 포함하여 구성되는 것을 특징으로 한다.In addition, the image transforming unit 200 may include a noise removing unit 210 for removing an external object corresponding to noise using depth estimation information included in the all-in-focus unit 130, And an aver view 220 for transforming a lane of the image from which the noise is removed by the noise removing unit 210 into an averaged view with a predetermined width without a perspective view.

또한, 상기 템플릿매칭부(300)는, 상기 어라운드뷰를 이용하여 템플릿을 생성하는 템플릿생성부(310)와, 상기 템플릿생성부(310)의 템플릿과 설정한 차선 표식 후보 영역을 매칭을 통해 직선과 곡선 차선을 연결하는 차선표식연결부(320)를 포함하여 구성되는 것을 특징으로 한다.The template matching unit 300 includes a template generating unit 310 for generating a template using the surround view and a lane marker candidate region set by the template generating unit 310 and matching And a lane mark connecting part 320 connecting the curved lane.

또한, 상기 차선인식부(500)는, 상기 차선 표식 후보 영역 중 관심영역을 설정하는 관심영역설정부(510)와, 상기 관심영역설정부(510)에서 사용할 차선을 선택하고, 선택된 차선을 검출하는 차선선택부(520)를 포함하여 구성되는 것이 바람직하다.The lane recognition unit 500 further includes a region of interest setting unit 510 for setting a region of interest of the lane marking candidate region, a lane selection unit 510 for selecting a lane to be used in the region of interest setting unit 510, And a lane selection unit 520 for selecting a lane.

또한, 상기 판단제어부(600)는, 상기 차선선택부(520)에서 선택된 차선의 오류를 판단하는 차선오류판단부(610)와, 상기 차선오류판단부(610)에서 오류가 없다고 판단신호를 받아 차량의 차선 이탈여부를 판단하여 사용자의 안전성을 향상시켜주는 차선이탈판단부(620)를 포함하여 구성되는 것을 특징으로 한다.The lane departure determination unit 600 further includes a lane error determination unit 610 that determines an error of the lane selected by the lane selection unit 520 and a lane error determination unit 610 that receives a determination signal indicating that there is no error in the lane error determination unit 610 And a lane departure determination unit 620 for determining whether or not the vehicle is departing from the lane and improving the safety of the user.

또한, 광계카메라(111)로부터 촬영한 영상을 입력받아 외부물체와 차량의 거리를 추정한 깊이 추정 값을 갖는 올인포커스(All-in-focus)영상으로 변환하는 영상촬영단계; 상기 올인포커스(All-in-focus)영상의 노이즈를 제거하고 어라운드뷰영상으로 변환하는 영상변환단계; 상기 어라운드뷰영상의 차선 표식과 상대적 위치정보를 이용하여 템플릿을 생성하고 생성된 템플릿과 매칭하여 후보 영역 차선 표식을 연결하는 템플릿매칭단계; 상기 후보 영역 차선 표식을 확장과 침식 처리를 하여 직선과 곡선으로 차선을 연결하는 영상처리단계; 상기 후보 영역에서 차선을 검출하기 위한 관심 영역을 설정하여 사용할 차선을 선택하는 차선선택단계; 상기 선택된 차선의 오류를 판단하는 차선오류판단단계; 상기 입력받은 선택차선을 이탈 여부를 판단하는 차선이탈판단단계; 를 포함하여 구성되는 것을 특징으로 한다.An image capturing step of receiving the image photographed from the photosystem camera 111 and converting the distance between the external object and the vehicle into an all-in-focus image having an estimated depth value; An image converting step of removing noise of the all-in-focus image and converting the noise into an all around view image; A template matching step of generating a template using the lane marker and the relative position information of the surround view image and matching the candidate template with the generated template and connecting the candidate area lane marker; An image processing step of extending and eroding the candidate area lane marker to connect lanes to a straight line and a curve; Selecting a lane to be used by setting a region of interest for detecting a lane in the candidate region; A lane error determination step of determining an error of the selected lane; A lane departure determination step of determining whether or not the selected selected lane has departed; And a control unit.

상술한 바와 같이 본 발명에 따르면, 광계카메라를 이용한 차선 인식 시스템 및 방법은 차선뿐만 아니라 외부물체를 인식하고 차량과 외부물체와의 거리를 추정하여 사고위험률을 대폭 감소시키며, 다수개의 초점을 두어 차선의 인식률과 정확도를 향상시킴으로써 사용자의 편리성과 안전성을 대폭 향상시키는 효과가 있다. As described above, according to the present invention, a lane recognition system and method using a photosystem camera can recognize an external object as well as a lane, estimate a distance between the vehicle and an external object, greatly reduce an accident risk rate, It is possible to improve the convenience and safety of the user significantly.

또한, 차선 검출 프로세스의 연산량을 감소시켜 처리속도가 향상됨으로 인해 실시간으로 차선을 연결하여 차선 이탈 및 경고상황에 대한 대처가 용이할 수 있는효과가 있다.Further, since the processing amount of the lane detecting process is reduced to improve the processing speed, the lane departure and warning situations can be easily coped by connecting the lane in real time.

또한, 단가가 저렴한 광계카메라를 이용하여 시스템 단가를 절약할 수 있는 효과가 있다.In addition, the system cost can be reduced by using an inexpensive optical system camera.

도 1은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템.
도 2는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상촬영부.
도 3은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상변환부.
도 4는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 템플릿매칭부.
도 5는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 차선인식부.
도 6은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 판단제어부.
도 7은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라.
도 8은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 라이트 필드 복원과정.
도 9는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라 부착위치.
도 10은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 어라운드뷰.
도 11은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템을 이용하여 검출된 차선.
도 12는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템방법의 순서도.
1 is a lane recognition system using a photosystem camera according to an embodiment of the present invention.
2 is a photographing part of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
3 is a block diagram of an image conversion unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
4 is a block diagram of a template matching unit of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention.
5 is a lane recognition part of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
6 is a block diagram of a determination control unit of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention.
FIG. 7 is a perspective view of a spectacle camera of a lane recognition system using a spectacle camera according to an embodiment of the present invention. FIG.
8 is a view illustrating a light field restoration process of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
9 is a positional diagram of a lumen recognition system using a photosystem camera according to an embodiment of the present invention.
10 is a view of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
11 is a lane detected using a lane recognition system using a photosystem camera according to an embodiment of the present invention.
12 is a flowchart of a lane recognition system using a photosystem camera according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 의한 광계카메라를 이용한 차선 인식 시스템 및 방법을 상세히 설명한다.Hereinafter, a system and method for recognizing a lane using a photosystem camera according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템이고, 도 2는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상촬영부이며, 도 3은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상변환부이다.FIG. 1 is a lane recognition system using a photosystem camera according to an embodiment of the present invention. FIG. 2 is a photographing unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention. And is an image converter of a lane recognition system using a photosystem camera according to an embodiment.

또한, 도 4는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 템플릿매칭부이며, 도 5는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 차선인식부이고, 도 6은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 판단제어부이다.FIG. 5 is a lane recognition unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention. FIG. 5 is a block diagram of a lane recognition unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention. 6 is a block diagram of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention.

또한, 도 7은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라이고, 도 8은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 라이트 필드 복원과정이며, 도 9는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라 부착위치이다.8 is a view illustrating a light field reconstruction process of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention. Referring to FIG. 7, FIG. 9 is a positional view of a pneumatic camera of a lane recognition system using a photosystem camera according to an embodiment of the present invention.

또한, 도 10은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 어라운드뷰이며, 도 11은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템을 이용하여 검출된 차선이고, 도 12는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템방법의 순서도이다.10 is a view of a lane recognition system using a photosystem camera according to an embodiment of the present invention. FIG. 11 is a lane detected using a lane recognition system using a photosystem camera according to an embodiment of the present invention And FIG. 12 is a flowchart of a lane recognition system using a photosystem camera according to an embodiment of the present invention.

상기 도면의 구성 요소들에 인용부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있으며, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. 또한, '상부', '하부', '앞', '뒤', '선단', '전방', '후단' 등과 같은 방향성 용어는 개시된 도면(들)의 배향과 관련하여 사용된다. 본 발명의 실시 예의 구성요소는 다양한 배향으로 위치설정될 수 있기 때문에 방향성 용어는 예시를 목적으로 사용되는 것이지 이를 제한하는 것은 아니다.In the drawings, the same reference numerals are given to the same elements even when they are shown in different drawings. In the drawings, the same reference numerals as used in the accompanying drawings are used to designate the same or similar elements. And detailed description of the configuration will be omitted. Also, directional terms such as "top", "bottom", "front", "back", "front", "forward", "rear", etc. are used in connection with the orientation of the disclosed drawing (s). Since the elements of the embodiments of the present invention can be positioned in various orientations, the directional terminology is used for illustrative purposes, not limitation.

본 발명의 바람직한 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템 및 방법은 상기 도 1 또는 도 12에 도시된 바와 같이, 광계카메라(111)로 촬영된 영상을 외부물체와 차량의 거리를 추정한 깊이 추정 값을 갖는 올인포커스(All-in-focus)영상으로 변환하는 영상촬영부(100)와, 상기 올인포커스(All-in-focus)영상의 깊이 추정 값을 이용하여 노이즈를 제거하고 어라운드뷰 영상으로 변환하는 영상변환부(200)와, 상기 영상변환부(200)의 어라운드뷰 영상에서 템플릿을 생성하고, 차선 표식 후보 영역을 설정한 후 템플릿 매칭으로 차선 표식 간을 연결하는 템플릿매칭부(300)와, 상기 템플릿매칭부(300)의 차선 표식 후보 영역에 확장 및 침식 처리하여 직선과 곡선인 차선을 연결하는 영상처리부(400)와, 상기 영상처리부(400)의 연결된 차선 표식 후보 영역 중 관심 영역 설정하고 사용차선을 선택하여 검출하는 차선인식부(500)와, 상기 차선인식부(500)에서 검출된 사용차선의 오류 여부와 차량의 차선이탈여부를 판단하는 판단제어부(600)를 포함하여 구성된다.As shown in FIG. 1 or FIG. 12, a system and method for recognizing a lane using a photosystem camera according to a preferred embodiment of the present invention is a system for estimating a distance between an external object and a vehicle In-focus image having an estimated depth value by using the depth estimation value of the all-in-focus image and a depth estimation value of the all-in-focus image, A template matching unit for generating a template from the surrounding view image of the image transform unit 200, setting a lane marker candidate region, and connecting lane markers by template matching, An image processing unit 400 for extending and eroding the lane marking candidate area of the template matching unit 300 and connecting a straight line and a curved lane to each other and a lane marker candidate area connected to the image processing unit 400,A lane recognition unit 500 for setting a shim area and selecting and using a lane to be used, and a determination control unit 600 for determining whether the used lane detected by the lane recognition unit 500 is erroneous or not, .

상기 도 2에 도시된 바와 같이, 상기 영상촬영부(100)는 광계카메라(111)를 이용하여 영상을 촬영하고 촬영된 영상을 입력하는 촬영입력부(110)와, 상기 촬영입력부(110)에 저장된 영상의 외부물체와 차량의 거리를 추정하는 깊이추정부(120)와, 상기 깊이추정부(120)의 정보를 포함하고 다수개의 초점으로 영상으로 변환하여 선명도를 향상시키는 올인포커스(All-in-focus)부(130)를 포함하여 구성될 수 있다.2, the image photographing unit 100 includes a photographing input unit 110 that photographs an image using a photosystem camera 111 and inputs a photographed image, A depth estimator 120 for estimating a distance between an external object and a vehicle of the image and an all-in-focus controller 120 that includes information of the depth estimator 120 and converts the image into a plurality of images to improve the sharpness. and a focus unit 130. [0027]

여기서, 상기 영상촬영부(100)의 광계카메라는, 상기 도 7에 도시된 바와 같이, 촬영 대상을 메모리에 저장할 수 있도록 상을 맺혀주는 메인렌즈(112)를 통과하는 빛의 양을 조절하는 조리개(113)와, 상기 조리개(113)로부터 통과한 빛을 변조하여 라이트 필드를 계산하는 마스크(114)와, 상기 마스크(114)의 후면에 밀착되며, 상기 마스크(114)를 거치면서 변조된 라이트 필드를 저장하는 센서(115)와, 상기 센서(115)로부터 들어오는 영상을 인코딩하기 위한 마이크로컨트롤러유닛(116)을 포함하는 것이 바람직하다.As shown in FIG. 7, the optical system camera of the image capturing unit 100 includes a diaphragm (not shown) for adjusting the amount of light passing through the main lens 112, A mask 114 for calculating a light field by modulating light passing through the diaphragm 113 and a light modulator 114 which is in close contact with the rear surface of the mask 114 and which is modulated by passing through the mask 114, A sensor 115 for storing a field and a microcontroller unit 116 for encoding an image coming from the sensor 115. [

상기 광계카메라(111)는 단안 카메라에 빛 변조 필터인 마스크를 추가하여 삼차원 카메라의 기능을 가짐으로써 차선 표시가 강하지 않은 노후된 도로나 일반적인 도로에서도 차선 인식률을 향상시킬 수 있고 근접촬영이 가능해진다.The optical system camera 111 has a function of a three-dimensional camera by adding a mask, which is a light modulation filter, to a monocular camera, so that the lane recognition rate can be improved and the close-up photographing can be performed even on old roads or general roads where lane marking is not strong.

또한, 매칭 연산의 계산 양이 종래의 카메라보다 상대적으로 적어 시스템의 크기가 감소함으로써 신속하게 계산되어 영상이 빠르게 변화하는 실제 도로상황에 실시간으로 영상을 저장하기 용이하며, 차량과 같이 자동초점기능을 사용하기 어려운 경우, 피사물체의 초점 획득과 영상처리가 용이해진다.In addition, since the calculation amount of the matching operation is relatively smaller than that of the conventional camera, the size of the system is reduced, so that it can be quickly calculated and it is easy to store the image in real time on the real road where the image changes rapidly. If it is difficult to use, the focus acquisition and image processing of the object can be facilitated.

한편, 상기 빛을 변조하는 마스크(114)는 상기 센서(115)와 메인렌즈(112) 사이에 위치하며, 센서와 크기가 동일한 평면의 차폐물로써 라이트 필드를 변조시키는 변조함수이다.The mask 114 for modulating the light is a modulation function that is located between the sensor 115 and the main lens 112 and modulates the light field as a plane shield having the same size as the sensor.

또한, 상기 마스크(114)는 Pinholes, SoS(Sum of Sinusoids), MURA(Modifd Unirotmlt dudundat Array) 패턴 등이 사용될 수 있다.In addition, the mask 114 may be a pinholes, a sum of sinusoids (SoS), a Modified Unirottle Dudundat Array (MURA) pattern, or the like.

이때, 상기 센서(115)에 변조되어 저장되는 영상

Figure pat00001
는 아래 수학식 1 내지 수학식 4으로 나타낼 수 있다.At this time, the image modulated and stored in the sensor 115
Figure pat00001
Can be expressed by the following equations (1) to (4).

먼저, 이미지 센서 값은 입력된 모든 광선을 합산하여 아래 수학식 1과 같이 출력된다.First, the value of the image sensor is calculated by summing up all the input rays as shown in Equation 1 below.

Figure pat00002
Figure pat00002

상기 이미지 센서의 1차원 푸리에 변환은, 아래 수학식 2와 같이, 입력된 라이트 필드의 2차원 푸리에 변환과 관계된다.The one-dimensional Fourier transform of the image sensor is related to the two-dimensional Fourier transform of the input light field as shown in the following equation (2).

Figure pat00003
Figure pat00003

상기와 같이 라이트필드 2차원 푸리에 변환의 수평 조각은 Fourier Projection-Slice Theorem에 의해, 아래 수학식 3과 같이, 상기 센서의 1차원 푸리에 변환과 동일하게 된다.As described above, the horizontal slice of the light field two-dimensional Fourier transform becomes the same as the one-dimensional Fourier transform of the sensor by the Fourier projection-slice theorem, as shown in the following equation (3).

Figure pat00004
Figure pat00004

상기 변조된 라이트 필드가 센서에 저장되는 영상은, 아래 수학식 4와 같이 나타낸다.The image in which the modulated light field is stored in the sensor is expressed by Equation (4) below.

Figure pat00005
Figure pat00005

상기

Figure pat00006
는 마스크이고, 상기
Figure pat00007
는 라이트 필드이며, 변수
Figure pat00008
는 각각 2차원 상에서 상대적인 두 가지의 매개변수의 각 축이다.remind
Figure pat00006
Is a mask,
Figure pat00007
Is a light field, and the variable
Figure pat00008
Are the respective axes of the two parameters relative to each other on the two dimensional plane.

또한,

Figure pat00009
는 메인렌즈의 직경과 메인렌즈와 센서와의 고정된 거리이다.Also,
Figure pat00009
Is the diameter of the main lens and the fixed distance between the main lens and the sensor.

따라서, 상기와 같이 변조된 영상을 저장하고, 저장된 영상의 정보가 영상프로세서에 입력되어 역공학적으로 해석되어 빛의 각도나 세기 정보를 산출하는 촬영입력부(110)를 포함한다.Accordingly, the apparatus includes a photographing input unit 110 for storing the modulated image and inputting information of the stored image to the image processor to reverse-engineer the image to calculate light angle or intensity information.

상기 저장된 영상이 상기 깊이추정부(120)에서 외부물체와 차량의 거리를 계산하여 추정되며, 상기 깊이 추정 값이 입력된 영상을 올인포커스(All-in-focus)부(130)로 수신한다.The stored image is estimated by calculating the distance between the external object and the vehicle in the depth estimating unit 120 and receives the input image of the depth estimation value in the all-in-focus unit 130.

상기 영상을 올인포커스(All-in-focus)부(130)에서 최종적으로 복원된 라이트 필드의 재초점영상을 합성하는 방법과 비초점과 통신신호를 조합하는 방법 등으로 올인포커스(All-in-focus)영상으로 변환하게 된다(S100).An all-in-focus process is performed by combining a refocused image of a light field finally reconstructed by the all-in-focus unit 130 and a method of combining a non-focus and a communication signal. focus image (S100).

여기서, 상기 도 8에 도시된 바와 같이, 상기 라이트 필드는 상기 마스크(114) 패턴이 적용하여 주파수영역에서 변조와 복원된다.Here, as shown in FIG. 8, the light field is modulated and restored in the frequency domain by applying the pattern of the mask 114.

상기 입력된 라이트 필드는

Figure pat00010
는 대역제한적이라 가정하며, 상기
Figure pat00011
의 푸리에 변환을
Figure pat00012
Figure pat00013
로 표기한다.The input light field
Figure pat00010
It is assumed that the bandwidth is limited,
Figure pat00011
Fourier transform of
Figure pat00012
Figure pat00013
.

Figure pat00014
는 u,s의 절대적인 두 가지 매개변수인 각 축의 푸리에 변환이다.
Figure pat00014
Is the Fourier transform of each axis, which is an absolute two parameters of u, s.

Fourier-slice Theorem에 의하면, 먼저 라이트필드추출(131)은 고해상도 카메라 센서는

Figure pat00015
-axis를 따라 오버샘플링된 조각을 추출한다.According to the Fourier-slice Theorem, first the light field extraction (131) is a high resolution camera sensor
Figure pat00015
Extract the oversampled fragments along the -axis.

그 다음, 라이트필드변조(132)는 센서 앞에 위치한 마스크로 인해 변조된 라이트 필드

Figure pat00016
Figure pat00017
를 얻을 수 있다. The light field modulation 132 is then applied to the light field modulated by the mask located in front of the sensor
Figure pat00016
Figure pat00017
Can be obtained.

이는 상기

Figure pat00018
Figure pat00019
와 기울기
Figure pat00020
를 갖는 마스크 스펙트럼의 컨볼루션과 동일하게 될 수 있으며, 아래 수학식 5와 같이 나타낼 수 있다.This is because
Figure pat00018
Figure pat00019
And tilt
Figure pat00020
And can be expressed by Equation (5) below. &Quot; (5) "

Figure pat00021
Figure pat00021

그 후, 라이트필드복제(133)는

Figure pat00022
Figure pat00023
Figure pat00024
Figure pat00025
의 스펙트럼 복제품으로 구성되며, 라이트필드복원(134)은 상기 센서 조각을 재구성하여
Figure pat00026
Figure pat00027
를 예측한
Figure pat00028
Figure pat00029
를 얻을 수 있게 된다.Thereafter, the light field copy 133
Figure pat00022
Figure pat00023
end
Figure pat00024
Figure pat00025
And the light field reconstruction 134 reconstructs the sensor piece
Figure pat00026
Figure pat00027
Predicted
Figure pat00028
Figure pat00029
.

따라서, 상기

Figure pat00030
Figure pat00031
의 역푸리에 변환을 통해 최종적으로 라이트 필드를 복원할 수 있게 된다.Therefore,
Figure pat00030
Figure pat00031
It is possible to finally restore the light field through the inverse Fourier transform of the inverse Fourier transform.

상기 올인포커스(All-in-focus)영상은 종래의 카메라의 초점이 한 곳에 맞춰지지 않고 다수개의 초점을 통해 영상의 선명도를 향상시킬 수 있다.The all-in-focus image can improve the sharpness of an image through a plurality of focal points without focusing on a conventional camera.

다시 말해, 상기 올인포커스(All-in-focus)영상을 통해 변환하기 전의 영상 가장자리가 초점이 맞지 않아서 발생하는 흐림현상을 감소시키고, 다수의 긴 차선 이식이 가능하게 된다.In other words, it is possible to reduce the blurring caused by the non-focused image edges before the conversion through the all-in-focus image and to enable a plurality of long lane transplantation.

상기 올인포커스(All-in-focus)부(130)에 포함된 깊이 추정 정보를 이용하여 상기 영상변환부(200)는, 상기 도 3에 도시된 바와 같이, 노이즈에 해당하는 외부물체를 제거하는 노이즈제거부(210)를 포함하여 구성될 수 있어 올인포커스(All-in-focus)영상에서 차선 이식의 검철 정확도가 대폭 향상될 수 있다.Using the depth estimation information included in the all-in-focus unit 130, the image conversion unit 200 removes an external object corresponding to the noise as shown in FIG. 3 And the noise removing unit 210 so that the accuracy of scanning the lane transplantation can be significantly improved in an all-in-focus image.

그러나, 상기 노이즈제거부(210)에서 노이즈가 제거된 올인포커스(All-in-focus)영상은 원근감이 있어 차선이 갈수록 좁아져 시야가 좁아지는 문제점이 있다.However, the all-in-focus image in which the noise is removed by the noise removing unit 210 has a perspective, which narrows the lane and narrows the field of view.

상기 문제점을 해소하기 위해 상기 영상변환부(200)는 올인포커스(All-in-focus)영상의 다양한 도로의 차선을 원근감 없이 일정한 폭으로 변환시키는 어라운드뷰부(220)를 포함하여 차선의 인식률을 향상시킬 수 있게 된다(S120).In order to solve the above problem, the image conversion unit 200 includes an ambient view unit 220 for converting lanes of various roads of an all-in-focus image to a constant width without a perspective, thereby improving the recognition rate of the lane (S120).

상기 어라운드뷰는, 상기 도 10에 도시된 바와 같이, 다수개의 카메라로 차량의 360도 주변을 촬영하여 하늘에서 내려다보듯 차량 주변을 한 화면에 보여주며, 외부 날씨와 관계없이 차량의 창문을 열지 않아도 차량의 주변을 쉽게 모니터로 볼 수 있게 된다.As shown in FIG. 10, the surround view photographs the vicinity of 360 degrees of the vehicle with a plurality of cameras and shows the surroundings of the vehicle on the screen as viewed from the sky. In addition, The surroundings of the vehicle can be easily seen on the monitor.

또한, 일반 카메라에서 안보는 사각지대도 쉽게 볼 수 있어 차량 사고 위험이 감소할 수 있게 된다.In addition, the blind spot can be easily seen from a general camera, and the risk of a car accident can be reduced.

이때, 상기 도 9에 도시된 바와 같이, 상기 어라운드뷰부(220)의 변환된 영상이 사각지대가 선명하게 보일 수 있도록 다수개의 카메라가 설치되는 것이 바람직하다.In this case, as shown in FIG. 9, it is preferable that a plurality of cameras are installed so that a blind spot of the converted image of the surround view unit 220 can be clearly seen.

따라서, 상기 어라운드뷰부(220)는 사각지대가 없어 차량 사고 위험이 대폭 감소할 수 있으며, 잡음과 데이터 손실에 강한 차선인식 알고리즘인 모델기반 방법의 적용이 용이해 질 수 있게 된다.Therefore, the surround view unit 220 can be greatly reduced in risk of a vehicle accident because there is no blind spot, and it is possible to easily apply a model-based method, which is a lane recognition algorithm that is resistant to noise and data loss.

또한, 상기 어라운드뷰부(220)는 수평소실점 이하 영역으로 도로 영역을 한정함으로써 검출 프로세스의 연산량을 감소시킬 수 있게 된다.In addition, the surround view unit 220 can reduce the calculation amount of the detection process by limiting the road area to the area below the horizontal vanishing point.

상기 어라운드뷰부(220)의 영상을 통해 템플릿을 매칭하기 위해 상기 템플릿매칭부(300)는, 상기 도 4에 도시된 바와 같이, 템플릿생성부(310)와 차선표식연결부(320)를 더 포함하여 구성될 수 있다.The template matching unit 300 may further include a template generating unit 310 and a lane marker connecting unit 320 as shown in FIG. 4 to match the template through the image of the surround view unit 220 Lt; / RTI >

상기 템플릿생성부(310)는 상기 어라운드뷰부(220)영상의 차선표식과 차선 폭과 상대적 위치정보를 이용하여 템플릿을 생성한다.The template generating unit 310 generates a template using the lane marker, the lane width, and the relative position information of the surround view unit 220.

상기 템플릿은 차선인식에 있어서 미리 주어진 차선으로, 처리대상차선으로 부터 추출해야 한다.The template should be extracted from the lane to be processed with a lane given in advance in the lane recognition.

상기 템플릿

Figure pat00032
는 아래 수학식 6로 나타낼 수 있다.The template
Figure pat00032
Can be expressed by Equation (6) below.

Figure pat00033
Figure pat00033

상기

Figure pat00034
는 영상의 조건이나 환경에 맞추어 선정되는 것이 바람직하다.remind
Figure pat00034
Is preferably selected according to the conditions and the environment of the image.

상기 템플릿이 생성된 후, 상기 차선표식연결부(320)에서 상기 어라운드뷰부(220)영상의 차선 표식 후보 영역을 설정한다.After the template is created, a lane mark candidate region of the image of the surround view unit 220 is set in the lane marker connecting unit 320.

설정된 차선 표식 후보 영역의 차선 표식 간을 커브 피팅 등의 곡선 모델 템플릿 매칭으로 연결한다(S130).The lane markers of the set lane marker candidate areas are connected by curve model template matching such as curve fitting (S130).

또한, 상기 곡선 모델 템플릿 매칭은 연산량이 많기 때문에 높은 형태학적 영상처리를 이용하여 처리속도를 대폭 향상시켜줄 수 있다.In addition, since the curve model template matching has a large amount of computation, the processing speed can be greatly improved by using high morphological image processing.

상기 템플릿매칭부(300)의 차선 표식 후보 영역을 상기 영상처리부(400)에서 확장 및 침식 처리하여 직선과 곡선인 차선을 연결한다(S140).The lane marker candidate region of the template matching unit 300 is extended and eroded in the image processing unit 400 to connect a straight line and a curved lane (S140).

상기 영상처리부(400)를 통해 확장과 침식 처리된 영상의 차선을 인식하기 위한 상기 차선인식부(500)는, 상기 도 5에 도시된 바와 같이, 관심영역설정부(510)와 차선선택부(520)를 더 포함하여 구성된다.5, the lane recognition unit 500 for recognizing the lane of the extended and eroded image through the image processing unit 400 includes a region of interest setting unit 510 and a lane select unit 520).

상기 도 11에 도시된 바와 같이, 상기 관심영역설정부(510)는 차선 표식 후보 영역 중 관심영역을 설정한 후, 상기 차선선택부(520)에서는 상기 관심영역 내의 차선과 실제 사용자의 차량의 위치정보를 상기 템플릿매칭부(300)를 통해 사용할 차선을 매칭하고 선택하여 최종적으로 연결된 직선과 곡선의 형태로 도로 위의 사용차선을 검출하게 된다(S150).11, the ROI setting unit 510 sets the ROI in the lane mark candidate region, and then the lane selector 520 selects the lane in the ROI and the location of the actual user's vehicle Information matching the lanes to be used through the template matching unit 300, and selects the used lane on the road in the form of a line and a curve finally connected (S150).

다시 말해, 상기 차선인식부(500)는 차량 차선의 범위를 한정함으로 인해 주변 노이즈 제거와 처리속도가 향상되는 효과를 줄 수 있다.In other words, the lane recognition unit 500 limits the range of the vehicle lane, thereby improving the peripheral noise removal and the processing speed.

상기 차선인식부(500)에서 검출된 사용차선을 상기 판단제어부(600)에서 오류 여부를 판단하는 차선오류판단부(610)가 포함되어 있으며, 본 발명의 전체적인 제어를 할 수 있다.A lane error determination unit 610 that determines whether the used lane detected by the lane recognition unit 500 is an error in the determination control unit 600 may be used to perform overall control of the present invention.

상기 검출된 사용차선이 사용자의 차량이 사용하지 않는 차선으로 판단될 경우, 상기 차선인식부(500)에 오류신호를 보내 다시 사용차선을 검출한다(S160).If the detected use lane is determined to be a lane not used by the user's vehicle, an error signal is sent to the lane recognition unit 500 to detect the used lane again (S160).

반면, 상기 검출된 사용차선이 사용자의 차량이 사용하는 차선으로 판단될 경우, 상기 차선인식부(500)에 오류신호를 보내지 않고 차량이 사용차선을 이탈여부를 판단하여야 한다.On the other hand, when the detected usage lane is determined to be a lane used by the user's vehicle, the vehicle should determine whether the user leaves the used lane without sending an error signal to the lane recognition unit 500.

상기 사용차선을 이탈여부를 판단하기 위해 상기 판단제어부(600)는, 상기 도 6에 도시된 바와 같이, 차선이탈판단부(620)를 더 포함하여 구성되는 것이 바람직하다.The determination control unit 600 may further include a lane departure determination unit 620, as shown in FIG. 6, to determine whether or not the usage lane is departed.

상기 차선이탈판단부(620)는 차선오류판단부(610)에서 사용차선에 오류가 없다는 신호를 받으면 차량이 사용차선을 이탈여부를 판단하게 된다.When the lane departure determination unit 620 receives a signal indicating that there is no error in the used lane, the lane departure determination unit 620 determines whether the vehicle leaves the used lane.

상기 차량이 사용차선을 이탈할 경우, 상기 차선이탈판단부(620)에서 경보음과 차량이 사용차선과의 상대적 위치에 따라 차량이 사용차선 중앙에 위치하도록 하는 핸드제어 장치를 더 포함하여 구성되는 것이 바람직하다(S170).The lane departure determination unit 620 may further include a hand control device for causing the vehicle to be positioned at the center of the lane of use according to the relative position of the alarm sound and the vehicle lane when the vehicle leaves the lane for use (S170).

따라서, 본 발명은 단가가 저렴한 광계카메라(111)를 이용하여 단가 절약의 효과가 있으며, 차선뿐만 아니라 외부물체를 인식하고 차량과 외부물체의 거리를 추정하여 사고위험률을 대폭 감소시킬 수 있다.Accordingly, the present invention has the effect of saving the unit price by using the inexpensive optical system camera 111, and can recognize the external object as well as the lane, and estimate the distance between the vehicle and the external object, thereby greatly reducing the accident risk.

또한, 차선의 인식률과 정확도를 향상시킴으로써 사용자의 편리성과 안전성을 대폭 향상시키는 효과가 있고, 처리속도를 향상시키기 위해 차선 검출 프로세스의 연산량을 감소시켜 실시간으로 차선을 연결함으로 인해 차선 이탈 및 경고상황에 대한 대처가 용이해지는 효과가 있다.In addition, by improving the recognition rate and accuracy of the lane, user convenience and safety are significantly improved. In order to improve the processing speed, the calculation amount of the lane detecting process is reduced and the lane departure is performed in real time. There is an effect that it is easy to cope with.

앞에서 설명되고, 도면에 도시된 본 발명의 실시 예들은 본 발명의 기술적 사상을 한정하는 것으로 해석되어서는 안 된다. 본 발명의 보호범위는 청구범위에 기재된 사항에 의하여만 제한되고, 본 발명의 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 다양한 형태로 개량 변경하는 것이 가능하다. 따라서 이러한 개량 및 변경은 통상의 지식을 가진 자에게 자명한 것인 경우에는 본 발명의 보호범위에 속하게 될 것이다.The embodiments of the present invention described above and shown in the drawings should not be construed as limiting the technical idea of the present invention. The scope of protection of the present invention is limited only by the matters described in the claims, and those skilled in the art will be able to modify the technical idea of the present invention in various forms. Accordingly, such improvements and modifications will fall within the scope of the present invention if they are apparent to those skilled in the art.

100: 영상촬영부 110: 촬영입력부
111: 광계카메라 112: 메인렌즈
113: 조리개 114: 마스크
115: 센서 116: 마이크로컨트롤러유닛
120: 깊이추정부 130: 올인포커스(All-in-focus)부
131: 라이트필드추출 132: 라이트필드변조
133: 라이트필드복제 134: 라이트필드복원
200: 영상변환부 210: 노이즈제거부
220: 어라운드뷰부 300: 템플릿매칭부
310: 템플릿생성부 320: 차선표식연결부
400: 영상처리부 500: 차선인식부
510: 관심영역설정부 520: 차선선택부
600: 판단제어부 610: 차선오류판단부
620: 차선이탈판단부
100: image capturing unit 110:
111: optical system camera 112: main lens
113: Aperture 114: Mask
115: sensor 116: microcontroller unit
120: Depth estimation unit 130: All-in-focus unit
131: Light field extraction 132: Light field modulation
133: Replication of Light Fields 134: Restoration of Light Fields
200: image converting unit 210: noise removing unit
220: a surround view unit 300: a template matching unit
310: template generating unit 320: lane marker connecting unit
400: image processing unit 500: lane recognition unit
510: ROI setting unit 520: Lane selection unit
600: Judgment control unit 610:
620: lane departure determination section

Claims (7)

광계카메라(111)로 촬영된 영상을 외부물체와 차량의 거리를 추정한 깊이 추정 값을 갖는 올인포커스(All-in-focus)영상으로 변환하는 영상촬영부(100)와,
상기 올인포커스(All-in-focus)영상의 깊이 추정 값을 이용하여 노이즈를 제거하고 어라운드뷰 영상으로 변환하는 영상변환부(200)와,
상기 영상변환부(200)의 어라운드뷰 영상에서 템플릿을 생성하고, 차선 표식 후보 영역을 설정한 후 템플릿 매칭으로 차선 표식 간을 연결하는 템플릿매칭부(300)와,
상기 템플릿매칭부(300)의 차선 표식 후보 영역에 확장 및 침식 처리하여 직선과 곡선인 차선을 연결하는 영상처리부(400)와,
상기 영상처리부(400)의 연결된 차선 표식 후보 영역 중 관심 영역 설정하고 사용차선을 선택하여 검출하는 차선인식부(500)와,
상기 차선인식부(500)에서 검출된 사용차선의 오류 여부와 차량의 차선이탈여부를 판단하는 판단제어부(600)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
An image capturing unit 100 for converting an image photographed by the optical system camera 111 into an all-in-focus image having a depth estimated value of the distance between the external object and the vehicle,
An image conversion unit 200 for removing noise using an estimated depth value of the all-in-focus image and converting the noise into an ambient view image,
A template matching unit 300 for generating a template from the surrounding view image of the image transform unit 200, setting a lane marker candidate region and connecting the lane markers by template matching,
An image processing unit 400 for expanding and eroding the lane marking candidate area of the template matching unit 300 and connecting a straight line and a curved lane,
A lane recognition unit 500 for setting a region of interest among the lane marker candidate areas connected to the image processing unit 400 and selecting and using a lane to be used,
And a judgment control unit (600) for judging whether the used lane detected by the lane recognizing unit (500) is erroneous or not and whether or not the lane departure of the vehicle is deviated.
청구항 1에 있어서,
상기 영상촬영부(100)는, 영상을 촬영하고 촬영된 영상을 입력하는 촬영입력부(110)와,
상기 촬영입력부(110)에 저장된 영상의 외부물체와 차량의 거리를 추정하는 깊이추정부(120)와,
상기 깊이추정부(120)의 정보를 포함하고 다수개의 초점으로 영상으로 변환하여 선명도를 향상시키는 올인포커스(All-in-focus)부(130)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The image capturing unit 100 includes a capturing input unit 110 for capturing an image and inputting the captured image,
A depth estimator 120 for estimating a distance between the external object and the vehicle stored in the image sensing input unit 110,
And an all-in-focus unit 130 that includes information of the depth estimator 120 and converts the image into a plurality of focus images to improve sharpness. Lane recognition system.
청구항 1에 있어서,
상기 영상변환부(200)는, 상기 올인포커스(All-in-focus)부(130)에 포함된 깊이 추정 정보를 이용하여 노이즈에 해당하는 외부물체를 제거하는 노이즈제거부(210)와,
상기 노이즈제거부(210)에서 노이즈가 제거된 영상의 차선이 원근감 없이 일정한 폭으로 어라운드뷰로 변환시키는 어라운드뷰부(220)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The image transforming unit 200 may include a noise removing unit 210 for removing an external object corresponding to noise using depth estimation information included in the all-in-focus unit 130,
(220) for converting a lane of an image from which the noise is removed by the noise removing unit (210) into an averaged view with a constant width without a perspective.
청구항 1에 있어서,
상기 템플릿매칭부(300)는, 상기 어라운드뷰를 이용하여 템플릿을 생성하는 템플릿생성부(310)와,
상기 템플릿생성부(310)의 템플릿과 설정한 차선 표식 후보 영역을 매칭을 통해 직선과 곡선 차선을 연결하는 차선표식연결부(320)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The template matching unit 300 includes a template generating unit 310 for generating a template using the surround view,
And a lane mark connecting unit (320) for connecting a straight line and a curved lane through matching the template of the template generating unit (310) and the lane mark candidate region set by the template generating unit (310).
청구항 1에 있어서,
상기 차선인식부(500)는, 상기 차선 표식 후보 영역 중 관심영역을 설정하는 관심영역설정부(510)와,
상기 관심영역설정부(510)에서 사용할 차선을 선택하고, 선택된 차선을 검출하는 차선선택부(520)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The lane recognition unit 500 includes a region of interest setting unit 510 for setting a region of interest among the lane marking candidate regions,
And a lane selection unit (520) for selecting a lane to be used by the RO area setting unit (510) and detecting a selected lane.
청구항 1에 있어서,
상기 판단제어부(600)는, 상기 차선선택부(520)에서 선택된 차선의 오류를 판단하는 차선오류판단부(610)와,
상기 차선오류판단부(610)에서 오류가 없다고 판단신호를 받아 차량의 차선 이탈여부를 판단하여 사용자의 안전성을 향상시키기 위한 차선이탈판단부(620)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The determination control unit 600 includes a lane error determination unit 610 for determining an error of the lane selected by the lane selection unit 520,
And a lane departure determination unit (620) for receiving a signal indicating that there is no error in the lane error determination unit (610) to determine whether or not the vehicle has departed from the lane so as to improve the safety of the user. Used lane recognition system.
광계카메라(111)로부터 촬영한 영상을 입력받아 외부물체와 차량의 거리를 추정한 깊이 추정 값을 갖는 올인포커스(All-in-focus)영상으로 변환하는 영상촬영단계;
상기 올인포커스(All-in-focus)영상의 노이즈를 제거하고 어라운드뷰영상으로 변환하는 영상변환단계;
상기 어라운드뷰영상의 차선 표식과 상대적 위치정보를 이용하여 템플릿을 생성하고 생성된 템플릿과 매칭하여 후보 영역 차선 표식을 연결하는 템플릿매칭단계;
상기 후보 영역 차선 표식을 확장과 침식 처리를 하여 직선과 곡선으로 차선을 연결하는 영상처리단계;
상기 후보 영역에서 차선을 검출하기 위한 관심 영역을 설정하여 사용할 차선을 선택하는 차선선택단계;
상기 선택된 차선의 오류를 판단하는 차선오류판단단계;
상기 입력받은 선택차선을 이탈 여부를 판단하는 차선이탈판단단계;
를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 안식 방법.
An image capturing step of receiving an image photographed from the photosystem camera 111 and converting the distance between the external object and the vehicle into an all-in-focus image having an estimated depth value;
An image converting step of removing noise of the all-in-focus image and converting the noise into an all around view image;
A template matching step of generating a template using the lane marker and the relative position information of the surround view image and matching the candidate template with the generated template and connecting the candidate area lane marker;
An image processing step of extending and eroding the candidate area lane marker to connect lanes to a straight line and a curve;
Selecting a lane to be used by setting a region of interest for detecting a lane in the candidate region;
A lane error determination step of determining an error of the selected lane;
A lane departure determination step of determining whether or not the selected selected lane has departed;
Wherein the lane resting method comprises the steps of:
KR1020150109550A 2015-08-03 2015-08-03 Lane recognition system using light fied camera and method therefor KR101720679B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150109550A KR101720679B1 (en) 2015-08-03 2015-08-03 Lane recognition system using light fied camera and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150109550A KR101720679B1 (en) 2015-08-03 2015-08-03 Lane recognition system using light fied camera and method therefor

Publications (2)

Publication Number Publication Date
KR20170016143A true KR20170016143A (en) 2017-02-13
KR101720679B1 KR101720679B1 (en) 2017-03-28

Family

ID=58156017

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150109550A KR101720679B1 (en) 2015-08-03 2015-08-03 Lane recognition system using light fied camera and method therefor

Country Status (1)

Country Link
KR (1) KR101720679B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102041558B1 (en) 2018-06-11 2019-11-06 주식회사 디젠 System and method for serving information of safety driving by around view camera
KR20200019283A (en) * 2018-08-08 2020-02-24 주식회사 넥스트칩 Lane detection method and electronic device performing the method
CN113689718A (en) * 2021-08-13 2021-11-23 吉林大学 Intelligent signal lamp and lane matching system and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210130330A (en) 2020-04-21 2021-11-01 삼성전자주식회사 Electronic device for controlling driving vehicle and operation mtehod thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140021826A (en) * 2012-08-09 2014-02-21 현대모비스 주식회사 Lane recognition apparatus and method
KR20150086789A (en) * 2014-01-20 2015-07-29 한국전자통신연구원 Vision based lane recognition apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140021826A (en) * 2012-08-09 2014-02-21 현대모비스 주식회사 Lane recognition apparatus and method
KR20150086789A (en) * 2014-01-20 2015-07-29 한국전자통신연구원 Vision based lane recognition apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102041558B1 (en) 2018-06-11 2019-11-06 주식회사 디젠 System and method for serving information of safety driving by around view camera
KR20200019283A (en) * 2018-08-08 2020-02-24 주식회사 넥스트칩 Lane detection method and electronic device performing the method
CN113689718A (en) * 2021-08-13 2021-11-23 吉林大学 Intelligent signal lamp and lane matching system and method
CN113689718B (en) * 2021-08-13 2022-09-13 吉林大学 Intelligent signal lamp and lane matching system and method

Also Published As

Publication number Publication date
KR101720679B1 (en) 2017-03-28

Similar Documents

Publication Publication Date Title
KR101647370B1 (en) road traffic information management system for g using camera and radar
JP6795027B2 (en) Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs
JP4919036B2 (en) Moving object recognition device
KR101093316B1 (en) Method and System for Image Matching While Driving Vehicle
CN107005655B (en) Image processing method
CN103123687A (en) Fast obstacle detection
KR101720679B1 (en) Lane recognition system using light fied camera and method therefor
JP6597795B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
EP3115966B1 (en) Object detection device, object detection method, and computer program
KR101780048B1 (en) Moving Object Detection Method in dynamic scene using monocular camera
WO2017094300A1 (en) Image processing device, object recognition device, device conrol system, image processing method, and program
JP6547841B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP6396499B2 (en) Scale measurement of 3D information
WO2011016257A1 (en) Distance calculation device for vehicle
KR101276073B1 (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
JP5396287B2 (en) Face orientation detection device
CN107531182B (en) Display device for vehicle and display method for vehicle
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2021064154A (en) Obstacle identification apparatus and obstacle identification program
JP2008040965A (en) Road surface estimation device
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
JP5911623B1 (en) Detection device and detection method for road joints
JP5921596B2 (en) Image processing apparatus and image processing method
JP2004310282A (en) Vehicle detector
WO2013062401A1 (en) A machine vision based obstacle detection system and a method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 4