KR101720679B1 - Lane recognition system using light fied camera and method therefor - Google Patents
Lane recognition system using light fied camera and method therefor Download PDFInfo
- Publication number
- KR101720679B1 KR101720679B1 KR1020150109550A KR20150109550A KR101720679B1 KR 101720679 B1 KR101720679 B1 KR 101720679B1 KR 1020150109550 A KR1020150109550 A KR 1020150109550A KR 20150109550 A KR20150109550 A KR 20150109550A KR 101720679 B1 KR101720679 B1 KR 101720679B1
- Authority
- KR
- South Korea
- Prior art keywords
- lane
- unit
- image
- template
- recognition system
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 27
- 239000003550 marker Substances 0.000 claims abstract description 17
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 abstract description 2
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Images
Classifications
-
- G06K9/00798—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 다양한 환경변화에서도 도로 차선 인식의 정확도를 향상시킬 뿐만 아니라 차량과 외부물체의 거리를 인식할 수 있어 대형사고를 예방하고 사용자의 편리성을 대폭 향상시켜주는 광계카메라를 이용한 차선 인식 시스템 및 방법에 관한 것이다.
본 발명은 영상을 촬영하는 영상촬영부(100)와, 상기 영상촬영부(100)를 통해 촬영된 영상의 노이즈를 제거하고 어라운드뷰 영상으로 변환하는 영상변환부(200)와, 상기 어라운드뷰 영상에서 템플릿을 생성하고, 차선 표식 후보 영역을 설정한 후 템플릿 매칭으로 차선 표식 간을 연결하는 템플릿매칭부(300)와, 상기 차선 표식 후보 영역에 확장 및 침식 처리하여 직선과 곡선인 차선을 연결하는 영상처리부(400)와, 상기 연결된 차선 표식 후보 영역 중 관심 영역 설정하고 사용차선을 선택하여 검출하는 차선인식부(500)와, 상기 차선인식부(500)에서 검출된 사용차선의 오류 여부와 차량의 차선이탈여부를 판단하는 판단제어부(600)를 포함하는 차선 인식 시스템에 있어서, 상기 영상촬영부(100)는, 광계카메라(111)를 이용하여 영상을 촬영하고 촬영된 영상을 입력하는 촬영입력부(110)와, 상기 촬영입력부(110)에 저장된 영상의 외부물체와 차량의 거리를 추정하는 깊이추정부(120)와, 상기 깊이추정부(120)의 정보를 포함하고 다수개의 초점을 갖는 영상으로 변환하여 선명도를 향상시키기 위한 올인포커스(All-in-focus)부(130)를 포함하여 구성되는 것을 특징으로 한다.The present invention can improve the accuracy of road lane recognition even in various environment changes, and can recognize a distance between a vehicle and an external object, thereby preventing a large accident and greatly improving the convenience of the user. ≪ / RTI >
The image capturing unit 100 captures an image. The image capturing unit 200 removes noise from an image captured through the image capturing unit 100 and converts the captured image into an ambient view image. A template matching unit 300 for generating a template in the lane marker candidate area and setting a lane marker candidate area and connecting the lane markers by template matching; A lane recognition unit 500 for setting an area of interest and selecting and using a lane to be used among the connected lane marker candidates, an image processing unit 400 for detecting an error of the used lane detected by the lane recognition unit 500, The lane recognition system according to claim 1, wherein the lane recognition system comprises a determination unit (600) for determining whether or not the lane departure of the lane of the lane recognition system A depth estimating unit 120 for estimating a distance between the vehicle and an external object of the image stored in the image sensing input unit 110; And an all-in-focus unit 130 for enhancing sharpness by converting the image into an image having a plurality of pixels.
Description
본 발명은 광계카메라를 이용한 차선 인식 시스템 및 방법에 관한 것으로, 보다 상세하게는 다양한 환경변화에서도 도로 차선 인식의 정확도를 향상시킬 뿐만 아니라 차량과 외부물체의 거리를 인식할 수 있어 대형사고를 예방하고 사용자의 편리성을 대폭 향상시켜주는 광계카메라를 이용한 차선 인식 시스템 및 방법에 관한 것이다.The present invention relates to a lane recognition system and method using a photosystem camera. More particularly, the present invention not only improves the accuracy of road lane recognition, but also recognizes the distance between the vehicle and an external object, And more particularly, to a system and method for recognizing a lane using a photosystem camera that greatly improves user's convenience.
종래의 차량용 카메라 시스템은 단일 카메라에 레이저, 적외선 센서 등을 사용한 깊이 카메라(Time of Flight) 방식과 양안 입체카메라를 포함하여 사용되고 있다. Conventional vehicle camera systems have been used including a depth camera (Time of Flight) system using a laser, an infrared sensor and the like and a binocular stereoscopic camera in a single camera.
여기서, 상기 양안 입체카메라 방식은 좌우 카메라의 광축을 회전시키는 교차방식과 좌우 카메라의 렌즈와 센서를 분리하여 관심물체의 거리에 따라 렌즈 혹은 센서를 수평으로 이동하여 주 시각을 조절하는 수평이동방식이 있다.In the binocular stereoscopic camera system, a horizontal movement method of rotating the optical axis of the left and right cameras and a horizontal movement method of moving the lens or sensor horizontally according to the distance of the object of interest by separating the lens and sensor of the left and right cameras, have.
일반적으로 상기 양안 입체카메라와 별도의 센서를 도입하는 시스템은 종래의 단안 카메라보다 부피가 크고 고가이며, 두 대의 카메라를 6mm 이하로 접근할 수 없어 근접영상을 촬영하기 어려워 영상의 배율이 저하되고 두 대의 카메라를 사용하므로 좌우 카메라의 밝기, 색상, 화질 등의 불일치와 줌, 포커스 등의 연동 불가능함에 따른 상하좌우 불일치, 배율의 불일치, 화면의 회전 등의 문제점이 있다.In general, a system for introducing a separate sensor from the binocular stereoscopic camera is bulkier and bulkier than a conventional monocular camera, and since two cameras can not be accessed below 6 mm, it is difficult to capture close-up images, There is a problem such as inconsistency of the brightness, color, and image quality of the left and right cameras, inconsistency of the vertical and horizontal directions due to the inability of interlocking of the zoom and focus, inconsistency of magnification, and rotation of the screen.
또한, 깊이 카메라 방식은 해상도가 낮다는 문제점이 있다.Also, there is a problem that the depth camera method has a low resolution.
위와 같은 문제점을 해소하기 위해 등록특허 제10-1498975호와 같이 차량의 카메라로부터 획득한 영상을 조도 불변 영상으로 형성한 후 차선을 검출함으로써 차선 인식률을 향상시켜 차량이 차선을 이탈할 경우 경보할 수 있는 방법이 기재되어 있다.In order to solve the above problems, a lane recognition is improved by forming an image acquired from a camera of a vehicle as an illuminance invariant image, as in the registered patent No. 10-1498975, and the lane recognition rate is improved, Is described.
그러나, 차선을 인식할 때 원근감이 적용되기 때문에 도로를 한눈에 보기 어려우며 차량이 차선을 이탈할 경우, 이탈정도를 사용자가 시각적으로 확인하기 어려운 문제점이 발생할 수 있다.However, since the perspective is applied when recognizing the lane, it is difficult to see the road at a glance, and when the vehicle leaves the lane, it is difficult for the user to visually confirm the degree of departure.
또한, 에지 필터나 차선 강조 필터로 차선 후보들을 검출하고 명도 차이를 이용하여 영상에서 경계를 이루는 부분을 차선 후보 검출하기 때문에 강한 윤곽선을 가진 도로에서만 적용이 가능한 문제점이 있다.In addition, since the lane candidate is detected by the edge filter or the lane emphasis filter and the lane candidate is detected at the boundary of the image using the brightness difference, there is a problem that it can be applied only to a road having a strong outline.
따라서, 차선 표시와 강한 윤곽선을 가진 도로뿐만 아니라 일반적인 도로 차선의 인식률을 향상시키고 실제 차량의 빠른 주행 속도에도 실시간으로 차선을 연결하여 사용자의 안전성을 향상시킬 수 있는 방안이 요구되고 있는 실정이다.Accordingly, there is a need for a method for enhancing the recognition rate of a general road lane as well as a road having a lane marking and a strong outline, and improving the safety of a user by connecting a lane in real time to a real vehicle speed.
본 발명은 상술한 문제점을 해결하기 위해 제안된 것으로, 본 발명은 차선 표시와 강한 윤곽선을 가진 도로뿐만 아니라 일반적인 도로인 경우에도 차선 인식의 정확도를 향상시키기 위해 광계카메라를 이용한 촬영한 영상으로 올인포커스(All-in-focus)와 템플릿 매칭을 통해 사용자의 편리성과 안전성을 향상시킬 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.The present invention has been proposed in order to solve the above-described problems. The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a road- The present invention provides a lane recognition system and method using a photosystem camera that can improve user's convenience and safety through all-in-focus and template matching.
또한, 사용자가 이용하는 도로 이외의 영역에 해당하는 노이즈를 제거하여 차선 검출 정확도를 향상시킬 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.Another object of the present invention is to provide a lane recognition system and a lane recognition system using a photosystem camera, which can improve lane detection accuracy by removing noise corresponding to a region other than a road used by a user.
또한, 차선 검출 프로세스의 연산량을 감소시키고 실제 차량의 빠른 주행 속도에서 형태학적 영상처리를 이용하여 실시간으로 차선을 연결하는 처리속도를 향상시킬 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.It is another object of the present invention to provide a lane recognition system and method using a photosystem camera capable of reducing a calculation amount of a lane detecting process and improving a processing speed of connecting lanes in real time using a morphological image processing at a fast traveling speed of an actual vehicle .
또한, 사용자의 차량과 외부물체의 거리를 인식하여 사고를 예방할 수 있는 광계카메라를 이용한 차선 인식 시스템 및 방법을 제공하는 목적이 있다.It is another object of the present invention to provide a lane recognition system and method using a photosystem camera capable of recognizing a distance between a user's vehicle and an external object to prevent an accident.
본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위한 본 발명에 의한 광계카메라를 이용한 차선 인식 시스템 및 방법은 영상을 촬영하는 영상촬영부(100)와, 상기 영상촬영부(100)를 통해 촬영된 영상의 노이즈를 제거하고 어라운드뷰 영상으로 변환하는 영상변환부(200)와, 상기 어라운드뷰 영상에서 템플릿을 생성하고, 차선 표식 후보 영역을 설정한 후 템플릿 매칭으로 차선 표식 간을 연결하는 템플릿매칭부(300)와, 상기 차선 표식 후보 영역에 확장 및 침식 처리하여 직선과 곡선인 차선을 연결하는 영상처리부(400)와, 상기 연결된 차선 표식 후보 영역 중 관심 영역 설정하고 사용차선을 선택하여 검출하는 차선인식부(500)와, 상기 차선인식부(500)에서 검출된 사용차선의 오류 여부와 차량의 차선이탈여부를 판단하는 판단제어부(600)를 포함하는 차선 인식 시스템에 있어서, 상기 영상촬영부(100)는, 광계카메라(111)를 이용하여 영상을 촬영하고 촬영된 영상을 입력하는 촬영입력부(110)와, 상기 촬영입력부(110)에 저장된 영상의 외부물체와 차량의 거리를 추정하는 깊이추정부(120)와, 상기 깊이추정부(120)의 정보를 포함하고 다수개의 초점을 갖는 영상으로 변환하여 선명도를 향상시키기 위한 올인포커스(All-in-focus)부(130)를 포함하여 구성되는 것을 특징으로 한다.
또한, 상기 영상변환부(200)는, 상기 올인포커스(All-in-focus)부(130)에 포함된 깊이 추정 정보를 이용하여 노이즈에 해당하는 외부물체를 제거하는 노이즈제거부(210)와, 상기 노이즈제거부(210)에서 노이즈가 제거된 영상의 차선이 원근감 없이 일정한 폭으로 어라운드뷰로 변환시키는 어라운드뷰부(220)를 포함하여 구성되는 것을 특징으로 한다.
또한, 상기 템플릿매칭부(300)는, 상기 어라운드뷰를 이용하여 템플릿을 생성하는 템플릿생성부(310)와, 상기 템플릿생성부(310)의 템플릿과 설정한 차선 표식 후보 영역을 매칭을 통해 직선과 곡선 차선을 연결하는 차선표식연결부(320)를 포함하여 구성될 수 있다.
여기서, 상기 차선인식부(500)는, 상기 차선 표식 후보 영역 중 관심영역을 설정하는 관심영역설정부(510)와, 상기 관심영역설정부(510)에서 사용할 차선을 선택하고, 선택된 차선을 검출하는 차선선택부(520)를 포함하여 구성될 수 있다.
또한, 상기 판단제어부(600)는, 상기 차선선택부(520)에서 선택된 차선의 오류를 판단하는 차선오류판단부(610)와, 상기 차선오류판단부(610)에서 오류가 없다고 판단신호를 받아 차량의 차선 이탈여부를 판단하여 사용자의 안전성을 향상시키기 위한 차선이탈판단부(620)를 포함하여 구성되는 것이 바람직하다.According to an aspect of the present invention, there is provided a system and method for recognizing lanes using a photosystem camera, the system comprising: an image capturing unit (100) for capturing an image; a noise eliminating unit A
In addition, the
The
The
The lane
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
상술한 바와 같이 본 발명에 따르면, 광계카메라를 이용한 차선 인식 시스템 및 방법은 차선뿐만 아니라 외부물체를 인식하고 차량과 외부물체와의 거리를 추정하여 사고위험률을 대폭 감소시키며, 다수개의 초점을 두어 차선의 인식률과 정확도를 향상시킴으로써 사용자의 편리성과 안전성을 대폭 향상시키는 효과가 있다. As described above, according to the present invention, a lane recognition system and method using a photosystem camera can recognize an external object as well as a lane, estimate a distance between the vehicle and an external object, greatly reduce an accident risk rate, It is possible to improve the convenience and safety of the user significantly.
또한, 차선 검출 프로세스의 연산량을 감소시켜 처리속도가 향상됨으로 인해 실시간으로 차선을 연결하여 차선 이탈 및 경고상황에 대한 대처가 용이할 수 있는효과가 있다.Further, since the processing amount of the lane detecting process is reduced to improve the processing speed, the lane departure and warning situations can be easily coped by connecting the lane in real time.
또한, 단가가 저렴한 광계카메라를 이용하여 시스템 단가를 절약할 수 있는 효과가 있다.In addition, the system cost can be reduced by using an inexpensive optical system camera.
도 1은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템.
도 2는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상촬영부.
도 3은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상변환부.
도 4는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 템플릿매칭부.
도 5는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 차선인식부.
도 6은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 판단제어부.
도 7은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라.
도 8은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 라이트 필드 복원과정.
도 9는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라 부착위치.
도 10은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 어라운드뷰.
도 11은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템을 이용하여 검출된 차선.
도 12는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템방법의 순서도.
1 is a lane recognition system using a photosystem camera according to an embodiment of the present invention.
2 is a photographing part of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
3 is a block diagram of an image conversion unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
4 is a block diagram of a template matching unit of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention.
5 is a lane recognition part of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
6 is a block diagram of a determination control unit of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention.
FIG. 7 is a perspective view of a spectacle camera of a lane recognition system using a spectacle camera according to an embodiment of the present invention. FIG.
8 is a view illustrating a light field restoration process of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
9 is a positional diagram of a lumen recognition system using a photosystem camera according to an embodiment of the present invention.
10 is a view of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
11 is a lane detected using a lane recognition system using a photosystem camera according to an embodiment of the present invention.
12 is a flowchart of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 의한 광계카메라를 이용한 차선 인식 시스템 및 방법을 상세히 설명한다.Hereinafter, a system and method for recognizing a lane using a photosystem camera according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템이고, 도 2는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상촬영부이며, 도 3은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 영상변환부이다.FIG. 1 is a lane recognition system using a photosystem camera according to an embodiment of the present invention. FIG. 2 is a photographing unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention. And is an image converter of a lane recognition system using a photosystem camera according to an embodiment.
또한, 도 4는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 템플릿매칭부이며, 도 5는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 차선인식부이고, 도 6은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 판단제어부이다.FIG. 5 is a lane recognition unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention. FIG. 5 is a block diagram of a lane recognition unit of a lane recognition system using a photosystem camera according to an embodiment of the present invention. 6 is a block diagram of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention.
또한, 도 7은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라이고, 도 8은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 라이트 필드 복원과정이며, 도 9는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 광계카메라 부착위치이다.8 is a view illustrating a light field reconstruction process of a lane recognition system using a photosystem camera according to an exemplary embodiment of the present invention. Referring to FIG. 7, FIG. 9 is a positional view of a pneumatic camera of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
또한, 도 10은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템의 어라운드뷰이며, 도 11은 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템을 이용하여 검출된 차선이고, 도 12는 본 발명의 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템방법의 순서도이다.10 is a view of a lane recognition system using a photosystem camera according to an embodiment of the present invention. FIG. 11 is a lane detected using a lane recognition system using a photosystem camera according to an embodiment of the present invention And FIG. 12 is a flowchart of a lane recognition system using a photosystem camera according to an embodiment of the present invention.
상기 도면의 구성 요소들에 인용부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있으며, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 설명은 생략한다. 또한, '상부', '하부', '앞', '뒤', '선단', '전방', '후단' 등과 같은 방향성 용어는 개시된 도면(들)의 배향과 관련하여 사용된다. 본 발명의 실시 예의 구성요소는 다양한 배향으로 위치설정될 수 있기 때문에 방향성 용어는 예시를 목적으로 사용되는 것이지 이를 제한하는 것은 아니다.In the drawings, the same reference numerals are given to the same elements even when they are shown in different drawings. In the drawings, the same reference numerals as used in the accompanying drawings are used to designate the same or similar elements. And detailed description of the configuration will be omitted. Also, directional terms such as "top", "bottom", "front", "back", "front", "forward", "rear", etc. are used in connection with the orientation of the disclosed drawing (s). Since the elements of the embodiments of the present invention can be positioned in various orientations, the directional terminology is used for illustrative purposes, not limitation.
본 발명의 바람직한 일실시 예에 의한 광계카메라를 이용한 차선 인식 시스템 및 방법은 상기 도 1 또는 도 12에 도시된 바와 같이, 광계카메라(111)로 촬영된 영상을 외부물체와 차량의 거리를 추정한 깊이 추정 값을 갖는 올인포커스(All-in-focus)영상으로 변환하는 영상촬영부(100)와, 상기 올인포커스(All-in-focus)영상의 깊이 추정 값을 이용하여 노이즈를 제거하고 어라운드뷰 영상으로 변환하는 영상변환부(200)와, 상기 영상변환부(200)의 어라운드뷰 영상에서 템플릿을 생성하고, 차선 표식 후보 영역을 설정한 후 템플릿 매칭으로 차선 표식 간을 연결하는 템플릿매칭부(300)와, 상기 템플릿매칭부(300)의 차선 표식 후보 영역에 확장 및 침식 처리하여 직선과 곡선인 차선을 연결하는 영상처리부(400)와, 상기 영상처리부(400)의 연결된 차선 표식 후보 영역 중 관심 영역 설정하고 사용차선을 선택하여 검출하는 차선인식부(500)와, 상기 차선인식부(500)에서 검출된 사용차선의 오류 여부와 차량의 차선이탈여부를 판단하는 판단제어부(600)를 포함하여 구성된다.As shown in FIG. 1 or FIG. 12, a system and method for recognizing a lane using a photosystem camera according to a preferred embodiment of the present invention is a system for estimating a distance between an external object and a vehicle In-focus image having an estimated depth value by using the depth estimation value of the all-in-focus image and a depth estimation value of the all-in-focus image, A template matching unit for generating a template from the surrounding view image of the
상기 도 2에 도시된 바와 같이, 상기 영상촬영부(100)는 광계카메라(111)를 이용하여 영상을 촬영하고 촬영된 영상을 입력하는 촬영입력부(110)와, 상기 촬영입력부(110)에 저장된 영상의 외부물체와 차량의 거리를 추정하는 깊이추정부(120)와, 상기 깊이추정부(120)의 정보를 포함하고 다수개의 초점을 갖는 영상으로 변환하여 선명도를 향상시키는 올인포커스(All-in-focus)부(130)를 포함하여 구성될 수 있다.2, the
여기서, 상기 영상촬영부(100)의 광계카메라는, 상기 도 7에 도시된 바와 같이, 촬영 대상을 메모리에 저장할 수 있도록 상을 맺혀주는 메인렌즈(112)를 통과하는 빛의 양을 조절하는 조리개(113)와, 상기 조리개(113)로부터 통과한 빛을 변조하여 라이트 필드를 계산하는 마스크(114)와, 상기 마스크(114)의 후면에 밀착되며, 상기 마스크(114)를 거치면서 변조된 라이트 필드를 저장하는 센서(115)와, 상기 센서(115)로부터 들어오는 영상을 인코딩하기 위한 마이크로컨트롤러유닛(116)을 포함하는 것이 바람직하다.As shown in FIG. 7, the optical system camera of the
상기 광계카메라(111)는 단안 카메라에 빛 변조 필터인 마스크를 추가하여 삼차원 카메라의 기능을 가짐으로써 차선 표시가 강하지 않은 노후된 도로나 일반적인 도로에서도 차선 인식률을 향상시킬 수 있고 근접촬영이 가능해진다.The
또한, 매칭 연산의 계산 양이 종래의 카메라보다 상대적으로 적어 시스템의 크기가 감소함으로써 신속하게 계산되어 영상이 빠르게 변화하는 실제 도로상황에 실시간으로 영상을 저장하기 용이하며, 차량과 같이 자동초점기능을 사용하기 어려운 경우, 피사물체의 초점 획득과 영상처리가 용이해진다.In addition, since the calculation amount of the matching operation is relatively smaller than that of the conventional camera, the size of the system is reduced, so that it can be quickly calculated and it is easy to store the image in real time on the real road where the image changes rapidly. If it is difficult to use, the focus acquisition and image processing of the object can be facilitated.
한편, 상기 빛을 변조하는 마스크(114)는 상기 센서(115)와 메인렌즈(112) 사이에 위치하며, 센서와 크기가 동일한 평면의 차폐물로써 라이트 필드를 변조시키는 변조함수이다.The
또한, 상기 마스크(114)는 Pinholes, SoS(Sum of Sinusoids), MURA(Modifd Unirotmlt dudundat Array) 패턴 등이 사용될 수 있다.In addition, the
이때, 상기 센서(115)에 변조되어 저장되는 영상 는 아래 수학식 1 내지 수학식 4으로 나타낼 수 있다.At this time, the image modulated and stored in the
먼저, 이미지 센서 값은 입력된 모든 광선을 합산하여 아래 수학식 1과 같이 출력된다.First, the value of the image sensor is calculated by summing up all the input rays as shown in Equation 1 below.
상기 이미지 센서의 1차원 푸리에 변환은, 아래 수학식 2와 같이, 입력된 라이트 필드의 2차원 푸리에 변환과 관계된다.The one-dimensional Fourier transform of the image sensor is related to the two-dimensional Fourier transform of the input light field as shown in the following equation (2).
상기와 같이 라이트필드 2차원 푸리에 변환의 수평 조각은 Fourier Projection-Slice Theorem에 의해, 아래 수학식 3과 같이, 상기 센서의 1차원 푸리에 변환과 동일하게 된다.As described above, the horizontal slice of the light field two-dimensional Fourier transform becomes the same as the one-dimensional Fourier transform of the sensor by the Fourier projection-slice theorem, as shown in the following equation (3).
상기 변조된 라이트 필드가 센서에 저장되는 영상은, 아래 수학식 4와 같이 나타낸다.The image in which the modulated light field is stored in the sensor is expressed by Equation (4) below.
상기 는 마스크이고, 상기 는 라이트 필드이며, 변수 는 각각 2차원 상에서 상대적인 두 가지의 매개변수의 각 축이다.remind Is a mask, Is a light field, and the variable Are the respective axes of the two parameters relative to each other on the two dimensional plane.
또한, 는 메인렌즈의 직경과 메인렌즈와 센서와의 고정된 거리이다.Also, Is the diameter of the main lens and the fixed distance between the main lens and the sensor.
따라서, 상기와 같이 변조된 영상을 저장하고, 저장된 영상의 정보가 영상프로세서에 입력되어 역공학적으로 해석되어 빛의 각도나 세기 정보를 산출하는 촬영입력부(110)를 포함한다.Accordingly, the apparatus includes a photographing
상기 저장된 영상이 상기 깊이추정부(120)에서 외부물체와 차량의 거리를 계산하여 추정되며, 상기 깊이 추정 값이 입력된 영상을 올인포커스(All-in-focus)부(130)로 수신한다.The stored image is estimated by calculating the distance between the external object and the vehicle in the
상기 영상을 올인포커스(All-in-focus)부(130)에서 최종적으로 복원된 라이트 필드의 재초점영상을 합성하는 방법과 비초점과 통신신호를 조합하는 방법 등으로 올인포커스(All-in-focus)영상으로 변환하게 된다(S100).An all-in-focus process is performed by combining a refocused image of a light field finally reconstructed by the all-in-
여기서, 상기 도 8에 도시된 바와 같이, 상기 라이트 필드는 상기 마스크(114) 패턴이 적용하여 주파수영역에서 변조와 복원된다.Here, as shown in FIG. 8, the light field is modulated and restored in the frequency domain by applying the pattern of the
상기 입력된 라이트 필드는 는 대역제한적이라 가정하며, 상기 의 푸리에 변환을 로 표기한다.The input light field It is assumed that the bandwidth is limited, Fourier transform of .
는 u,s의 절대적인 두 가지 매개변수인 각 축의 푸리에 변환이다. Is the Fourier transform of each axis, which is an absolute two parameters of u, s.
Fourier-slice Theorem에 의하면, 먼저 라이트필드추출(131)은 고해상도 카메라 센서는 -axis를 따라 오버샘플링된 조각을 추출한다.According to the Fourier-slice Theorem, first the light field extraction (131) is a high resolution camera sensor Extract the oversampled fragments along the -axis.
그 다음, 라이트필드변조(132)는 센서 앞에 위치한 마스크로 인해 변조된 라이트 필드 를 얻을 수 있다. The
이는 상기 와 기울기 를 갖는 마스크 스펙트럼의 컨볼루션과 동일하게 될 수 있으며, 아래 수학식 5와 같이 나타낼 수 있다.This is because And tilt And can be expressed by Equation (5) below. &Quot; (5) "
그 후, 라이트필드복제(133)는 가 의 스펙트럼 복제품으로 구성되며, 라이트필드복원(134)은 상기 센서 조각을 재구성하여 를 예측한 를 얻을 수 있게 된다.Thereafter, the
따라서, 상기 의 역푸리에 변환을 통해 최종적으로 라이트 필드를 복원할 수 있게 된다.Therefore, It is possible to finally restore the light field through the inverse Fourier transform of the inverse Fourier transform.
상기 올인포커스(All-in-focus)영상은 종래의 카메라의 초점이 한 곳에 맞춰지지 않고 다수개의 초점을 통해 영상의 선명도를 향상시킬 수 있다.The all-in-focus image can improve the sharpness of an image through a plurality of focal points without focusing on a conventional camera.
다시 말해, 상기 올인포커스(All-in-focus)영상을 통해 변환하기 전의 영상 가장자리가 초점이 맞지 않아서 발생하는 흐림현상을 감소시키고, 다수의 긴 차선 이식이 가능하게 된다.In other words, it is possible to reduce the blurring caused by the non-focused image edges before the conversion through the all-in-focus image and to enable a plurality of long lane transplantation.
상기 올인포커스(All-in-focus)부(130)에 포함된 깊이 추정 정보를 이용하여 상기 영상변환부(200)는, 상기 도 3에 도시된 바와 같이, 노이즈에 해당하는 외부물체를 제거하는 노이즈제거부(210)를 포함하여 구성될 수 있어 올인포커스(All-in-focus)영상에서 차선 인식의 검철 정확도가 대폭 향상될 수 있다.Using the depth estimation information included in the all-in-
그러나, 상기 노이즈제거부(210)에서 노이즈가 제거된 올인포커스(All-in-focus)영상은 원근감이 있어 차선이 갈수록 좁아져 시야가 좁아지는 문제점이 있다.However, the all-in-focus image in which the noise is removed by the
상기 문제점을 해소하기 위해 상기 영상변환부(200)는 올인포커스(All-in-focus)영상의 다양한 도로의 차선을 원근감 없이 일정한 폭으로 변환시키는 어라운드뷰부(220)를 포함하여 차선의 인식률을 향상시킬 수 있게 된다(S120).In order to solve the above problem, the
상기 어라운드뷰는, 상기 도 10에 도시된 바와 같이, 다수개의 카메라로 차량의 360도 주변을 촬영하여 하늘에서 내려다보듯 차량 주변을 한 화면에 보여주며, 외부 날씨와 관계없이 차량의 창문을 열지 않아도 차량의 주변을 쉽게 모니터로 볼 수 있게 된다.As shown in FIG. 10, the surround view photographs the vicinity of 360 degrees of the vehicle with a plurality of cameras and shows the surroundings of the vehicle on the screen as viewed from the sky. In addition, The surroundings of the vehicle can be easily seen on the monitor.
또한, 일반 카메라에서 안보는 사각지대도 쉽게 볼 수 있어 차량 사고 위험이 감소할 수 있게 된다.In addition, the blind spot can be easily seen from a general camera, and the risk of a car accident can be reduced.
이때, 상기 도 9에 도시된 바와 같이, 상기 어라운드뷰부(220)의 변환된 영상이 사각지대가 선명하게 보일 수 있도록 다수개의 카메라가 설치되는 것이 바람직하다.In this case, as shown in FIG. 9, it is preferable that a plurality of cameras are installed so that a blind spot of the converted image of the
따라서, 상기 어라운드뷰부(220)는 사각지대가 없어 차량 사고 위험이 대폭 감소할 수 있으며, 잡음과 데이터 손실에 강한 차선인식 알고리즘인 모델기반 방법의 적용이 용이해 질 수 있게 된다.Therefore, the
또한, 상기 어라운드뷰부(220)는 수평소실점 이하 영역으로 도로 영역을 한정함으로써 검출 프로세스의 연산량을 감소시킬 수 있게 된다.In addition, the
상기 어라운드뷰부(220)의 영상을 통해 템플릿을 매칭하기 위해 상기 템플릿매칭부(300)는, 상기 도 4에 도시된 바와 같이, 템플릿생성부(310)와 차선표식연결부(320)를 더 포함하여 구성될 수 있다.The
상기 템플릿생성부(310)는 상기 어라운드뷰부(220)영상의 차선표식과 차선 폭과 상대적 위치정보를 이용하여 템플릿을 생성한다.The
상기 템플릿은 차선인식에 있어서 미리 주어진 차선으로, 처리대상차선으로 부터 추출해야 한다.The template should be extracted from the lane to be processed with a lane given in advance in the lane recognition.
상기 템플릿 는 아래 수학식 6로 나타낼 수 있다.The template Can be expressed by Equation (6) below.
상기 는 영상의 조건이나 환경에 맞추어 선정되는 것이 바람직하다.remind Is preferably selected according to the conditions and the environment of the image.
상기 템플릿이 생성된 후, 상기 차선표식연결부(320)에서 상기 어라운드뷰부(220)영상의 차선 표식 후보 영역을 설정한다.After the template is created, a lane mark candidate region of the image of the
설정된 차선 표식 후보 영역의 차선 표식 간을 커브 피팅 등의 곡선 모델 템플릿 매칭으로 연결한다(S130).The lane markers of the set lane marker candidate areas are connected by curve model template matching such as curve fitting (S130).
또한, 상기 곡선 모델 템플릿 매칭은 연산량이 많기 때문에 높은 형태학적 영상처리를 이용하여 처리속도를 대폭 향상시켜줄 수 있다.In addition, since the curve model template matching has a large amount of computation, the processing speed can be greatly improved by using high morphological image processing.
상기 템플릿매칭부(300)의 차선 표식 후보 영역을 상기 영상처리부(400)에서 확장 및 침식 처리하여 직선과 곡선인 차선을 연결한다(S140).The lane marker candidate region of the
상기 영상처리부(400)를 통해 확장과 침식 처리된 영상의 차선을 인식하기 위한 상기 차선인식부(500)는, 상기 도 5에 도시된 바와 같이, 관심영역설정부(510)와 차선선택부(520)를 더 포함하여 구성된다.5, the
상기 도 11에 도시된 바와 같이, 상기 관심영역설정부(510)는 차선 표식 후보 영역 중 관심영역을 설정한 후, 상기 차선선택부(520)에서는 상기 관심영역 내의 차선과 실제 사용자의 차량의 위치정보를 상기 템플릿매칭부(300)를 통해 사용할 차선을 매칭하고 선택하여 최종적으로 연결된 직선과 곡선의 형태로 도로 위의 사용차선을 검출하게 된다(S150).11, the
다시 말해, 상기 차선인식부(500)는 차량 차선의 범위를 한정함으로 인해 주변 노이즈 제거와 처리속도가 향상되는 효과를 줄 수 있다.In other words, the
상기 차선인식부(500)에서 검출된 사용차선을 상기 판단제어부(600)에서 오류 여부를 판단하는 차선오류판단부(610)가 포함되어 있으며, 본 발명의 전체적인 제어를 할 수 있다.A lane
상기 검출된 사용차선이 사용자의 차량이 사용하지 않는 차선으로 판단될 경우, 상기 차선인식부(500)에 오류신호를 보내 다시 사용차선을 검출한다(S160).If the detected use lane is determined to be a lane not used by the user's vehicle, an error signal is sent to the
반면, 상기 검출된 사용차선이 사용자의 차량이 사용하는 차선으로 판단될 경우, 상기 차선인식부(500)에 오류신호를 보내지 않고 차량이 사용차선을 이탈여부를 판단하여야 한다.On the other hand, when the detected usage lane is determined to be a lane used by the user's vehicle, the vehicle should determine whether the user leaves the used lane without sending an error signal to the
상기 사용차선을 이탈여부를 판단하기 위해 상기 판단제어부(600)는, 상기 도 6에 도시된 바와 같이, 차선이탈판단부(620)를 더 포함하여 구성되는 것이 바람직하다.The
상기 차선이탈판단부(620)는 차선오류판단부(610)에서 사용차선에 오류가 없다는 신호를 받으면 차량이 사용차선을 이탈여부를 판단하게 된다.When the lane
상기 차량이 사용차선을 이탈할 경우, 상기 차선이탈판단부(620)에서 경보음과 차량이 사용차선과의 상대적 위치에 따라 차량이 사용차선 중앙에 위치하도록 하는 핸드제어 장치를 더 포함하여 구성되는 것이 바람직하다(S170).The lane
따라서, 본 발명은 단가가 저렴한 광계카메라(111)를 이용하여 단가 절약의 효과가 있으며, 차선뿐만 아니라 외부물체를 인식하고 차량과 외부물체의 거리를 추정하여 사고위험률을 대폭 감소시킬 수 있다.Accordingly, the present invention has the effect of saving the unit price by using the inexpensive
또한, 차선의 인식률과 정확도를 향상시킴으로써 사용자의 편리성과 안전성을 대폭 향상시키는 효과가 있고, 처리속도를 향상시키기 위해 차선 검출 프로세스의 연산량을 감소시켜 실시간으로 차선을 연결함으로 인해 차선 이탈 및 경고상황에 대한 대처가 용이해지는 효과가 있다.In addition, by improving the recognition rate and accuracy of the lane, user convenience and safety are significantly improved. In order to improve the processing speed, the calculation amount of the lane detecting process is reduced and the lane departure is performed in real time. There is an effect that it is easy to cope with.
앞에서 설명되고, 도면에 도시된 본 발명의 실시 예들은 본 발명의 기술적 사상을 한정하는 것으로 해석되어서는 안 된다. 본 발명의 보호범위는 청구범위에 기재된 사항에 의하여만 제한되고, 본 발명의 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 다양한 형태로 개량 변경하는 것이 가능하다. 따라서 이러한 개량 및 변경은 통상의 지식을 가진 자에게 자명한 것인 경우에는 본 발명의 보호범위에 속하게 될 것이다.The embodiments of the present invention described above and shown in the drawings should not be construed as limiting the technical idea of the present invention. The scope of protection of the present invention is limited only by the matters described in the claims, and those skilled in the art will be able to modify the technical idea of the present invention in various forms. Accordingly, such improvements and modifications will fall within the scope of the present invention if they are apparent to those skilled in the art.
100: 영상촬영부 110: 촬영입력부
111: 광계카메라 112: 메인렌즈
113: 조리개 114: 마스크
115: 센서 116: 마이크로컨트롤러유닛
120: 깊이추정부 130: 올인포커스(All-in-focus)부
131: 라이트필드추출 132: 라이트필드변조
133: 라이트필드복제 134: 라이트필드복원
200: 영상변환부 210: 노이즈제거부
220: 어라운드뷰부 300: 템플릿매칭부
310: 템플릿생성부 320: 차선표식연결부
400: 영상처리부 500: 차선인식부
510: 관심영역설정부 520: 차선선택부
600: 판단제어부 610: 차선오류판단부
620: 차선이탈판단부100: image capturing unit 110:
111: optical system camera 112: main lens
113: Aperture 114: Mask
115: sensor 116: microcontroller unit
120: Depth estimation unit 130: All-in-focus unit
131: Light field extraction 132: Light field modulation
133: Replication of Light Fields 134: Restoration of Light Fields
200: image converting unit 210: noise removing unit
220: a surround view unit 300: a template matching unit
310: template generating unit 320: lane marker connecting unit
400: image processing unit 500: lane recognition unit
510: ROI setting unit 520: Lane selection unit
600: Judgment control unit 610:
620: lane departure determination section
Claims (7)
상기 영상촬영부(100)는, 광계카메라(111)를 이용하여 영상을 촬영하고 촬영된 영상을 입력하는 촬영입력부(110)와,
상기 촬영입력부(110)에 저장된 영상의 외부물체와 차량의 거리를 추정하는 깊이추정부(120)와,
상기 깊이추정부(120)의 정보를 포함하고 다수개의 초점을 갖는 영상으로 변환하여 선명도를 향상시키기 위한 올인포커스(All-in-focus)부(130)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
An image capturing unit 100 for capturing an image, an image converting unit 200 for removing noise of an image captured through the image capturing unit 100 and converting the noise into an ambient view image, A template matching unit 300 for connecting the lane markers to the lane marker candidates by template matching after setting the lane marker candidate regions, and an image processing unit A lane recognition unit 500 for setting a region of interest among the connected lane marker candidates and selecting and using a lane to be used; And a determination control unit (600)
The image capturing unit 100 includes an image capturing input unit 110 for capturing an image using a photosystem camera 111 and inputting the captured image,
A depth estimator 120 for estimating a distance between the external object and the vehicle stored in the image sensing input unit 110,
And an all-in-focus unit 130 that includes information of the depth estimator 120 and converts the image into an image having a plurality of focuses to improve sharpness. Lane Recognition System Using.
상기 영상변환부(200)는, 상기 올인포커스(All-in-focus)부(130)에 포함된 깊이 추정 정보를 이용하여 노이즈에 해당하는 외부물체를 제거하는 노이즈제거부(210)와,
상기 노이즈제거부(210)에서 노이즈가 제거된 영상의 차선이 원근감 없이 일정한 폭으로 어라운드뷰로 변환시키는 어라운드뷰부(220)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The image transforming unit 200 may include a noise removing unit 210 for removing an external object corresponding to noise using depth estimation information included in the all-in-focus unit 130,
(220) for converting a lane of an image from which the noise is removed by the noise removing unit (210) into an averaged view with a constant width without a perspective.
상기 템플릿매칭부(300)는, 상기 어라운드뷰를 이용하여 템플릿을 생성하는 템플릿생성부(310)와,
상기 템플릿생성부(310)의 템플릿과 설정한 차선 표식 후보 영역을 매칭을 통해 직선과 곡선 차선을 연결하는 차선표식연결부(320)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The template matching unit 300 includes a template generating unit 310 for generating a template using the surround view,
And a lane mark connecting unit (320) for connecting a straight line and a curved lane through matching the template of the template generating unit (310) and the lane mark candidate region set by the template generating unit (310).
상기 차선인식부(500)는, 상기 차선 표식 후보 영역 중 관심영역을 설정하는 관심영역설정부(510)와,
상기 관심영역설정부(510)에서 사용할 차선을 선택하고, 선택된 차선을 검출하는 차선선택부(520)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.
The method according to claim 1,
The lane recognition unit 500 includes a region of interest setting unit 510 for setting a region of interest among the lane marking candidate regions,
And a lane selection unit (520) for selecting a lane to be used by the RO area setting unit (510) and detecting a selected lane.
상기 판단제어부(600)는, 상기 차선선택부(520)에서 선택된 차선의 오류를 판단하는 차선오류판단부(610)와,
상기 차선오류판단부(610)에서 오류가 없다고 판단신호를 받아 차량의 차선 이탈여부를 판단하여 사용자의 안전성을 향상시키기 위한 차선이탈판단부(620)를 포함하여 구성되는 것을 특징으로 하는 광계카메라를 이용한 차선 인식 시스템.The method of claim 5,
The determination control unit 600 includes a lane error determination unit 610 for determining an error of the lane selected by the lane selection unit 520,
And a lane departure determination unit (620) for receiving a signal indicating that there is no error in the lane error determination unit (610) to determine whether or not the vehicle has departed from the lane so as to improve the safety of the user. Used lane recognition system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150109550A KR101720679B1 (en) | 2015-08-03 | 2015-08-03 | Lane recognition system using light fied camera and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150109550A KR101720679B1 (en) | 2015-08-03 | 2015-08-03 | Lane recognition system using light fied camera and method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170016143A KR20170016143A (en) | 2017-02-13 |
KR101720679B1 true KR101720679B1 (en) | 2017-03-28 |
Family
ID=58156017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150109550A KR101720679B1 (en) | 2015-08-03 | 2015-08-03 | Lane recognition system using light fied camera and method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101720679B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11670092B2 (en) | 2020-04-21 | 2023-06-06 | Samsung Electronics Co., Ltd. | Electronic device for controlling driving vehicle and operation method of the electronic device |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102041558B1 (en) | 2018-06-11 | 2019-11-06 | 주식회사 디젠 | System and method for serving information of safety driving by around view camera |
KR102119678B1 (en) * | 2018-08-08 | 2020-06-08 | 주식회사 넥스트칩 | Lane detection method and electronic device performing the method |
CN113689718B (en) * | 2021-08-13 | 2022-09-13 | 吉林大学 | Intelligent signal lamp and lane matching system and method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101986166B1 (en) * | 2012-08-09 | 2019-06-07 | 현대모비스 주식회사 | Lane Recognition Apparatus and Method |
KR101773822B1 (en) * | 2014-01-20 | 2017-09-04 | 한국전자통신연구원 | Vision based lane recognition apparatus |
-
2015
- 2015-08-03 KR KR1020150109550A patent/KR101720679B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11670092B2 (en) | 2020-04-21 | 2023-06-06 | Samsung Electronics Co., Ltd. | Electronic device for controlling driving vehicle and operation method of the electronic device |
US12100226B2 (en) | 2020-04-21 | 2024-09-24 | Samsung Electronics Co., Ltd. | Electronic device for controlling driving vehicle and operation method of the electronic device |
Also Published As
Publication number | Publication date |
---|---|
KR20170016143A (en) | 2017-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
JP6795027B2 (en) | Information processing equipment, object recognition equipment, device control systems, moving objects, image processing methods and programs | |
CN107005655B (en) | Image processing method | |
KR101093316B1 (en) | Method and System for Image Matching While Driving Vehicle | |
KR101720679B1 (en) | Lane recognition system using light fied camera and method therefor | |
JP4835201B2 (en) | 3D shape detector | |
JP6597795B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method and program | |
WO2017138245A1 (en) | Image processing device, object recognition device, device control system, and image processing method and program | |
JP2008186246A (en) | Moving object recognizing device | |
JP6597792B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method and program | |
EP3115966B1 (en) | Object detection device, object detection method, and computer program | |
JP6547841B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method and program | |
JP6617150B2 (en) | Object detection method and object detection apparatus | |
WO2011016257A1 (en) | Distance calculation device for vehicle | |
KR102003387B1 (en) | Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program | |
KR101818842B1 (en) | Driving assistant apparatus, distance detection method and width of lane detection method | |
KR101276073B1 (en) | System and method for detecting distance between forward vehicle using image in navigation for vehicle | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP2021064154A (en) | Obstacle identification apparatus and obstacle identification program | |
JP2008040965A (en) | Road surface estimation device | |
CN116529758A (en) | Image and/or image point correction method, camera-based system and vehicle | |
KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
JP2014067320A (en) | Stereo camera device | |
KR101982091B1 (en) | Surround view monitoring system | |
KR101042171B1 (en) | Method and apparatus for controlling vergence of intersting objects in the steroscopic camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
N231 | Notification of change of applicant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200102 Year of fee payment: 4 |