KR20190049147A - Lane departure detecting device and controlling method thereof - Google Patents

Lane departure detecting device and controlling method thereof Download PDF

Info

Publication number
KR20190049147A
KR20190049147A KR1020170144687A KR20170144687A KR20190049147A KR 20190049147 A KR20190049147 A KR 20190049147A KR 1020170144687 A KR1020170144687 A KR 1020170144687A KR 20170144687 A KR20170144687 A KR 20170144687A KR 20190049147 A KR20190049147 A KR 20190049147A
Authority
KR
South Korea
Prior art keywords
image
lane departure
value
lane
deformation value
Prior art date
Application number
KR1020170144687A
Other languages
Korean (ko)
Other versions
KR102296205B1 (en
Inventor
정희철
권순
이진희
정우영
정지훈
최민국
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020170144687A priority Critical patent/KR102296205B1/en
Publication of KR20190049147A publication Critical patent/KR20190049147A/en
Application granted granted Critical
Publication of KR102296205B1 publication Critical patent/KR102296205B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

A lane departure detecting device and a control method thereof are disclosed. The control method of the lane departure detecting device comprises the following steps of: receiving an image including a lane; applying a random deformation value to an input image to generate a composite image; and labeling the generated composite image to a departure image when an absolute value of the random deformation value is larger than a predetermined threshold value, and labeling the generated composite image to a normal image when the absolute value of the random deformation value is smaller than the predetermined threshold value.

Description

차선 이탈 감지 장치 및 제어 방법{LANE DEPARTURE DETECTING DEVICE AND CONTROLLING METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a lane departure detection device,

본 개시는 차선 이탈 감지 장치 및 제어 방법에 관한 것으로, 더욱 상세하게는 학습데이터를 자동으로 레이블링하는 차선 이탈 감지 장치 및 제어 방법에 관한 것이다.The present disclosure relates to a lane departure detection apparatus and a control method, and more particularly, to a lane departure detection apparatus and a control method for automatically labeling learning data.

촬영된 이미지로부터 객체를 인식하는 기술에 대한 연구가 진행되고 있다. 객체를 인식하는 기술은 보안 장치, 자동차 안전 장치 등에 널리 사용되고 있다. 예전에는 개발자가 객체를 인식하기 위한 기준을 설정하고 설정된 기준에 맞추어 객체를 인식하고 상황을 판단하는 기술이 널리 사용되었다. 그러나, 개발자가 기준을 설정하는 방식은 예상하지 못하는 이벤트가 발생하는 경우 객체 인식 오류 또는 상황 판단의 오류가 발생하는 문제가 있었다.Research on techniques for recognizing objects from photographed images is underway. Object recognition techniques are widely used in security devices, automobile safety devices, and the like. In the past, technology was widely used by developers to set criteria for recognizing objects, to recognize objects based on established criteria, and to judge the situation. However, there is a problem that a method of setting a standard by a developer causes an error of object recognition error or a situation judgment when an unexpected event occurs.

그러나, 최근 인공지능에 대한 연구가 활발해지면서 미리 수많은 데이터를 이용하여 인공지능을 학습시키고 학습된 인공지능이 객체를 인식하고 상황을 판단하는 기술에 대한 발전이 이루어지고 있다. 학습된 인공지능은 기존 학습 데이터를 이용하여 적절하게 객체를 인식하거나 상황을 판단함으로써 예상하지 못하는 이벤트가 발생하는 경우에도 적절하게 대처할 수 있다. 인공지능이 예상치 못한 이벤트 발생에도 적절하게 대처하도록 학습하기 위해서는 수많은 데이터가 필요하다. 기존에는 개발자가 직접 학습데이터를 레이블링하여 인공지능을 학습시켰다. 그러나, 개발자가 수만장의 학습데이터를 직접 레이블링해야 하기 때문에 많은 시간 및 비용이 발생하는 문제점이 있었다. 따라서, 인공지능을 학습시키기 위한 효율적인 기술에 대한 필요성이 존재한다.However, as researches on artificial intelligence have been actively developed recently, artificial intelligence is learned by using a large amount of data in advance, and artificial intelligence is being developed for recognizing objects and determining the situation. The learned artificial intelligence can appropriately cope with the occurrence of an unexpected event by appropriately recognizing an object or judging a situation using existing learning data. A lot of data is needed to learn AI to cope properly with unexpected events. Traditionally, developers have learned artificial intelligence by labeling their own learning data. However, since the developer has to directly label tens of thousands of pieces of learning data, there has been a problem that a lot of time and cost are incurred. Thus, there is a need for an efficient technique for learning artificial intelligence.

본 개시는 상술한 문제점을 해결하기 위한 것으로, 본 개시의 목적은 영상 데이터에 대해 자동으로 레이블링하는 차선 이탈 감지 장치 및 제어 방법을 제공하는 것이다.DISCLOSURE OF THE INVENTION The present disclosure is intended to solve the above-mentioned problems, and an object of the present disclosure is to provide a lane departure detection apparatus and a control method which automatically label image data.

이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 차선 이탈 감지 장치의 제어 방법은 차선이 포함된 이미지를 입력받는 단계, 상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하는 단계 및 상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링하는 단계를 포함한다.According to an aspect of the present invention, there is provided a control method for a lane departure detection apparatus, comprising: receiving an image including a lane; generating a composite image by applying a random transformation value to the input image; Labeling the generated composite image as an outgoing image if the absolute value of the random deformation value is greater than a preset threshold value and labeling the generated composite image as a normal image if the absolute value of the random deformation value is smaller than the predetermined threshold value .

그리고, 상기 랜덤 변형 값은 회전 변형 값 및 시프트 변형 값 중 적어도 하나일 수 있다.The random deformation value may be at least one of a rotational deformation value and a shift deformation value.

또한, 차선 이탈 감지 장치의 제어 방법은 상기 레이블링된 합성 이미지를 이용하여 신경망을 학습하는 단계를 더 포함할 수 있다.The control method of the lane departure detection apparatus may further include learning the neural network using the labeled composite image.

또한, 상기 신경망을 학습하는 단계는 상기 레이블링된 합성 이미지를 컨벌루션하여 제1 매트릭스 맵을 생성하고, 상기 생성된 제1 매트릭스 맵을 0과 비교하여 큰 값이 리턴된 제2 매트릭스 맵을 생성하며, 상기 생성된 제2 매트릭스 맵을 리사이징(resizing)하여 특성 맵을 생성하고, 상기 생성된 특성 맵을 연결하고, 상기 연결된 특성 맵에 기초하여 상기 레이블링된 합성 이미지의 클래스를 분류할 수 있다.The learning of the neural network may include generating a first matrix map by convoluting the labeled composite image, comparing the generated first matrix map with 0 to generate a second matrix map in which a large value is returned, The generated second matrix map may be resized to generate a property map, the generated property map may be concatenated, and the class of the labeled synthetic image may be classified based on the connected property map.

한편, 상기 클래스는 정상 운행, 좌측 차선 이탈 및 우측 차선 이탈 중 적어도 하나일 수 있다.Meanwhile, the class may be at least one of normal driving, left lane departure and right lane departure.

한편, 차선 이탈 감지 장치의 제어 방법은 차선이 포함된 판단 대상 이미지를 입력받는 단계, 상기 판단 대상 이미지로부터 차선을 감지하는 단계 및 상기 학습된 신경망 및 상기 감지된 차선의 위치에 기초하여 정상 운행, 좌측 차선 이탈 또는 우측 차선 이탈을 판단하는 단계를 더 포함할 수 있다.The control method of the lane departure detection apparatus may include receiving a determination target image including a lane, sensing a lane from the determination target image, and determining a normal operation, a lane departure, and a lane departure based on the learned neural network and the detected lane, A left lane departure or a right lane departure.

이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 차선 이탈 감지 장치는 차선이 포함된 이미지를 입력받는 입력부 및 상기 입력된 이미지를 변형하여 레이블링하는 자동 주석부를 포함하고, 상기 자동 주석부는 상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하고, 상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링한다.According to an embodiment of the present disclosure for achieving the above object, a lane departure detection apparatus includes an input unit for receiving an image including a lane, and an automatic annotation unit for deforming and labeling the input image, Wherein the generating unit generates a composite image by applying a random deformation value to the input image, and labels the generated composite image as an output image if the absolute value of the random deformation value is greater than a preset threshold value, The generated composite image is labeled as a normal image.

이상 설명한 바와 같이, 본 개시의 다양한 실시 예에 따르면, 차선 이탈 감지 장치 및 제어 방법은 영상 데이터에 대해 자동으로 레이블링할 수 있다.As described above, according to various embodiments of the present disclosure, the lane departure detection apparatus and the control method can automatically label the image data.

그리고, 차선 이탈 감지 장치 및 제어 방법은 수분 내로 수만 장의 영상 데이터에 레이블링을 할 수 있다.The lane departure detection apparatus and the control method can label tens of thousands of image data within a few minutes.

또한, 차선 이탈 감지 장치 및 제어 방법은 짧은 시간에 보다 많은 영상 데이터로 인공 지능을 학습시킴으로써 보다 정확한 차선 이탈 여부를 감지할 수 있다.In addition, the lane departure detection apparatus and control method can learn more accurate lane departure by learning artificial intelligence with more image data in a short time.

도 1은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.
도 2는 본 개시의 다른 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 영상 데이터에 레이블링하는 과정을 설명하는 도면이다.
도 4는 본 개시의 일 실시 예에 따른 차선 이탈을 학습시키는 과정을 설명하는 도면이다.
도 5는 본 개시의 일 실시 예에 따른 차선 이탈 네트워크의 결과물을 나타내는 도면이다.
도 6은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치 제어 방법의 흐름도이다.
1 is a block diagram of a lane departure detection apparatus according to an embodiment of the present disclosure;
2 is a block diagram of a lane departure detection apparatus according to another embodiment of the present disclosure;
3 is a view for explaining a process of labeling image data according to an embodiment of the present disclosure.
4 is a diagram for explaining a process of learning lane departure according to an embodiment of the present disclosure.
5 is a diagram illustrating the output of a lane departure network in accordance with one embodiment of the present disclosure;
6 is a flowchart of a method of controlling a lane departure detection apparatus according to an embodiment of the present disclosure.

이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.Various embodiments will now be described in detail with reference to the accompanying drawings. The embodiments described herein can be variously modified. Specific embodiments are described in the drawings and may be described in detail in the detailed description. It should be understood, however, that the specific embodiments disclosed in the accompanying drawings are intended only to facilitate understanding of various embodiments. Accordingly, it is to be understood that the technical idea is not limited by the specific embodiments disclosed in the accompanying drawings, but includes all equivalents or alternatives falling within the spirit and scope of the invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including ordinals, such as first, second, etc., may be used to describe various elements, but such elements are not limited to the above terms. The above terms are used only for the purpose of distinguishing one component from another.

본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In this specification, the terms " comprises " or " having ", and the like, are intended to specify the presence of stated features, integers, steps, operations, elements, parts, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 프로세서에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the meantime, " module " or " part " for components used in the present specification performs at least one function or operation. Also, " module " or " part " may perform functions or operations by hardware, software, or a combination of hardware and software. Also, a plurality of " modules " or a plurality of " parts ", other than a " module " or " part ", to be performed in a specific hardware or performed in at least one processor may be integrated into at least one module. The singular expressions include plural expressions unless the context clearly dictates otherwise.

그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다.In addition, in the description of the present invention, when it is judged that the detailed description of known functions or constructions related thereto may unnecessarily obscure the gist of the present invention, the detailed description thereof will be abbreviated or omitted.

도 1은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.1 is a block diagram of a lane departure detection apparatus according to an embodiment of the present disclosure;

도 1을 참조하면, 차선 이탈 감지 장치(100)는 제1 입력부(110) 및 자동 주석부(auto annotator)(120)를 포함한다. 제1 입력부(110)는 차선이 포함된 이미지를 입력받는다. 차선이 포함된 이미지는 차선이 이탈되지 않은 정상 이미지일 수 있다. 예를 들어, 제1 입력부(110)는 통신 인터페이스로 연결된 통신 모듈, 입력 인터페이스로 연결된 입력 단자 등을 포함할 수 있다. 즉, 제1 입력부(110)가 통신 모듈로 구현되는 경우, 차선 이탈 감지 장치(100)는 유무선 통신 방식을 이용하여 차선이 포함된 이미지를 입력받을 수 있다. 또는, 제1 입력부(110)가 입력 단자로 구현되는 경우, 차선 이탈 감지 장치(100)는 내외부 저장 장치로부터 차선이 포함된 이미지를 입력받을 수 있다.Referring to FIG. 1, the lane departure detection apparatus 100 includes a first input unit 110 and an auto annotator 120. The first input unit 110 receives an image including a lane. An image containing a lane may be a normal image without lane departure. For example, the first input unit 110 may include a communication module connected to the communication interface, an input terminal connected to the input interface, and the like. That is, when the first input unit 110 is implemented as a communication module, the lane departure detection apparatus 100 can receive an image including a lane using a wire / wireless communication method. Alternatively, when the first input unit 110 is implemented as an input terminal, the lane departure detection apparatus 100 may receive an image including the lane from the internal and external storage devices.

자동 주석부(120)는 제1 입력부(110)를 통해 입력된 차선이 포함된 이미지를 전달받는다. 자동 주석부(120)는 임의의(random) 변형 값을 생성한 후 입력된 이미지에 임의의 변형 값을 적용하여 합성 이미지를 생성한다. 예를 들어, 임의의 변형 값은 회전 변형 값 및 시프트 변형 값 중 적어도 하나의 값을 포함할 수 있다. 일 실시 예로서, 자동 주석부(120)는 입력된 이미지에 임의의 회전 변형 값을 적용할 수 있다. 자동 주석부(120)가 입력된 이미지에 임의의 회전 변형 값을 적용하는 경우, 입력된 이미지는 좌측 또는 우측으로 회전 변형 값만큼 회전한 이미지로 변형된다. 즉, 자동 주석부(120)는 입력된 이미지로부터 임의의 회전 변형 값이 적용된 합성 이미지를 생성할 수 있다. 또는, 자동 주석부(120)는 입력된 이미지에 임의의 시프트 변형 값을 적용할 수 있다. 자동 주석부(120)가 입력된 이미지에 임의의 시프트 변형 값을 적용하는 경우, 입력된 이미지는 좌측 또는 우측으로 시프트 변형 값만큼 이동한 이미지로 변형된다. 즉, 자동 주석부(120)는 입력된 이미지로부터 임의의 시프트 변형 값이 적용된 합성 이미지를 생성할 수 있다. 자동 주석부(120)는 임의의 회전 변형 값 및 임의의 시프트 변형 값이 함께 적용된 합성 이미지를 생성할 수도 있다.The automatic annotation unit 120 receives the image including the lane inputted through the first input unit 110. [ The automatic annotation unit 120 generates a random deformation value and then applies an arbitrary deformation value to the input image to generate a composite image. For example, an arbitrary deformation value may include at least one of a rotational deformation value and a shift deformation value. In one embodiment, the automatic annotation unit 120 may apply an arbitrary rotational deformation value to the input image. When the automatic annotation unit 120 applies an arbitrary rotation deformation value to the input image, the input image is transformed into an image rotated by the rotational deformation value to the left or right. That is, the automatic annotation unit 120 can generate a composite image to which an arbitrary rotational deformation value is applied from the input image. Alternatively, the automatic annotation unit 120 may apply an arbitrary shift deformation value to the input image. When the automatic annotation section 120 applies an arbitrary shift deformation value to the input image, the input image is transformed to the image shifted by the shift deformation value to the left or right. That is, the automatic annotation unit 120 can generate a composite image to which an arbitrary shift deformation value is applied from the input image. The automatic annotation unit 120 may generate a composite image in which a certain rotational deformation value and an arbitrary shift deformation value are applied together.

자동 주석부(120)는 입력된 이미지에 대해 각각 다른 임의의 변형 값을 적용하여 합성 이미지를 생성할 수 있다. 따라서, 자동 주석부(120)는 하나의 입력 이미지에 대해 서로 다른 임의의 변형 값이 적용된 복수 개의 합성 이미지를 생성할 수도 있다.The automatic annotation unit 120 can generate a composite image by applying a different arbitrary deformation value to the input image. Accordingly, the automatic annotation unit 120 may generate a plurality of composite images having different arbitrary deformation values applied to one input image.

자동 주석부(120)는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교한다. 예를 들어, 기 설정된 임계값은 절대적인 값 또는 입력된 이미지에 따른 상대적인 값으로 설정될 수 있다. 일 실시 예로서, 입력된 이미지의 스케일 또는 차선 폭이 일정한 경우, 기 설정된 임계값은 20도 또는 2cm와 같이 절대적인 값으로 설정될 수 있다. 입력된 이미지의 스케일 또는 차선 폭이 다양한 경우, 기 설정된 임계값은 입력된 이미지의 차선 폭의 20%와 같이 상대적인 값으로 설정될 수도 있다. 기 설정된 임계값이 입력된 이미지에 따라 상대적인 값으로 설정되는 경우, 자동 주석부(120)는 다양한 스케일 또는 다양한 차선 폭을 포함하는 이미지에 대해서도 정상 이미지 또는 차선 이탈 이미지로 레이블링(labeling)할 수 있다.The automatic annotation unit 120 compares the absolute value of an arbitrary deformation value with a predetermined threshold value. For example, the predetermined threshold may be set to an absolute value or a relative value according to the input image. In one embodiment, when the scale or the lane width of the input image is constant, the predetermined threshold may be set to an absolute value such as 20 degrees or 2 cm. If the scale or lane width of the input image is varied, the predetermined threshold value may be set to a relative value such as 20% of the lane width of the input image. When the predetermined threshold value is set to a relative value according to the input image, the automatic annotation unit 120 can label the image including various scales or various lane widths with a normal image or a lane-free image .

자동 주석부(120)는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교하여 임의의 변형 값이 기 설정된 임계값보다 큰 경우 생성된 합성 이미지를 차선 이탈 이미지로 레이블링한다. 그리고, 자동 주석부(120)는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교하여 임의의 변형 값이 기 설정된 임계값보다 작은 경우 생성된 합성 이미지를 정상 이미지로 레이블링한다. 즉, 자동 주석부(120)는 가상으로 차선이 이탈된 이미지를 생성하여 차선 이탈 이미지로 레이블링할 수 있다.The automatic annotation unit 120 compares the absolute value of an arbitrary deformation value with a preset threshold value, and labels the generated composite image as a lane departure image when any deformation value is larger than a preset threshold value. Then, the automatic annotation unit 120 compares the absolute value of an arbitrary deformation value with a preset threshold value, and labels the generated composite image as a normal image when any deformation value is smaller than a predetermined threshold value. That is, the automatic annotation unit 120 may generate an image in which the lane is virtually deviated and label it as a lane departure image.

상술한 바와 같이, 자동 주석부(120)는 하나의 입력 이미지에 대해 서로 다른 임의의 변형 값을 적용하여 복수의 합성 이미지를 생성할 수 있다. 그리고, 자동 주석부(120)는 복수의 합성 이미지에 대해 복수의 레이블링 이미지를 생성할 수 있다. 따라서, 기존 기술은 하나의 입력 이미지에 대해 하나의 레이블링 이미지만을 생성할 수 있었지만, 본 개시에 따른 차선 이탈 감지 장치(100)는 하나의 입력 이미지에 대해 복수 개의 레이블링 이미지를 생성할 수도 있다.As described above, the automatic annotation unit 120 can generate a plurality of composite images by applying different arbitrary deformation values to one input image. Then, the automatic annotation unit 120 can generate a plurality of labeling images for a plurality of composite images. Accordingly, although the existing technique can generate only one labeling image for one input image, the lane departure detection apparatus 100 according to the present disclosure may generate a plurality of labeling images for one input image.

또한, 자동 주석부(120)는 복수의 이미지를 입력받아 복수의 레이블링 이미지를 생성할 수도 있다. 한편, 차선 이탈 감지 장치(100)는 추가적인 구성을 더 포함할 수도 있다.Also, the automatic annotation unit 120 may receive a plurality of images and generate a plurality of labeled images. On the other hand, the lane departure detection apparatus 100 may further include an additional configuration.

도 2는 본 개시의 다른 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.2 is a block diagram of a lane departure detection apparatus according to another embodiment of the present disclosure;

도 2를 참조하면, 차선 이탈 감지 장치(100a)는 제1 입력부(110), 자동 주석부(120), CNN(Convolution Neural Network)(130), 제2 입력부(140) 및 출력부(150)를 포함할 수 있다. 제1 입력부(110) 및 자동 주석부(120)는 도 1과 동일하므로 설명을 생략한다. 2, the lane departure detection apparatus 100a includes a first input unit 110, an automatic annotation unit 120, a CNN (Convolution Neural Network) 130, a second input unit 140, and an output unit 150, . ≪ / RTI > The first input unit 110 and the automatic annotation unit 120 are the same as those shown in FIG.

CNN(130)은 레이블링된 합성 이미지를 이용하여 차선 이탈에 대해 학습한다. CNN(130)이 차선 이탈에 대해 학습하는 구체적인 과정은 후술한다. CNN(130)이 합성 이미지를 이용하여 차선 이탈에 대해 학습을 완료하면, 차선 이탈 감지 장치(100a)는 실제 이미지를 입력받아 차선 이탈 여부를 감지할 수 있다.CNN 130 learns about lane departure using the labeled composite image. The specific process by which the CNN 130 learns about lane departure will be described later. When the CNN 130 completes the learning of the lane departure using the composite image, the lane departure detection apparatus 100a can receive the actual image and sense the lane departure.

제2 입력부(140)는 차선이 포함된 판단 대상 이미지를 입력받을 수 있다. 예를 들어, 제2 입력부(140)는 제1 입력부(110)와 유사하게 통신 인터페이스로 연결된 통신 모듈, 입력 인터페이스로 연결된 입력 단자 등을 포함할 수 있다. 즉, 제1 입력부(110)가 통신 모듈로 구현되는 경우, 차선 이탈 감지 장치(100a)는 유무선 통신 방식을 이용하여 차선이 포함된 판단 대상 이미지를 입력받을 수 있다. 또는, 제1 입력부(110)가 입력 단자로 구현되는 경우, 차선 이탈 감지 장치(100a)는 내외부 저장 장치로부터 차선이 포함된 판단 대상 이미지를 입력받을 수 있다. 또한, 제2 입력부(140)는 카메라를 포함할 수 있다. 즉, 제2 입력부(140)가 카메라로 구현되는 경우, 차선 이탈 감지 장치(100a)는 카메라에서 촬영된 차선을 포함하는 실제 운행 이미지를 입력받을 수 있다. 제2 입력부(140)가 카메라로 구현되는 경우, 차선을 포함하는 실제 운행 이미지가 판단 대상 이미지일 수 있다.The second input unit 140 may receive a determination target image including a lane. For example, the second input unit 140 may include a communication module connected to the first input unit 110 through a communication interface, an input terminal connected to the input interface, and the like. That is, when the first input unit 110 is implemented as a communication module, the lane departure detection apparatus 100a can receive the determination target image including the lane using the wire / wireless communication method. Alternatively, when the first input unit 110 is implemented as an input terminal, the lane departure detection apparatus 100a may receive the determination target image including the lane from the internal and external storage devices. Also, the second input unit 140 may include a camera. That is, when the second input unit 140 is implemented by a camera, the lane departure detection apparatus 100a may receive an actual driving image including a lane photographed by the camera. When the second input unit 140 is implemented by a camera, the actual driving image including the lane may be the determination target image.

CNN(130)은 판단 대상 이미지로부터 차선을 감지할 수 있다. 그리고, CNN(130)은 감지된 차선 및 학습된 차선 이탈 데이터를 기초로 차선 이탈 여부를 판단할 수 있다. 즉, CNN(130)은 판단 대상 이미지로부터 정상 운행, 좌측 차선 이탈 또는 우측 차선 이탈 여부를 판단할 수 있다.The CNN 130 may sense the lane from the determination target image. Then, the CNN 130 can determine whether or not the lane departure is based on the sensed lane and the learned lane departure data. That is, the CNN 130 can judge whether the normal operation, the left lane departure, or the right lane departure from the determination target image.

출력부(150)는 차선 이탈 감지 결과에 기초하여 차선 이탈 경고를 출력할 수 있다. 예를 들어, 출력부(150)는 부저, 스피커, 모터, 햅틱 모듈, LED, 디스플레이 등을 포함할 수 있다. 출력부(150)가 부저로 구현되는 경우, 출력부(150)는 다양한 형태의 경고음을 출력할 수 있다. 출력부(150)가 스피커로 구현되는 경우, 출력부(150)는 좌측 차선 이탈 또는 우측 차선 이탈이라는 음성을 출력할 수 있다. 출력부(150)가 모터 또는 햅틱 모듈로 구현되는 경우, 출력부(150)는 다양한 패턴의 진동을 출력할 수 있다. 출력부(150)가 LED로 구현되는 경우, 출력부(150)는 다양한 패턴의 광을 출력할 수 있다. 출력부(150)가 디스플레이로 구현되는 경우, 출력부(150)는 좌측 차선 이탈 또는 우측 차선 이탈이라는 메시지 등을 디스플레이할 수 있다. 출력부(150)는 하나의 유닛으로 구현될 수도 있고, 복수의 유닛으로 구현될 수도 있다. 예를 들어, 출력부(150)는 부저, 모터 및 LED로 구현되는 경우, 출력부(150)는 경고음, 진동 및 광을 동시에 출력할 수도 있다.The output unit 150 may output the lane departure warning based on the lane departure detection result. For example, the output 150 may include a buzzer, a speaker, a motor, a haptic module, an LED, a display, and the like. When the output unit 150 is implemented as a buzzer, the output unit 150 may output various types of warning sounds. When the output unit 150 is implemented as a speaker, the output unit 150 can output the left lane departure or the right lane departure voice. When the output unit 150 is implemented as a motor or a haptic module, the output unit 150 can output vibrations of various patterns. When the output unit 150 is implemented by an LED, the output unit 150 may output light of various patterns. When the output unit 150 is implemented as a display, the output unit 150 may display a message such as a left lane departure or a right lane departure. The output unit 150 may be implemented as one unit or as a plurality of units. For example, when the output unit 150 is implemented with a buzzer, a motor, and an LED, the output unit 150 may output a warning sound, vibration, and light at the same time.

한편, CNN(130)은 단순히 좌측 차선 이탈 또는 우측 차선 이탈 여부만을 판단하는 것이 아니라 이탈 정도를 판단할 수도 있다. 일 실시 예로서, CNN(130)은 좌측 차선 이탈 정도가 10%, 20%, 30%라는 것을 판단할 수 있다. CNN(130)이 차선 이탈 정도를 판단하는 경우, 출력부(150)는 이탈 정도에 대응하는 기 설정된 형태의 경고음, 진동 패턴, 광 패턴, 기 설정된 주기의 음성 출력 또는 기 설정된 주기로 디스플레이하는 메시지를 출력할 수도 있다.On the other hand, the CNN 130 may determine not only the left lane departure or the right lane departure. In one embodiment, the CNN 130 may determine that the left lane departure is 10%, 20%, or 30%. When the CNN 130 determines the degree of departure of the lane, the output unit 150 outputs a predetermined type of warning sound, vibration pattern, light pattern, voice output of a predetermined period, Output.

상술한 바와 같이, 차선 이탈 감지 장치(100a)는 제1 입력부(110), 자동 주석부(120), CNN(130), 제2 입력부(140) 및 출력부(150)를 포함할 수 있다. 한편, 차선 이탈 감지 장치(100a)는 학습 장치(100a-1)와 응용 장치(100a-2)가 별개의 장치로 구현될 수도 있다. 즉, 차선 이탈 감지 장치(100a) 중 학습 장치(100a-1)는 제1 입력부(110)와 자동 주석부(120)만을 포함하여 레이블링 이미지를 생성하여 CNN(130)을 학습시킬 수 있다. 그리고, 응용 장치(100a-2)는 CNN(130), 제2 입력부(140) 및 출력부(150)를 포함하여 차선 이탈에 대해 학습된 CNN(130)을 이용하여 차선 이탈 여부를 판단할 수 있다.As described above, the lane departure detection apparatus 100a may include a first input unit 110, an automatic annotation unit 120, a CNN 130, a second input unit 140, and an output unit 150. On the other hand, the lane departure detection apparatus 100a may be implemented as a separate apparatus from the learning apparatus 100a-1 and the application apparatus 100a-2. That is, the learning apparatus 100a-1 of the lane departure detection apparatus 100a may include only the first input unit 110 and the automatic annotation unit 120 to generate the labeling image and learn the CNN 130. [ The application apparatus 100a-2 may determine whether or not the lane departure is possible by using the learned CNN 130 including the CNN 130, the second input unit 140, and the output unit 150 have.

도 3은 본 개시의 일 실시 예에 따른 영상 데이터에 레이블링하는 과정을 설명하는 도면이다.3 is a view for explaining a process of labeling image data according to an embodiment of the present disclosure.

도 3을 참조하면 자동 주석부의 구조가 도시되어 있다. 먼저, 자동 주석부는 입력부를 통해 영상 이미지를 전달받는다(S11). 영상 이미지는 차선을 이탈하지 않은 정상 이미지이고, 1 프레임의 영상 이미지일 수 있다. 자동 주석부는 임의의 변형 값을 사용하여 합성 이미지를 생성할 수 있다(S12). 예를 들어, 임의의 변형 값은 임의의 회전 변형 값 또는 임의의 시프트 변형 값일 수 있다. 자동 주석부는 1개의 영상 이미지로부터 다양한 임의의 변형 값을 적용하여 복수 개의 합성 이미지를 생성할 수 있다.Referring to FIG. 3, the structure of the automatic annotation portion is shown. First, the automatic annotation unit receives the image through the input unit (S11). The video image is a normal image that does not deviate from the lane, and may be a video image of one frame. The automatic annotation unit may generate a composite image using an arbitrary deformation value (S12). For example, any deformation value may be any rotational deformation value or any shift deformation value. The automatic annotation unit can generate a plurality of composite images by applying various arbitrary deformation values from one video image.

자동 주석부는 생성된 각각의 합성 이미지에 대해 임의의 변형 값의 절대값과 기 설정된 임계값을 비교할 수 있다(S13). 예를 들어, 기 설정된 임계값은 회전 임계값일 수 있고, 시프트 임계값일 수 있다. 자동 주석부는 임의의 변형 값이 임의의 회전 변형 값인 경우 회전 임계값과 비교하고, 임의의 변형 값이 임의의 시프트 변형 값인 경우 시프트 임계값과 비교할 수 있다.The automatic annotation unit may compare an absolute value of an arbitrary deformation value with a predetermined threshold value for each of the generated composite images (S13). For example, the predetermined threshold value may be a rotation threshold value, and may be a shift threshold value. The automatic annotation section compares the rotation threshold value with any rotation deformation value when any deformation value is any rotation deformation value, and compares it with the shift threshold value when any deformation value is any shift deformation value.

자동 주석부는 임의의 변형 값의 절대값과 기 설정된 임계값을 비교하여 임의의 변형 값의 절대값이 기 설정된 임계값보다 작은 경우 정상 이미지로 레이블링할 수 있다(S14-1). 그리고, 자동 주석부는 임의의 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 이탈 이미지로 레이블링할 수 있다(S14-2). 도 3에는 임의의 변형 값이 기 설정된 임계값과 같은 경우는 도시되지 않았다. 그러나, 임의의 변형 값이 기 설정된 임계값과 같은 경우 정상 이미지 또는 이탈 이미지 중 하나의 이미지로 레이블링하도록 자동 주석부가 설정될 수 있다.The automatic annotation unit compares the absolute value of an arbitrary deformation value with a predetermined threshold value, and can label the normal image if the absolute value of an arbitrary deformation value is smaller than a predetermined threshold value (S14-1). Then, the automatic annotation section can label the image as an escape image when the absolute value of an arbitrary deformation value is larger than a preset threshold value (S14-2). It is not shown in FIG. 3 when a certain distortion value is equal to a predetermined threshold value. However, if the arbitrary deformation value is equal to the predetermined threshold value, the automatic annotation section may be set to label the image with one of the normal image or the escape image.

상술한 바와 같이, 차선 이탈 감지 장치는 하나의 영상 이미지로부터 복수의 레이블링 이미지를 자동으로 생성할 수 있으므로 CNN 학습을 위한 레이블링 이미지를 용이하고 빠르게 생성할 수 있다. 차선 이탈 감지 장치는 생성된 레이블링 이미지를 이용하여 딥뉴럴 네트워크를 학습시킬 수 있다.As described above, since the lane departure detection apparatus can automatically generate a plurality of labeling images from a single image, a labeling image for CNN learning can be generated easily and quickly. The lane departure detection apparatus can learn the deep neural network using the generated labeling image.

도 4는 본 개시의 일 실시 예에 따른 차선 이탈을 학습시키는 과정을 설명하는 도면이다.4 is a diagram for explaining a process of learning lane departure according to an embodiment of the present disclosure.

도 4를 참조하면, CNN(22)의 구조가 도시되어 있다. 도 4에서는 컨벌루션 레이어, ReLU(Rectified Linear Unit) 레이어 및 풀링 레이어를 각각 3개씩 포함하는 CNN(22)이 도시되어 있으나, 각 레이어의 개수는 다양하게 설정할 수 있다. CNN(22)은 레이블링 이미지(21)를 입력받을 수 있다. 예를 들어, 레이블링 이미지는 360×120 사이즈일 수 있고, RGB 데이터를 포함하는 컬러 이미지일 수 있다. 그리고, CNN(22)에 입력되는 레이블링 이미지는 CNN(22)에 입력되기 전 전체 학습 영상의 평균을 감산한 이미지일 수 있다.Referring to FIG. 4, the structure of the CNN 22 is shown. In FIG. 4, CNNs 22 each including three convolution layers, a ReLU (Rectified Linear Unit) layer, and a pulling layer are shown, but the number of layers can be variously set. The CNN 22 can receive the labeling image 21. For example, the labeled image may be a 360 x 120 size and may be a color image containing RGB data. The labeling image input to the CNN 22 may be an image obtained by subtracting the average of all training images before being input to the CNN 22.

CNN(22)에 입력된 레이블링 이미지는 제1 컨벌류션 레이어에서 기 설정된 필터에 의해 제1 매트릭스 맵으로 생성될 수 있다. 생성된 제1 매트릭스 맵은 활성화 함수(activation function)로서 ReLU를 사용하는 제1 ReLU 레이어로 전달된다. 활성화 함수는 인간의 시냅스에 전달된 활동전위 신호가 최소의 자극값을 초과할 때 활성화되어 다음 뉴런으로 전달되는 과정을 구현한 함수를 의미한다. 즉, ReLU 레이어는 생성된 제1 매트릭스 맵을 0과 비교하여 큰 값이 리턴된 제2 매트릭스 맵을 생성한다.The labeling image input to the CNN 22 may be generated as a first matrix map by a predetermined filter in the first convolution layer. The generated first matrix map is passed to a first ReLU layer using ReLU as an activation function. The activation function is a function that is activated when the action potential signal transmitted to the human synapse exceeds the minimum stimulus value and is transmitted to the next neuron. That is, the ReLU layer compares the generated first matrix map with 0 to generate a second matrix map in which a large value is returned.

제1 ReLU 레이어에서 처리된 제2 매트릭스 맵은 제1 풀링 레이어로 전달된다. 일 실시 예로서, 풀링 레이어는 평균 풀링(average pooling)을 수행할 수 있다. 풀링 레이어는 이미지의 크기를 줄이는 역할을 수행하며, 평균 풀링은 풀링 윈도우(pooling window) 내에 있는 픽셀들의 평균을 취하는 방식을 의미한다. 제1 풀링 레이어에서 처리된 맵(또는 이미지)은 최초 이미지에 비해 절반의 크기로 리사이징될 수 있다. 따라서, 도 4에 도시된 CNN(22)에서 처리된 이미지는 45×15 사이즈의 특성 맵(feature map)으로 출력될 수 있다.The second matrix map processed in the first ReLU layer is transferred to the first pooling layer. In one embodiment, the pooling layer may perform average pooling. The pooling layer serves to reduce the size of the image, and the average pooling means a method of taking an average of the pixels within the pooling window. The map (or image) processed in the first pooling layer can be resized to half the size of the original image. Therefore, the image processed in the CNN 22 shown in Fig. 4 can be output as a feature map of 45 x 15 size.

도 4에 도시된 CNN(22)은 2개의 FC(Fully connected layer)를 포함하며, 각각 1024개의 노드를 가질 수 있다. 상술한 FC 개수 및 노드 개수는 일 실시 예이며, 구현 방식에 따라 CNN(22)은 다양한 개수의 FC 및 노드 개수를 포함할 수 있다. FC는 특성 맵의 특성들을 연결하고 특성들이 연결된 특성 맵은 소프트맥스의 확률 처리 과정을 거쳐 세 개의 클래스 중 하나로 분류될 수 있다. 예를 들어, 세 개의 클래스는 정상 운행, 좌측 차선 이탈 및 우측 차선 이탈을 포함할 수 있다.The CNN 22 shown in FIG. 4 includes two FCs (Fully connected layers), each of which can have 1024 nodes. The number of FCs and the number of nodes described above are one embodiment, and the CNN 22 may include various numbers of FCs and nodes depending on the implementation. FC can connect the characteristics of the characteristic map and the characteristic map to which the characteristics are connected can be classified into one of three classes through the process of probability of soft max. For example, the three classes may include normal driving, left lane departure, and right lane departure.

도 4에서는 세 개의 클래스로 차선 이탈 여부를 분류하는 실시 예를 설명하였으나, 구현 방법에 따라 CNN(22)은 좌측 10% 차선 이탈, 좌측 20% 차선 이탈, 좌측 30% 차선 이탈, 우측 10% 차선 이탈, 우측 20% 차선 이탈 및 우측 30% 차선 이탈의 클래스로 차선 이탈 여부를 분류할 수도 있다.In the embodiment shown in FIG. 4, three classes of lane departure are classified according to the implementation method. However, according to the implementation method, the CNN 22 is classified into the left 10% lane departure, left 20% lane departure, left 30% lane departure, Departure, right 20% lane departure and right 30% lane departure.

도 5는 본 개시의 일 실시 예에 따른 차선 이탈 네트워크의 결과물을 나타내는 도면이다.5 is a diagram illustrating the output of a lane departure network in accordance with one embodiment of the present disclosure;

도 5를 참조하면, CNN에서 판단된 다양한 이미지가 도시되어 있다. 도 5에 도시된 바와 같이, CNN은 학습 과정을 통해 좌측 차선 이탈, 우측 차선 이탈 및 정상 운행의 클래스로 이미지를 분류할 수 있다.Referring to FIG. 5, various images determined by CNN are shown. As shown in FIG. 5, the CNN can classify images into classes of left lane departure, right lane departure, and normal operation through a learning process.

지금까지 차선 이탈 감지 장치의 다양한 실시 예를 설명하였다. 아래에서는 차선 이탈 감지 장치 제어 방법의 흐름도를 설명한다.Various embodiments of the lane departure detection apparatus have been described so far. A flowchart of the lane departure detection device control method will be described below.

도 6은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치 제어 방법의 흐름도이다.6 is a flowchart of a method of controlling a lane departure detection apparatus according to an embodiment of the present disclosure.

도 6을 참조하면, 차선 이탈 감지 장치는 차선이 포함된 이미지를 입력받는다(S610). 예를 들어, 차선이 포함된 이미지는 차선이 이탈되지 않은 정상 운행 이미지일 수 있다. 차선 이탈 감지 장치는 입력된 이미지에 임의의 변형 값을 적용하여 합성 이미지를 생성한다(S620). 임의의 변형 값은 입력된 이미지를 회전시키는 회전 변형 값 또는 좌우로 시프트시키는 시프트 변형 값일 수 있다. 차선 이탈 감지 장치는 하나의 입력 이미지에 다양한 임의의 변형 값을 적용하여 복수의 합성 이미지를 생성할 수 있다.Referring to FIG. 6, the lane departure detection apparatus receives an image including a lane (S610). For example, an image containing a lane may be a normal driving image without lane departure. The lane departure detection apparatus generates a composite image by applying an arbitrary deformation value to the input image (S620). The arbitrary deformation value may be a rotational deformation value for rotating the input image or a shift deformation value for shifting to the right or left. The lane departure detection apparatus can generate a plurality of composite images by applying various arbitrary deformation values to one input image.

차선 이탈 감지 장치는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교한다(S630). 기 설정된 임계값은 기 설정된 임계값은 회전 임계값일 수 있고, 시프트 임계값일 수 있다.The lane departure detection apparatus compares the absolute value of an arbitrary deformation value with a preset threshold value (S630). The predetermined threshold value may be a predetermined threshold value and may be a rotation threshold value, and may be a shift threshold value.

차선 이탈 감지 장치는 임의의 변형 값의 절대값이 기 설정된 임계값보다 작은 경우 정상 이미지로 레이블링한다(S640). 차선 이탈 감지 장치는 임의의 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 이탈 이미지로 레이블링한다(S650). 차선 이탈 감지 장치는 레이블링 이미지를 이용하여 CNN을 학습시킬 수 있다.The lane departure detection apparatus labels a normal image if the absolute value of an arbitrary deformation value is smaller than a preset threshold (S640). If the absolute value of any deformation value is greater than a preset threshold value, the lane departure detection apparatus labels the image as an escape image (S650). The lane departure detection device can learn CNN using the labeling image.

상술한 다양한 실시 예에 따른 ~ 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.The method according to the various embodiments described above may also be provided as a computer program product. The computer program product may include a software program itself or a non-transitory computer readable medium in which the software program is stored.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

100, 100a: 차선 이탈 감지 장치 110: 제1 입력부
120: 자동 주석부 130: CNN
140: 제2 입력부 150: 출력부
100, 100a: lane departure detection device 110: first input section
120: Automatic comment unit 130: CNN
140: second input unit 150: output unit

Claims (7)

차선이 포함된 이미지를 입력받는 단계;
상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하는 단계; 및
상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링하는 단계;를 포함하는 차선 이탈 감지 장치의 제어 방법.
Receiving an image including a lane;
Generating a composite image by applying a random deformation value to the input image; And
And labeling the generated composite image as an escape image if the absolute value of the random deformation value is greater than a predetermined threshold value and labeling the generated composite image as a normal image if the absolute value is smaller than the predetermined threshold value Of the lane departure detection device.
제1항에 있어서,
상기 랜덤 변형 값은,
회전 변형 값 및 시프트 변형 값 중 적어도 하나인 차선 이탈 감지 장치의 제어 방법.
The method according to claim 1,
The random deformation value may be determined by:
A rotational deformation value, and a shift deformation value.
제1항에 있어서,
상기 레이블링된 합성 이미지를 이용하여 신경망을 학습하는 단계;를 더 포함하는 차선 이탈 감지 장치의 제어 방법.
The method according to claim 1,
And learning the neural network using the labeled composite image.
제3항에 있어서,
상기 신경망을 학습하는 단계는,
상기 레이블링된 합성 이미지를 컨벌루션하여 제1 매트릭스 맵을 생성하고, 상기 생성된 제1 매트릭스 맵을 0과 비교하여 큰 값이 리턴된 제2 매트릭스 맵을 생성하며, 상기 생성된 제2 매트릭스 맵을 리사이징(resizing)하여 특성 맵을 생성하고, 상기 생성된 특성 맵을 연결하고, 상기 연결된 특성 맵에 기초하여 상기 레이블링된 합성 이미지의 클래스를 분류하는 차선 이탈 감지 장치의 제어 방법.
The method of claim 3,
Wherein learning the neural network comprises:
Generating a first matrix map by convoluting the labeled composite image, generating a second matrix map in which a large value is returned by comparing the generated first matrix map with 0, and generating the second matrix map by resizing generating a characteristic map by linking the generated characteristic map, and classifying the class of the labeled synthetic image based on the connected characteristic map.
제4항에 있어서,
상기 클래스는,
정상 운행, 좌측 차선 이탈 및 우측 차선 이탈 중 적어도 하나인 차선 이탈 감지 장치의 제어 방법.
5. The method of claim 4,
The class comprises:
A left lane departure, and a right lane departure of the lane departure detection apparatus.
제5항에 있어서,
차선이 포함된 판단 대상 이미지를 입력받는 단계;
상기 판단 대상 이미지로부터 차선을 감지하는 단계; 및
상기 학습된 신경망 및 상기 감지된 차선의 위치에 기초하여 정상 운행, 좌측 차선 이탈 또는 우측 차선 이탈을 판단하는 단계;를 더 포함하는 차선 이탈 감지 장치의 제어 방법.
6. The method of claim 5,
Receiving a determination target image including a lane;
Detecting a lane from the image to be judged; And
Determining a normal driving, a left lane departure, or a right lane departure based on the learned neural network and the position of the sensed lane.
차선이 포함된 이미지를 입력받는 입력부; 및
상기 입력된 이미지를 변형하여 레이블링하는 자동 주석부;를 포함하고,
상기 자동 주석부는,
상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하고, 상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링하는 차선 이탈 감지 장치.
An input unit for receiving an image including a lane; And
And an automatic annotation unit for deforming and labeling the input image,
Wherein the automatic annotation unit comprises:
And generating a composite image by applying a random deformation value to the input image, and if the absolute value of the random deformation value is greater than a preset threshold value, labeling the generated composite image as an outgoing image, And if it is small, labels the generated composite image as a normal image.
KR1020170144687A 2017-11-01 2017-11-01 Lane departure detecting device and controlling method thereof KR102296205B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170144687A KR102296205B1 (en) 2017-11-01 2017-11-01 Lane departure detecting device and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170144687A KR102296205B1 (en) 2017-11-01 2017-11-01 Lane departure detecting device and controlling method thereof

Publications (2)

Publication Number Publication Date
KR20190049147A true KR20190049147A (en) 2019-05-09
KR102296205B1 KR102296205B1 (en) 2021-09-01

Family

ID=66545670

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170144687A KR102296205B1 (en) 2017-11-01 2017-11-01 Lane departure detecting device and controlling method thereof

Country Status (1)

Country Link
KR (1) KR102296205B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300573A (en) * 2001-03-30 2002-10-11 Toshiba Corp Video diagnostic system on-board of video monitor
JP2002318130A (en) * 2001-02-13 2002-10-31 Alpine Electronics Inc Traveling lane detecting device and navigation apparatus
KR100633297B1 (en) * 2005-07-04 2006-10-13 현대자동차주식회사 Lane data save and display method of black box system using data of lane off course warning device
JP2012527681A (en) * 2009-05-19 2012-11-08 イメージネクスト シーオー エルティディ Lane departure detection method and apparatus using vehicle periphery image
KR20140074476A (en) * 2012-12-10 2014-06-18 민정곤 System and method for detecting traffic lane in real time, navigation and black-box for vechicle using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318130A (en) * 2001-02-13 2002-10-31 Alpine Electronics Inc Traveling lane detecting device and navigation apparatus
JP2002300573A (en) * 2001-03-30 2002-10-11 Toshiba Corp Video diagnostic system on-board of video monitor
KR100633297B1 (en) * 2005-07-04 2006-10-13 현대자동차주식회사 Lane data save and display method of black box system using data of lane off course warning device
JP2012527681A (en) * 2009-05-19 2012-11-08 イメージネクスト シーオー エルティディ Lane departure detection method and apparatus using vehicle periphery image
KR20140074476A (en) * 2012-12-10 2014-06-18 민정곤 System and method for detecting traffic lane in real time, navigation and black-box for vechicle using the same

Also Published As

Publication number Publication date
KR102296205B1 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
US11188789B2 (en) Detecting poisoning attacks on neural networks by activation clustering
CN111126592A (en) Method and apparatus for outputting prediction result, method and apparatus for generating neural network, and storage medium
CN110909692A (en) Abnormal license plate recognition method and device, computer storage medium and electronic equipment
CN104915632A (en) Event detection apparatus and event detection method
JP2008130086A (en) Method and apparatus for determining classification boundary
CN111985458B (en) Method for detecting multiple targets, electronic equipment and storage medium
EP3812937A1 (en) System and method for protection and detection of adversarial attacks against a classifier
KR20220075273A (en) Method of tracking multiple objects and apparatus for the same
CN110582783A (en) Training device, image recognition device, training method, and program
CN114631115A (en) Method and system for quality inspection of new products using deep learning
CN111178363B (en) Character recognition method, character recognition device, electronic equipment and readable storage medium
CN112541394A (en) Black eye and rhinitis identification method, system and computer medium
CN113762220B (en) Object recognition method, electronic device, and computer-readable storage medium
JP7422548B2 (en) Label noise detection program, label noise detection method, and label noise detection device
US20210312227A1 (en) System and method for detecting annotation errors
CN110121055B (en) Method and apparatus for object recognition
CN112287905A (en) Vehicle damage identification method, device, equipment and storage medium
KR20190049147A (en) Lane departure detecting device and controlling method thereof
KR20210056050A (en) Apparaus and method of identifying multi class objects
EP4105893A1 (en) Dynamic artifical intelligence camera model update
CN113591543B (en) Traffic sign recognition method, device, electronic equipment and computer storage medium
CN111277812A (en) Image processing method and apparatus
CN114067401A (en) Target detection model training and identity verification method and device
CN113642353A (en) Training method of face detection model, storage medium and terminal equipment
AU2021240277A1 (en) Methods and apparatuses for classifying game props and training neural network

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant