KR20240079755A - The system for lane detection and the method for lane detection - Google Patents

The system for lane detection and the method for lane detection Download PDF

Info

Publication number
KR20240079755A
KR20240079755A KR1020220162993A KR20220162993A KR20240079755A KR 20240079755 A KR20240079755 A KR 20240079755A KR 1020220162993 A KR1020220162993 A KR 1020220162993A KR 20220162993 A KR20220162993 A KR 20220162993A KR 20240079755 A KR20240079755 A KR 20240079755A
Authority
KR
South Korea
Prior art keywords
lane recognition
present
unit
normalization
lane
Prior art date
Application number
KR1020220162993A
Other languages
Korean (ko)
Inventor
이상현
김덕수
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020220162993A priority Critical patent/KR20240079755A/en
Publication of KR20240079755A publication Critical patent/KR20240079755A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • Z03V10/10

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 목적은 네트워크의 연산량 증가는 최소화하되, 정확히 키포인트만을 추출하여 실시간으로 활용할 수 있는 차선 인식 시스템 및 차선 인식 방법에 관한 것이다.
상기 목적을 달성하기 위해, 본 발명은 커널 밀도 추정을 통해 차선이 존재할 가능성을 확률 밀도 함수로 변환하고, 확률 밀도 함수의 극값을 추출하는 과정을 포함하는 것을 특징으로 한다.
The purpose of the present invention is to provide a lane recognition system and method that can minimize the increase in network computation while accurately extracting only key points and utilizing them in real time.
In order to achieve the above object, the present invention is characterized by including a process of converting the possibility of a lane existing into a probability density function through kernel density estimation and extracting extreme values of the probability density function.

Description

차선 인식 시스템 및 차선 인식 방법{THE SYSTEM FOR LANE DETECTION AND THE METHOD FOR LANE DETECTION}Lane recognition system and lane recognition method {THE SYSTEM FOR LANE DETECTION AND THE METHOD FOR LANE DETECTION}

본 발명은 차선 인식 시스템 및 차선 인식 방법에 관한 것으로, 더욱 상세하게는 네트워크나 연산량의 증가 없이 정확도를 높일 수 있는 커널 밀도 추정을 활용한 차선 인식 시스템 및 차선 인식 방법에 관한 것이다.The present invention relates to a lane recognition system and a lane recognition method, and more specifically, to a lane recognition system and method using kernel density estimation that can increase accuracy without increasing the network or computational amount.

자율 주행 자동차 시대가 다가옴에 따라, 무인 자율 주행 자동차 실현을 위한 기술 개발이 활발히 진행되고 있다. As the era of self-driving cars approaches, technology development to realize unmanned self-driving cars is actively underway.

정확한 차선 인식 기술은 무인 자율 주행 자동차의 필수 불가결한 기술임에 틀림없다.Accurate lane recognition technology is undoubtedly an essential technology for unmanned autonomous vehicles.

자율 주행 시스템 분야에서 차선 인식 기술은 인공 지능 분야에 상당히 부합하고, 자율 주행 시스템 분야 및 인공 지능 분야에서 차선 인식 기술에 대한 요구 또한 상당히 높다.In the field of autonomous driving systems, lane recognition technology is well suited to the field of artificial intelligence, and the demand for lane recognition technology in the fields of autonomous driving systems and artificial intelligence is also quite high.

차선 인식 기술은 자율주행 시스템의 핵심 기술로, 차량이 차선을 벗어나지 않게 제어를 보조하는 차선 이탈 경고 시스템에 사용된다. Lane recognition technology is a core technology of the autonomous driving system and is used in the lane departure warning system that assists in controlling the vehicle to keep it from leaving its lane.

전통적인 차선 인식 기법들은 복잡한 특징의 추출 절차를 요구하고, 다양한 차선의 형태를 파악할 수 없으며, 다양한 날씨 및 조도와 같은 환경에 취약하다.Traditional lane recognition techniques require complex feature extraction procedures, cannot identify various lane shapes, and are vulnerable to various environments such as weather and illumination.

이러한 한계점을 보완하기 위해, 인공지능에 기반을 둔 다양한 차선 인식 알고리즘이 개발되었다.To compensate for these limitations, various lane recognition algorithms based on artificial intelligence have been developed.

인공지능 기반 차선 인식은 기존의 방법보다 우월한 성능을 보장하고, 우천시나 차선의 노후화 같은 열약한 환경에서도 동작하는 장점을 가지지만, 연산량이 많다는 단점이 있다.Artificial intelligence-based lane recognition guarantees superior performance over existing methods and has the advantage of operating even in harsh environments such as rainy weather or aging lanes, but has the disadvantage of requiring a large amount of computation.

인공지능 기반 차선 인식 알고리즘은 대부분 세그멘테이션을 기술적 기반으로 사용하는데, 세그멘테이션 기술은 현대의 컴퓨터로도 실시간성을 보장받지 못할 정도로 많은 연산을 필요로 한다.Most artificial intelligence-based lane recognition algorithms use segmentation as their technical basis, and segmentation technology requires so many calculations that real-time is not guaranteed even with modern computers.

이를 보완하기 위해서, 최근에는 세그멘테이션 기반이 아닌 매개 변수 예측 방식을 통한 차선의 형태를 표현하는 방법이 연구되고 있지만, 정확도 측면에서 기존 세그멘테이션 기반의 방법보다 현저하게 낮은 실정이다.To compensate for this, methods for expressing suboptimal shapes through parameter prediction methods rather than segmentation have recently been studied, but in terms of accuracy, they are significantly lower than existing segmentation-based methods.

대한민국 등록특허공보 제 10-2384797호(2022.04.05)Republic of Korea Patent Publication No. 10-2384797 (2022.04.05)

상기한 바와 같은 종래의 문제점을 해결하기 위한 본 발명의 목적은 차량에 장착할 수 있도록 네트워크의 확장 없이 성능은 향상된 차선 인식 시스템 및 차선 인식 방법에 관한 것이다.The purpose of the present invention to solve the conventional problems described above is to provide a lane recognition system and method with improved performance without expanding the network so that it can be installed on a vehicle.

상기 목적을 해결하기 위해, 본 발명에 따른 차선 인식 시스템은 이미지가 입력되는 입력부; 상기 입력부로부터 입력된 이미지를 학습하는 네트워크부; 상기 네트워크부로부터 학습된 정보를 정규화하는 정규화부; 상기 정규화부로부터 수신된 정보가 분석되는 추출부; 및 상기 추출부로부터 분석 정보가 출력되는 출력부;를 포함하는 것을 특징으로 한다.In order to solve the above object, the lane recognition system according to the present invention includes an input unit where an image is input; a network unit that learns images input from the input unit; a normalization unit that normalizes information learned from the network unit; an extraction unit that analyzes the information received from the normalization unit; and an output unit that outputs analysis information from the extraction unit.

또한, 상기 목적을 달성하기 위해, 본 발명에 따른 차선 인식 방법은 차선 인식 시스템을 포함하며, 상기 차선 인식 시스템의 정규화부에 의해, 2차원 확률맵을 행 단위로 정규화하는 정규화; 및 상기 정규화의 결과값으로부터 확률 밀도 함수의 키포인트를 추출하는 추출 단계;를 포함하는 것을 특징으로 한다.In addition, in order to achieve the above object, the lane recognition method according to the present invention includes a lane recognition system, normalizing a two-dimensional probability map row by row by a normalization unit of the lane recognition system; and an extraction step of extracting key points of the probability density function from the normalization result.

또한, 본 발명에 따른 차선 인식 방법에서, 상기 정규화는 입력된 이미지를 2차원 확률맵으로 출력하는 세그맨테이션 네트워크를 더 포함하는 것을 특징으로 한다.Additionally, in the lane recognition method according to the present invention, the normalization further includes a segmentation network that outputs the input image as a two-dimensional probability map.

또한, 본 발명에 따른 차선 인식 방법에서, 상기 추출 단계는, 커널 밀도 추정을 통해 확률 밀도 함수를 설정하는 단계를 더 포함하는 것을 특징으로 한다.Additionally, in the lane recognition method according to the present invention, the extraction step further includes setting a probability density function through kernel density estimation.

또한, 본 발명에 따른 차선 인식 방법에서, 상기 추출 단계는, 상기 확률 밀도 함수의 극값을 키포인트로 추출하는 것을 특징으로 한다.Additionally, in the lane recognition method according to the present invention, the extraction step is characterized by extracting extreme values of the probability density function as key points.

기타 실시 예의 구체적인 사항은 "발명을 실시하기 위한 구체적인 내용" 및 첨부 "도면"에 포함되어 있다.Specific details of other embodiments are included in “Specific Details for Carrying Out the Invention” and the attached “Drawings.”

본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 각종 실시 예를 참조하면 명확해질 것이다.The advantages and/or features of the present invention and methods for achieving them will become clear by referring to the various embodiments described in detail below along with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 각 실시 예의 구성만으로 한정되는 것이 아니라 서로 다른 다양한 형태로도 구현될 수도 있으며, 단지 본 명세서에서 개시한 각각의 실시 예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구범위의 각 청구항의 범주에 의해 정의될 뿐임을 알아야 한다.However, the present invention is not limited to the configuration of each embodiment disclosed below, but may also be implemented in various different forms. However, each embodiment disclosed in this specification ensures that the disclosure of the present invention is complete, and the present invention It is provided to fully inform those skilled in the art of the present invention, and it should be noted that the present invention is only defined by the scope of each claim.

본 발명에 의하면, 연산량의 증가 없이 차선 인식을 확인하는데 정확도 및 정밀도가 높아지는 효과가 있다.According to the present invention, there is an effect of increasing accuracy and precision in confirming lane recognition without increasing the amount of calculation.

본 발명에 의한 차선 인식 시스템 및 차선 인식 방법 이용 시, 실시간으로 작동 가능한 효과가 있다.When using the lane recognition system and lane recognition method according to the present invention, it has the effect of being able to operate in real time.

본 발명에 의한 차선 인식 시스템 및 차선 인식 방법 이용 시, 연산량의 증가 없이 네트워크의 성능이 향상되는 효과가 있다.When using the lane recognition system and lane recognition method according to the present invention, network performance is improved without increasing the amount of calculation.

본 발명에 의한 차선 인식 시스템 및 차선 인식 방법 이용 시, 정확도가 향상되고, 복잡성은 낮아지는 효과가 있다.When using the lane recognition system and lane recognition method according to the present invention, accuracy is improved and complexity is reduced.

도 1은 본 발명에 따른 촬영한 영상으로부터 차선을 인식하기까지 차선 인식 시스템 및 차선 인식 방법을 설명하기 위한 개념적인 모식도.
도 2은 본 발명의 차선 인식 시스템에서 단말의 구성을 나타내는 블록도.
도 3는 본 발명의 차선 인식 방법의 전체 흐름을 나타내는 플로우 차트.
도 4는 본 발명에 따른 차선 인식 시스템 및 차선 인식 방법에서 제 1 단계이자 세그멘테이션 네트워크의 구조도.
도 5는 본 발명에 따른 세그맨테이션 네트워크를 수행했을 때의 2차원 벡터 확률맵에 대한 모식도.
도 6은 본 발명에 따른 차선 인식 단계의 제 2 단계를 나타내는 모식도.
도 7은 본 발명에 따른 차선 인식 단계에서 제 1 단계 및 제 2 단계를 수행한 결과에 대한 제 1 실시 예.
도 8은 본 발명에 따른 차선 인식 단계에서 제 1 단계 및 제 2 단계를 수행한 결과에 대한 제 2 실시 예.
도 9는 도 8의 본 발명에 따른 제 1 단계 및 제 2 단계 수행 후, 커널 밀도 추정 결과를 확률 밀도 함수로 나타내는 그래프.
도 10은 본 발명에 따른 차선 인식 시스템 및 차선 인식 방법에서의 커널 밀도 추정을 통한 키포인트 획득의 결과값.
1 is a conceptual schematic diagram illustrating a lane recognition system and a lane recognition method from a captured image to recognizing a lane according to the present invention.
Figure 2 is a block diagram showing the configuration of a terminal in the lane recognition system of the present invention.
Figure 3 is a flow chart showing the overall flow of the lane recognition method of the present invention.
Figure 4 is a structural diagram of the segmentation network and the first step in the lane recognition system and method according to the present invention.
Figure 5 is a schematic diagram of a two-dimensional vector probability map when performing a segmentation network according to the present invention.
Figure 6 is a schematic diagram showing the second step of the lane recognition step according to the present invention.
Figure 7 shows a first example of the results of performing the first and second steps in the lane recognition step according to the present invention.
Figure 8 shows a second example of the results of performing the first and second steps in the lane recognition step according to the present invention.
Figure 9 is a graph showing the kernel density estimation result as a probability density function after performing the first and second steps according to the present invention of Figure 8.
Figure 10 shows the result of key point acquisition through kernel density estimation in the lane recognition system and lane recognition method according to the present invention.

본 발명을 상세하게 설명하기 전에, 본 명세서에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 무조건 한정하여 해석되어서는 아니 되며, 본 발명의 발명자가 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 각종 용어의 개념을 적절하게 정의하여 사용할 수 있고, 더 나아가 이들 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 함을 알아야 한다.Before explaining the present invention in detail, the terms or words used in this specification should not be construed as unconditionally limited to their ordinary or dictionary meanings, and the inventor of the present invention should not use the terms or words in order to explain his invention in the best way. It should be noted that the concepts of various terms can be appropriately defined and used, and further, that these terms and words should be interpreted with meanings and concepts consistent with the technical idea of the present invention.

즉, 본 명세서에서 사용된 용어는 본 발명의 바람직한 실시 예를 설명하기 위해서 사용되는 것일 뿐이고, 본 발명의 내용을 구체적으로 한정하려는 의도로 사용된 것이 아니며, 이들 용어는 본 발명의 여러 가지 가능성을 고려하여 정의된 용어임을 알아야 한다.That is, the terms used in this specification are only used to describe preferred embodiments of the present invention, and are not used with the intention of specifically limiting the content of the present invention, and these terms refer to various possibilities of the present invention. It is important to note that this is a term defined with consideration in mind.

또한, 본 명세서에서, 단수의 표현은 문맥상 명확하게 다른 의미로 지시하지 않는 이상, 복수의 표현을 포함할 수 있으며, 유사하게 복수로 표현되어 있다고 하더라도 단수의 의미를 포함할 수 있음을 알아야 한다.In addition, it should be noted that in this specification, singular expressions may include plural expressions, unless the context clearly indicates a different meaning, and may include singular meanings even if similarly expressed in plural. .

본 명세서의 전체에 걸쳐서 어떤 구성 요소가 다른 구성 요소를 "포함"한다고 기재하는 경우에는, 특별히 반대되는 의미의 기재가 없는 한 임의의 다른 구성 요소를 제외하는 것이 아니라 임의의 다른 구성 요소를 더 포함할 수도 있다는 것을 의미할 수 있다.Throughout this specification, when a component is described as “including” another component, it does not exclude any other component, but includes any other component, unless specifically stated to the contrary. It could mean that you can do it.

더 나아가서, 어떤 구성 요소가 다른 구성 요소의 "내부에 존재하거나, 연결되어 설치된다"라고 기재한 경우에는, 이 구성 요소가 다른 구성 요소와 직접적으로 연결되어 있거나 접촉하여 설치되어 있을 수 있고, 일정한 거리를 두고 이격되어 설치되어 있을 수도 있으며, 일정한 거리를 두고 이격되어 설치되어 있는 경우에 대해서는 해당 구성 요소를 다른 구성 요소에 고정 내지 연결하기 위한 제 3의 구성 요소 또는 수단이 존재할 수 있으며, 이 제 3의 구성 요소 또는 수단에 대한 설명은 생략될 수도 있음을 알아야 한다.Furthermore, if a component is described as being "installed within or connected to" another component, it means that this component may be installed in direct connection or contact with the other component and may be installed in contact with the other component and may be installed in contact with the other component. It may be installed at a certain distance, and in the case where it is installed at a certain distance, there may be a third component or means for fixing or connecting the component to another component. It should be noted that the description of the components or means of 3 may be omitted.

반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결"되어 있다거나, 또는 "직접 접속"되어 있다고 기재되는 경우에는, 제 3의 구성 요소 또는 수단이 존재하지 않는 것으로 이해하여야 한다.On the other hand, when a component is described as being “directly connected” or “directly connected” to another component, it should be understood that no third component or means is present.

마찬가지로, 각 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 " ~ 사이에"와 "바로 ~ 사이에", 또는 " ~ 에 이웃하는"과 " ~ 에 직접 이웃하는" 등도 마찬가지의 취지를 가지고 있는 것으로 해석되어야 한다.Likewise, other expressions that describe the relationship between each component, such as "between" and "immediately between", or "neighboring" and "directly neighboring", have the same meaning. It should be interpreted as

또한, 본 명세서에서 "일면", "타면", "일측", "타측", "제 1", "제 2" 등의 용어는, 사용된다면, 하나의 구성 요소에 대해서 이 하나의 구성 요소가 다른 구성 요소로부터 명확하게 구별될 수 있도록 하기 위해서 사용되며, 이와 같은 용어에 의해서 해당 구성 요소의 의미가 제한적으로 사용되는 것은 아님을 알아야 한다.In addition, in this specification, terms such as "one side", "other side", "one side", "the other side", "first", "second", etc., if used, refer to one component. It is used to clearly distinguish it from other components, and it should be noted that the meaning of the component is not limited by this term.

또한, 본 명세서에서 "상", "하", "좌", "우" 등의 위치와 관련된 용어는, 사용된다면, 해당 구성 요소에 대해서 해당 도면에서의 상대적인 위치를 나타내고 있는 것으로 이해하여야 하며, 이들의 위치에 대해서 절대적인 위치를 특정하지 않는 이상은, 이들 위치 관련 용어가 절대적인 위치를 언급하고 있는 것으로 이해하여서는 아니된다.In addition, in this specification, terms related to position such as "top", "bottom", "left", "right", etc., if used, should be understood as indicating the relative position of the corresponding component in the corresponding drawing. Unless the absolute location is specified, these location-related terms should not be understood as referring to the absolute location.

또한, 본 명세서에서는 각 도면의 각 구성 요소에 대해서 그 도면 부호를 명기함에 있어서, 동일한 구성 요소에 대해서는 이 구성 요소가 비록 다른 도면에 표시되더라도 동일한 도면 부호를 가지고 있도록, 즉 명세서 전체에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지시하고 있다.In addition, in this specification, when specifying the reference numeral for each component in each drawing, the same component has the same reference number even if the component is shown in different drawings, that is, the same reference is made throughout the specification. The symbols indicate the same component.

본 명세서에 첨부된 도면에서 본 발명을 구성하는 각 구성 요소의 크기, 위치, 결합 관계 등은 본 발명의 사상을 충분히 명확하게 전달할 수 있도록 하기 위해서 또는 설명의 편의를 위해서 일부 과장 또는 축소되거나 생략되어 기술되어 있을 수 있고, 따라서 그 비례나 축척은 엄밀하지 않을 수 있다.In the drawings attached to this specification, the size, position, connection relationship, etc. of each component constituting the present invention is exaggerated, reduced, or omitted in order to convey the idea of the present invention sufficiently clearly or for convenience of explanation. It may be described, and therefore its proportions or scale may not be exact.

또한, 이하에서, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 구성, 예를 들어, 종래 기술을 포함하는 공지 기술에 대해 상세한 설명은 생략될 수도 있다.In addition, hereinafter, in describing the present invention, detailed descriptions of configurations that are judged to unnecessarily obscure the gist of the present invention, for example, known technologies including prior art, may be omitted.

이하, 본 발명의 실시 예에 대해 관련 도면들을 참조하여 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the related drawings.

도 1은 본 발명에 따른 촬영한 영상으로부터 차선을 인식하기까지 차선 인식 시스템 및 차선 인식 방법을 설명하기 위한 개념적인 모식도이다.Figure 1 is a conceptual schematic diagram for explaining a lane recognition system and a lane recognition method from a captured image to lane recognition according to the present invention.

도 1을 참조하면, 본 발명에 따른 차선 인식 시스템(1000)은 촬영부(100)와, 단말(200)을 포함한다.Referring to FIG. 1, the lane recognition system 1000 according to the present invention includes a photographing unit 100 and a terminal 200.

촬영부(100)는 이미지 혹은 영상에 관한 정보를 모두 획득한다.The photographing unit 100 acquires all information about the image or video.

촬영부(100)는 흑백 혹은 컬러 이미지에 상관없이 획득이 가능하다.The photographing unit 100 can acquire either black-and-white or color images.

또한, 촬영부(100)는 차선의 거리 및 깊이를 추정할 수 있는 적외선 센서 카메라, 깊이 카메라, 광계 카메라, 양안 입체 카메라 또는 차량에 장착되는 서라운드 뷰 모니터(Surround View Monitor) 카메라 등을 이용할 수 있으며, 꼭 이에 한정하지는 않는다.In addition, the photographing unit 100 may use an infrared sensor camera, a depth camera, a light system camera, a binocular stereoscopic camera, or a surround view monitor camera mounted on a vehicle, which can estimate the distance and depth of the lane. , but is not necessarily limited to this.

단말(200)은 촬영부(100)에서 받은 이미지를 송신하는 장치를 포함할 수 있다.The terminal 200 may include a device that transmits the image received from the photographing unit 100.

단말(200)은 자동차에 탈부착이 용이하도록 소형화 기기로 예를 들어 설명하지만, 꼭 이에 한정하지는 않는다.The terminal 200 is described as a miniaturized device for easy attachment and detachment from a car, but is not limited thereto.

단말(200)은 블랙 박스(Black-Box) 혹은 내비게이션(Navigation) 내에 삽입하여 사용할 수 있다.The terminal 200 can be used by inserting it into a black box or navigation.

촬영부(100)와 단말(200)은 무선 통신을 통해 통신한다.The photographing unit 100 and the terminal 200 communicate through wireless communication.

또한, 무선 통신은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈에 의해 이루어질 수 있다.In addition, wireless communications include GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), and UMTS (universal mobile telecommunications) in addition to Wi-Fi modules and WiBro (Wireless broadband) modules. This can be achieved by a wireless communication module that supports various wireless communication methods such as (Time Division Multiple Access), TDMA (Time Division Multiple Access), and LTE (Long Term Evolution).

이와 같은 구성에 의해, 촬영부(100)에서 촬영한 이미지는 단말(200)로 안전하게 수신될 수 있다.With this configuration, images captured by the photographing unit 100 can be safely received by the terminal 200.

또한, 본 발명의 일 실시 예에 따른 차선 인식 시스템(1000)은 전술한 구성 이외에, 차선 검출 결과를 도출하는 차선 검출 장치를 더 포함할 수 있다.Additionally, the lane recognition system 1000 according to an embodiment of the present invention may further include a lane detection device that derives lane detection results in addition to the above-described configuration.

도 2는 본 발명의 차선 인식 시스템에서 단말의 구성을 나타내는 블록도이다.Figure 2 is a block diagram showing the configuration of a terminal in the lane recognition system of the present invention.

도 2를 참조하면, 본 발명에 따른 차선 인식 시스템(1000)의 단말(200)은 이미지가 입력되는 입력부(210)와, 네트워크부(220)와, 정규화부(230)와, 추출부(240)와, 키포인트가 출력되는 출력부(250)를 포함한다.Referring to FIG. 2, the terminal 200 of the lane recognition system 1000 according to the present invention includes an input unit 210 where an image is input, a network unit 220, a normalization unit 230, and an extraction unit 240. ) and an output unit 250 where key points are output.

이와 같은 차선 인식 시스템(1000)는, 이미지가 입력되는 입력부(210)와, 상기 입력부(210)로부터 입력된 이미지를 학습하는 네트워크부(220)와, 상기 네트워크부(220)로부터 학습된 정보를 정규화하는 정규화부(230)와, 상기 정규화부(230)로부터 수신된 정보를 분석하는 추출부(240) 및 상기 추출부(240)로부터 분석 정보를 출력하는 출력부(250)를 포함할 수 있다. Such a lane recognition system 1000 includes an input unit 210 for inputting an image, a network unit 220 for learning the image input from the input unit 210, and information learned from the network unit 220. It may include a normalization unit 230 that normalizes, an extraction unit 240 that analyzes the information received from the normalization unit 230, and an output unit 250 that outputs analysis information from the extraction unit 240. .

이와 같은 본 발명의 실시 예에 따른 단말(200)의 구성은 상술한 바와 같이, 촬영부(100)를 통해 입력된 이미지가 입력부(210)로부터 여러 단계(steps)를 거쳐 출력부(250)를 통해 키포인트로 정제되어 출력될 수 있다.As described above, the configuration of the terminal 200 according to the embodiment of the present invention is such that the image input through the photographing unit 100 passes through several steps from the input unit 210 to the output unit 250. It can be refined and output as key points.

이상의 입력부(210)와, 네트워크부(220)와, 정규화부(230)와, 추출부(240)와, 출력부(250)를 포함하는 본 발명에 따른 차선 인식 시스템(1000)의 단말(200)의 전체 구성 내지는 적어도 일부 구성은 하드웨어 모듈 형태 또는 소프트웨어 모듈 형태로 구현되거나, 하드웨어 모듈과 소프트웨어 모듈이 조합된 형태로 구현될 수 있다.Terminal 200 of the lane recognition system 1000 according to the present invention including the above input unit 210, network unit 220, normalization unit 230, extraction unit 240, and output unit 250. ) may be implemented in the form of a hardware module or a software module, or may be implemented in a combination of a hardware module and a software module.

여기서, 소프트웨어 모듈이란, 예컨대, 단말(200) 내에서 연산을 제어하는 프로세서에 의해 실행되는 명령어로 이해될 수 있으며, 이러한 명령어는 단말(200) 내 메모리에 탑재된 형태를 가질 수 있다.Here, a software module can be understood as, for example, an instruction executed by a processor that controls operations within the terminal 200, and these instructions may be mounted in a memory within the terminal 200.

또한, 각 구성부들에 대한 구분은 각 구성부가 담당하는 주 기능 별로 구분한 것에 불과함을 명확히 한다.In addition, it is clarified that the division of each component is merely a classification according to the main function each component is responsible for.

즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다.That is, two or more components, which will be described below, may be combined into one component, or one component may be divided into two or more components for more detailed functions.

이는 도 3을 참조하여 좀 더 상세히 후술하도록 한다.This will be described in more detail later with reference to FIG. 3.

도 3은 본 발명의 차선 인식 시스템 및 차선 인식 방법의 전체 흐름을 나타내는 플로우 차트이다.Figure 3 is a flow chart showing the overall flow of the lane recognition system and method of the present invention.

도 3을 참조하면, 본 발명에 따른 차선 인식 시스템(1000) 및 차선 인식 방법은 3 개의 단계를 포함할 수 있다.Referring to FIG. 3, the lane recognition system 1000 and lane recognition method according to the present invention may include three steps.

이와 같은 차선 인식 시스템(1000) 및 차선 인식 방법은 네트워크부(220)와, 정규화부(230)와, 추출부(240)를 구성하는 차선 인식 시스템(1000)의 단말(200)에 의해 구현된다.This lane recognition system 1000 and lane recognition method are implemented by the terminal 200 of the lane recognition system 1000, which constitutes the network unit 220, the normalization unit 230, and the extraction unit 240. .

본 발명에 따른 차선 인식 방법의 제 1 단계(S100)는, 네트워크부(220)로 들어온 이미지가 세그맨테이션 네트워크(S100)를 통해 같은 크기의 2차원 확률맵이 형성된다.In the first step (S100) of the lane recognition method according to the present invention, the image input to the network unit 220 is formed into a two-dimensional probability map of the same size through the segmentation network (S100).

본 발명에 따른 차선 인식 방법의 제 2 단계(S200)는, 정규화부(230)로 들어온 2차원 확률맵이 이미지의 가시성에 따라 출력의 분산이 감소되는 정규화(S200) 를 포함한다.The second step (S200) of the lane recognition method according to the present invention includes normalization (S200) in which the variance of the output of the two-dimensional probability map input to the normalization unit 230 is reduced according to the visibility of the image.

본 발명에 따른 차선 인식 방법의 제 3 단계(S300)는, 정규화(S200)의 결과값으로부터 확률 밀도 함수의 키포인트를 추출하는, 추출 단계(S200)를 포함한다. The third step (S300) of the lane recognition method according to the present invention includes an extraction step (S200) in which key points of the probability density function are extracted from the result of normalization (S200).

상기 차선 인식 방법의 각 단계는 단말(200) 내에서의 전체 구성과 대응 혹은 매칭되도록 실시 예를 들어 설명하지만, 이에 꼭 한정하는 것은 아니며, 상기 설명한 차선 검출 장치와 대응되도록 구성할 수 있다.Each step of the lane recognition method is described by way of an example to correspond to or match the overall configuration within the terminal 200, but is not limited thereto and can be configured to correspond to the lane detection device described above.

이에 대해 도 4 내지 도 7을 참조하여 좀 더 자세히 설명하도록 한다.This will be described in more detail with reference to FIGS. 4 to 7.

도 4는 본 발명에 따른 차선 인식 시스템 및 차선 인식 방법에 따른 뉴럴 네트워크의 일 예시인 세그멘테이션 네트워크의 구조도를 나타내는 도면이다.Figure 4 is a diagram showing the structure of a segmentation network, which is an example of a neural network according to the lane recognition system and lane recognition method according to the present invention.

도 4를 참조하면, 본 발명에 따른 차선 인식 방법은 단말(200)에서 이미지를 입력하는 입력부(210)와 네트워크부(220)에 의해 구현된다.Referring to FIG. 4, the lane recognition method according to the present invention is implemented by an input unit 210 and a network unit 220 that input an image from the terminal 200.

차선 인식 방법은 이미지 프로세싱을 통해 정확도가 높은 판단 결과를 얻기 위해 최근에는 뉴럴 네트워크(Neural Network)를 사용하고 있다. Lane recognition methods have recently been using neural networks to obtain highly accurate judgment results through image processing.

뉴럴 네트워크는 인간의 뉴럴 네트워크와 유사한 구조로 가지는 네트워크 구조로써, 딥 뉴럴 네트워크라고 명명되기도 한다. A neural network is a network structure similar to the human neural network, and is also called a deep neural network.

뉴럴 네트워크는 Convolutional Neural Networks(CNN), Recurrent Neural Networks(RNN), Deep Belief Networks, Restricted Boltzman Machines, Generative Adversarial Network(GAN), 회귀 딥러닝 네트워크 등을 포함할 수 있으며, 상기 예시에 제한되지 않는다.Neural networks may include Convolutional Neural Networks (CNN), Recurrent Neural Networks (RNN), Deep Belief Networks, Restricted Boltzman Machines, Generative Adversarial Network (GAN), recurrent deep learning networks, etc., but are not limited to the examples above.

본 발명의 일 실시 예에 따르면, 인공 지능(AI) 시스템을 이용하는 단말(200)은 네트워크부(220)를 통해, 뉴럴 네트워크의 기능 중 하나인 세그맨테이션 네트워크(S100)가 수행될 수 있다. According to one embodiment of the present invention, the terminal 200 using an artificial intelligence (AI) system can perform a segmentation network (S100), which is one of the functions of a neural network, through the network unit 220.

여기서, 네트워크부(220)는 세그맨테이션 네트워크(S100)가 포함될 수 있다.Here, the network unit 220 may include a segmentation network (S100).

세그맨테이션 네트워크(S100)는 회귀 딥러닝 모델 기반의 영상 검출 방법으로, 회귀 딥러닝 모델에 객체 및 배경이 포함된 영상을 입력하는 단계 및 회귀 딥러닝 모델을 이용하여 영상에서 객체가 구분된 출력 영상을 생성하는 단계를 포함할 수 있다.Segmentation network (S100) is an image detection method based on a regression deep learning model. It involves inputting an image containing an object and a background into the regression deep learning model and outputting objects separated from the image using the regression deep learning model. It may include the step of generating an image.

세그맨테이션 네트워크(S100)의 회귀 딥러닝 모델 구조는 컨볼루션 인코더 디코더 딥러닝 네트워크를 사용할 수 있다.The regression deep learning model structure of the segmentation network (S100) can use a convolutional encoder decoder deep learning network.

상기 세그맨테이션 네트워크(S100)의 인코더 구조는 Resnet을 사용해 RGB 이미지가 입력되는 방식에 대해 설명하지만, 상기 예시에 제한되지 않는다.The encoder structure of the segmentation network (S100) explains how RGB images are input using Resnet, but is not limited to the above example.

상기 세그맨테이션 네트워크(S100)는 회귀 딥러닝 모델 중 픽셀 단위의 회귀 방식으로, 객체와 배경을 구분하여 같은 크기의 2차원 벡터 확률맵을 출력할 수 있다.The segmentation network (S100) is a pixel-level regression method among regression deep learning models, and can distinguish objects and backgrounds and output a two-dimensional vector probability map of the same size.

도 5는 본 발명에 따른 세그맨테이션 네트워크를 수행했을 때의 2차원 벡터 확률맵에 대한 모식도이다.Figure 5 is a schematic diagram of a two-dimensional vector probability map when performing a segmentation network according to the present invention.

이는 별도의 카메라를 통해, 촬영된 영상 정보로부터 영상 정보가 분류되며, 상기 세그맨테이션 네트워크(S100)는 딥러닝 네트워크 알고리즘을 이용하여 분류된 영상 정보를 학습하여 생성된 네트워크 파라미터 정보가 저장된다. Image information is classified from captured image information through a separate camera, and the segmentation network (S100) stores network parameter information generated by learning the classified image information using a deep learning network algorithm.

이때, 유형별 영상 정보의 분류는 사용자에 의해 제공받는 것이 바람직하나, 영상 분석 알고리즘을 통해 자동으로 제공될 수도 있다.At this time, it is preferable that the classification of image information by type is provided by the user, but it may also be provided automatically through an image analysis algorithm.

도 4에 도시한 바와 같이, 세그맨테이션 네트워크(S100)는 인코더와 디코더로 이루어진다.As shown in FIG. 4, the segmentation network (S100) consists of an encoder and a decoder.

인코더는 영상 크기를 줄여 나가면서 반복적으로 컨볼루션(convolution), 정규화(normalization), 활성화(activation) 계층으로 이루어져 각 계층을 통과하여 입력 영상을 대표하는 특징(edge, pattern, texture)을 추출하는 방법을 포함한다.The encoder consists of repeated convolution, normalization, and activation layers while reducing the image size, and passes through each layer to extract features (edge, pattern, texture) representing the input image. Includes.

상기 세그맨테이션 네트워크(S100)의 인코더(encoder)의 구조는 Resnet을 사용해 RGB 이미지가 입력되는 방식을 채택하였지만, 이에 꼭 한정하는 것은 아니다.The structure of the encoder of the segmentation network (S100) adopts a method in which RGB images are input using Resnet, but is not limited to this.

그리고, 디코더는 상기 인코더를 통해 추출된 특징을 사용하여 해당 화소를 분류(차선, 노면, 하늘, 수풀, 차량 등)한다.Then, the decoder uses the features extracted through the encoder to classify the pixel (lane, road surface, sky, bush, vehicle, etc.).

또한, 디코더는 인코더로 들어온 영상의 크기를 줄였기 때문에 원본 영상과 동일한 크기를 제공하기 위하여 업-샘플링(up-sampling)하는 계층이 포함될 수 있다.Additionally, because the decoder reduces the size of the video input to the encoder, an up-sampling layer may be included to provide the same size as the original video.

디코더는, 인코더에서 들어온 영상의 크기가 줄어들 때, 상세 지역 정보(localization feature)를 보충하기 위해, 추상화 레벨은 낮지만 화소의 상세 변화 정보가 있는 특징을 제공할 수 있다.The decoder can provide features with a low level of abstraction but detailed pixel change information to supplement detailed localization features when the size of the video coming from the encoder is reduced.

다시 말해, 인코더에서 들어온 정보를 디코더에서 추출할 때, 디코더의 정보는 특정 위치의 화소를 분류하기 위한 콘텍스트(context) 정보와 각 화소 간의 상관 관계를 재구성하기 위한 지역 정보를 모두 필요로 하지만, 이에 꼭 한정하지는 않는다.In other words, when extracting information from the encoder in the decoder, the decoder information requires both context information to classify pixels at a specific location and local information to reconstruct the correlation between each pixel. It is not necessarily limited.

도 6은 본 발명에 따른 차선 인식 단계의 제 2 단계를 나타내는 도면이다. Figure 6 is a diagram showing the second step of the lane recognition step according to the present invention.

본 발명에 따른 차선 인식 방법의 제 2 단계(S200)는, 정규화부(230)로 들어온 상기 2차원 확률맵이 이미지의 가시성에 따라 출력의 분산이 감소되는 정규화를 포함한다.The second step (S200) of the lane recognition method according to the present invention includes normalization of the two-dimensional probability map input to the normalization unit 230 in which the variance of the output is reduced according to the visibility of the image.

다시 말해, 같은 크기의 2차원 확률맵은 이미지의 가시성에 따라, 출력의 분산이 감소되는 행 단위 정규화를 거쳐 차선 영역이 명확히 강조되는 모습을 볼 수 있다.In other words, the two-dimensional probability map of the same size undergoes row-level normalization, which reduces the variance of the output, depending on the visibility of the image, so that the suboptimal areas are clearly emphasized.

상기 이미지의 가시성이란, 다른 물체에 가려져 보이지 않는 차선, 빛의 세기에 따른 차이 혹은 점선 형태의 차선 등에 따라 서로 다른 확률 분포를 설정하는 것을 의미하지만, 꼭 이에 한정하는 것은 아니다.The visibility of the image means setting different probability distributions depending on lanes that are not visible because they are obscured by other objects, differences in light intensity, or lanes in the form of dotted lines, but is not limited to this.

상기 설명하는 제 2 단계(S200)는 전체 이미지에 대한 정규화가 아닌, 행 단위로 이미지를 나누어 정규화를 수행할 수 있다.The second step (S200) described above may perform normalization by dividing the image by row, rather than normalizing the entire image.

전체 이미지에 대한 정규화를 수행하는 경우, 차선의 가시성 및 환경에 대해 다른 결과가 수행되는 문제점이 있다.When performing normalization on the entire image, there is a problem in that different results are performed for suboptimal visibility and environments.

다만, 상기 행 단위로 이미지를 나누어 정규화(S200)를 수행하는 경우, 이미지 내 동일 행 내에서는 차선의 가시성 및 환경(빛의 세기, 위치, 차폐)에 대한 높은 일관성을 가지므로, 정확도 및 정밀성을 높일 수 있다.However, when normalization (S200) is performed by dividing the image by row, there is high consistency with respect to suboptimal visibility and environment (light intensity, location, occlusion) within the same row in the image, thereby improving accuracy and precision. It can be raised.

이와 같은 행 단위 정규화(S200) 과정은 소프트맥스(Softmax)를 사용하여 각 상태별 활성화 함수의 결과값을 나타낼 수 있다.This row-level normalization (S200) process can use Softmax to represent the result of the activation function for each state.

상기 정규화(S200)의 출력 값은 소프트맥스(Softmax) 함수를 적용하여 각 행에서의 상태별 확률을 구할 수 있다The output value of the normalization (S200) can be obtained by applying the Softmax function to obtain the probability of each state in each row.

상기의 각 행에서의 상태별 학습을 효율적으로 하기 위해, 크로스 엔트로피 척도 및 백-프로퍼게이션 알고리즘이 추가로 포함될 수 있으며, 드랍 아웃 기술이 더 포함되어 적용할 수 있다.In order to efficiently learn each state in each row, a cross-entropy measure and a back-propagation algorithm may be additionally included, and a drop-out technique may be further included and applied.

예를 들어 상기 드랍 아웃 기술은 히든 레이어의 임의의 노드를 특정 확률 값으로 설정하는 것으로, 배깅(Bagging)과 유사한 효과를 내며 과적합을 줄여주는 것으로 알려져 있다. For example, the dropout technique sets random nodes in the hidden layer to a specific probability value, and is known to have a similar effect to bagging and reduce overfitting.

상기 정규화(S200) 과정에서는 소프트맥스 함수를 예를 들어 설명하였으나, 이에 꼭 한정하지는 않는다.In the above normalization (S200) process, the softmax function is explained as an example, but it is not limited to this.

도 7은 본 발명에 따른 차선 인식 단계에서의 제 1 단계 및 제 2 단계를 수행한 결과에 대한 제 1 실시 예이다.Figure 7 is a first example of the results of performing the first and second steps in the lane recognition step according to the present invention.

도 8은 본 발명에 따른 차선 인식 단계에서 제 1 단계 및 제 2 단계를 수행한 결과에 대한 제 2 실시 예이다.Figure 8 is a second example of the results of performing the first and second steps in the lane recognition step according to the present invention.

도 7 및 도 8을 참조하면, 본 발명에 따른 차선 인식 단계에서 제 2 단계를 수행한 결과로, 관측 데이터로부터 행단위 정규화의 본 실시 예에 따른 결과는 소프트맥스 함수를 예를 들어 설명한 것이며, 차선 영역이 명확히 강조되는 모습을 확인할 수 있다.Referring to Figures 7 and 8, as a result of performing the second step in the lane recognition step according to the present invention, the result according to this embodiment of row-level normalization from observation data is explained using the softmax function as an example, You can see that the lane area is clearly emphasized.

이에 본 발명을 실시 예를 사용하여 설명하였으나, 이들 실시 예는 예시적인 것이며, 한정적인 것은 아니다.Accordingly, the present invention has been described using examples, but these examples are illustrative and not limiting.

본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허 청구 범위에 제시된 권리 범위에서 벗어나지 않으면서, 다양한 변화와 수정을 가할 수 있음을 이해할 수 있다.Anyone skilled in the art to which the present invention pertains can understand that various changes and modifications can be made without departing from the spirit of the present invention and the scope of rights set forth in the appended patent claims.

이에, 도 9는 본 발명에 따른 차선 인식 방법의 제 1 단계 및 제 2 단계를 수행한 후, 커널 밀도 추정 결과를 확률 밀도 함수로 나타낸 그래프를 나타낸 결과이다.Accordingly, Figure 9 is a graph showing the results of kernel density estimation as a probability density function after performing the first and second steps of the lane recognition method according to the present invention.

도 9를 참조하면, 행 단위 정규화 결과를 추출부(240)에 넣고, 커널 밀도 추정을 통한 확률 밀도 함수를 설정하는 추출 단계(S300)를 수행할 수 있다.Referring to FIG. 9, the row-level normalization result is input into the extraction unit 240, and an extraction step (S300) of setting a probability density function through kernel density estimation can be performed.

즉, 본 발명에 따른 차선 인식 방법의 추출 단계(S300)는 커널 밀도 추정을 통한 확률 밀도 함수를 설정하는 단계를 더 포함할 수 있다.That is, the extraction step (S300) of the lane recognition method according to the present invention may further include the step of setting a probability density function through kernel density estimation.

도 10은 본 발명에 따른 차선 인식 시스템 및 차선 인식 방법에서의 커널 밀도 추정을 통한 키포인트 획득의 결과값을 나타낸 모식도이다.Figure 10 is a schematic diagram showing the result of key point acquisition through kernel density estimation in the lane recognition system and lane recognition method according to the present invention.

도 10을 참조하면, 상술한 바와 같이 커널 밀도 추정을 통해 얻은 실제 결과 값은 세그맨테이션 네트워크(S100)의 결과 값이나, 행 단위 정규화(S200)의 결과 값에 비해 차선 영역이 명확히 강조되는 모습을 볼 수 있다.Referring to FIG. 10, the actual result obtained through kernel density estimation as described above is the result of the segmentation network (S100), but the suboptimal area is clearly emphasized compared to the result of row-level normalization (S200). You can see .

이에 의해, 본 발명에 따르면, 연산량의 증가 없이 차선 인식을 확인하는데 정확도 및 정밀도가 높아지는 효과가 있다.Accordingly, according to the present invention, accuracy and precision are increased in confirming lane recognition without increasing the amount of calculation.

본 발명에 따른 차선 인식 시스템 및 차선 인식 방법 이용 시, 실시간으로 작동 가능한 효과가 있다.When using the lane recognition system and lane recognition method according to the present invention, it has the effect of being able to operate in real time.

본 발명에 따른 차선 인식 시스템 및 차선 인식 방법 이용 시, 연산량의 증가 없이 네트워크의 성능이 향상되는 효과가 있다.When using the lane recognition system and lane recognition method according to the present invention, network performance is improved without increasing the amount of computation.

본 발명에 따른 차선 인식 시스템 및 차선 인식 방법 이용 시, 정확도가 향상되고, 복잡성은 낮아지는 효과가 있다.When using the lane recognition system and lane recognition method according to the present invention, accuracy is improved and complexity is reduced.

이상, 일부 예를 들어서 본 발명의 바람직한 여러 가지 실시 예에 대해서 설명하였지만, 본 "발명을 실시하기 위한 구체적인 내용" 항목에 기재된 여러 가지 다양한 실시 예에 관한 설명은 예시적인 것에 불과한 것이며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이상의 설명으로부터 본 발명을 다양하게 변형하여 실시하거나 본 발명과 균등한 실시를 행할 수 있다는 점을 잘 이해하고 있을 것이다.Above, various preferred embodiments of the present invention have been described by giving some examples, but the description of the various embodiments described in the "Detailed Contents for Carrying out the Invention" section is merely illustrative and the present invention Those skilled in the art will understand from the above description that the present invention can be implemented with various modifications or equivalent implementations of the present invention.

또한, 본 발명은 다른 다양한 형태로 구현될 수 있기 때문에 본 발명은 상술한 설명에 의해서 한정되는 것이 아니며, 이상의 설명은 본 발명의 개시 내용이 완전해지도록 하기 위한 것으로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이며, 본 발명은 청구범위의 각 청구항에 의해서 정의될 뿐임을 알아야 한다.In addition, since the present invention can be implemented in various other forms, the present invention is not limited by the above description, and the above description is intended to make the disclosure of the present invention complete and is commonly used in the technical field to which the present invention pertains. It is provided only to fully inform those with knowledge of the scope of the present invention, and it should be noted that the present invention is only defined by each claim in the claims.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자,단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that it does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

1000 : 차선 인식 시스템
100 : 촬영부
200 : 단말
210 : 입력부
220 : 네트워크부
230 : 정규화부
240 : 추출부
250 : 출력부
1000: Lane recognition system
100: Filming Department
200: terminal
210: input unit
220: Network unit
230: Normalization unit
240: extraction unit
250: output unit

Claims (5)

이미지가 입력되는 입력부;
상기 입력부로부터 입력된 이미지를 학습하는 네트워크부;
상기 네트워크부로부터 학습된 정보를 정규화하는 정규화부;
상기 정규화부로부터 수신된 정보가 분석되는 추출부; 및
상기 추출부로부터 분석 정보가 출력되는 출력부;를 포함하는 것을 특징으로 하는,
차선 인식 시스템.
An input unit where an image is input;
a network unit that learns images input from the input unit;
a normalization unit that normalizes information learned from the network unit;
an extraction unit that analyzes the information received from the normalization unit; and
Characterized in that it includes an output unit that outputs analysis information from the extraction unit,
Lane recognition system.
제 1 항에 따른 차선 인식 시스템을 포함하며,
상기 차선 인식 시스템의 정규화부에 의해, 2차원 확률맵을 행 단위로 정규화하는 정규화; 및
상기 정규화의 결과값으로부터 확률 밀도 함수의 키포인트를 추출하는 추출 단계;를 포함하는 것을 특징으로 하는,
차선 인식 방법.
Including a lane recognition system according to paragraph 1,
Normalization of the two-dimensional probability map row by row by the normalization unit of the lane recognition system; and
An extraction step of extracting key points of the probability density function from the normalization result,
Lane recognition method.
제 2 항에 있어서,
상기 정규화는,
입력된 이미지를 2차원 확률맵으로 출력하는 세그맨테이션 네트워크를 더 포함하는 것을 특징으로 하는,
차선 인식 방법.
According to claim 2,
The normalization is,
Characterized in that it further includes a segmentation network that outputs the input image as a two-dimensional probability map.
Lane recognition method.
제 2 항에 있어서,
상기 추출 단계는,
커널 밀도 추정을 통해 확률 밀도 함수를 설정하는 단계를 더 포함하는 것을 특징으로 하는,
차선 인식 방법.
According to claim 2,
The extraction step is,
Characterized in that it further comprises the step of setting a probability density function through kernel density estimation,
Lane recognition method.
제 2 항에 있어서,
상기 추출 단계는,
상기 확률 밀도 함수의 극값을 키포인트로 추출하는 것을 특징으로 하는,
차선 인식 방법.
According to claim 2,
The extraction step is,
Characterized by extracting extreme values of the probability density function as key points,
Lane recognition method.
KR1020220162993A 2022-11-29 2022-11-29 The system for lane detection and the method for lane detection KR20240079755A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220162993A KR20240079755A (en) 2022-11-29 2022-11-29 The system for lane detection and the method for lane detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220162993A KR20240079755A (en) 2022-11-29 2022-11-29 The system for lane detection and the method for lane detection

Publications (1)

Publication Number Publication Date
KR20240079755A true KR20240079755A (en) 2024-06-05

Family

ID=91470690

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220162993A KR20240079755A (en) 2022-11-29 2022-11-29 The system for lane detection and the method for lane detection

Country Status (1)

Country Link
KR (1) KR20240079755A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102384797B1 (en) 2021-08-20 2022-04-11 국방과학연구소 Learning method based on segmentation labeling data and autonomous driving device using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102384797B1 (en) 2021-08-20 2022-04-11 국방과학연구소 Learning method based on segmentation labeling data and autonomous driving device using the same

Similar Documents

Publication Publication Date Title
US10915793B2 (en) Method and system for converting point cloud data for use with 2D convolutional neural networks
US11482014B2 (en) 3D auto-labeling with structural and physical constraints
CN111666921B (en) Vehicle control method, apparatus, computer device, and computer-readable storage medium
US11315266B2 (en) Self-supervised depth estimation method and system
US11734918B2 (en) Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus
US11074438B2 (en) Disentangling human dynamics for pedestrian locomotion forecasting with noisy supervision
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
CN111860227B (en) Method, apparatus and computer storage medium for training trajectory planning model
US11966234B2 (en) System and method for monocular depth estimation from semantic information
US11721065B2 (en) Monocular 3D vehicle modeling and auto-labeling using semantic keypoints
JP7135665B2 (en) VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM
US20230358533A1 (en) Instance segmentation imaging system
CN112654998B (en) Lane line detection method and device
US11321859B2 (en) Pixel-wise residual pose estimation for monocular depth estimation
CN117015792A (en) System and method for generating object detection tags for automated driving with concave image magnification
CN115147328A (en) Three-dimensional target detection method and device
CN117808689A (en) Depth complement method based on fusion of millimeter wave radar and camera
Wang et al. 3D-LIDAR based branch estimation and intersection location for autonomous vehicles
Chougula et al. Road segmentation for autonomous vehicle: A review
KR20240079755A (en) The system for lane detection and the method for lane detection
Hu et al. Localization in aerial imagery with grid maps using LocGAN
US20230342944A1 (en) System and Method for Motion Prediction in Autonomous Driving
US20240202533A1 (en) Generating artificial video with changed domain
Bhatia et al. Road Image Segmentation for Autonomous Car
Ghintab et al. Localization for self-driving vehicles based on deep learning networks and RGB cameras