KR20230074884A - Apparatus for classifying lane occupancy situation and method thereof - Google Patents

Apparatus for classifying lane occupancy situation and method thereof Download PDF

Info

Publication number
KR20230074884A
KR20230074884A KR1020210160934A KR20210160934A KR20230074884A KR 20230074884 A KR20230074884 A KR 20230074884A KR 1020210160934 A KR1020210160934 A KR 1020210160934A KR 20210160934 A KR20210160934 A KR 20210160934A KR 20230074884 A KR20230074884 A KR 20230074884A
Authority
KR
South Korea
Prior art keywords
lane
point data
occupancy situation
vehicle
information
Prior art date
Application number
KR1020210160934A
Other languages
Korean (ko)
Inventor
유재창
Original Assignee
주식회사 에이치엘클레무브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치엘클레무브 filed Critical 주식회사 에이치엘클레무브
Priority to KR1020210160934A priority Critical patent/KR20230074884A/en
Publication of KR20230074884A publication Critical patent/KR20230074884A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • B60W2510/202Steering torque
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an apparatus for classifying a lane occupancy situation and a method thereof. Provided is an apparatus for classifying a lane occupancy situation comprising: a radar module that generates radar point data for surrounding targets, generates a track based on the radar point data, and provides characteristic information of the radar point data within an area of interest including tracks located in at least one of a driver's own lane in front of a driver's own vehicle and the lanes on both sides; a pre-processing module that generates learning data by pre-processing characteristic information of the radar point data and driving information of the driver's own vehicle; and a deep neural network that constructs a lane occupancy situation classification model by performing learning using the learning data to classify the occupancy situation of the driver's own lane in front of the driver's own vehicle and the lanes on both sides according to a plurality of lane occupancy situation classes and classifies a lane occupancy situation by using the lane occupancy situation classification model. More accurate information for the vehicles in front may be provided.

Description

차선 점유 상황 분류 장치 및 그 방법{APPARATUS FOR CLASSIFYING LANE OCCUPANCY SITUATION AND METHOD THEREOF}Apparatus and method for classifying lane occupancy situations {APPARATUS FOR CLASSIFYING LANE OCCUPANCY SITUATION AND METHOD THEREOF}

본 실시예들은 차선 점유 상황 분류 장치 및 그 방법에 관한 것이다.The present embodiments relate to an apparatus and method for classifying a lane occupancy situation.

최근, 안전과 운전자 편의에 대한 관심이 높아지면서 다양한 차량 안전 및 편의 기술이 개발되고 있다. 일 예로, 전방 차량을 감지하고 감지된 전방 차량을 자동으로 추종하여 주행하도록 하는 스마트 크루즈 기술, 자동 주행 기술 및 자동 긴급 정지 기술 등의 다양한 기술이 개발되고 있다.Recently, as interest in safety and driver convenience increases, various vehicle safety and convenience technologies are being developed. For example, various technologies such as smart cruise technology, automatic driving technology, and automatic emergency stop technology that detects a vehicle in front and automatically follows and drives the vehicle in front are being developed.

이러한 기술들의 실현을 위하여 차량에 카메라, 라이다(LiDAR) 및 레이더(LADAR) 등 다양한 센서를 장착하고 있다. 이 중에서 레이더는 라이다 및 카메라와 달리 기상 환경의 영향을 적게 받으며 근거리뿐만 아니라 원거리까지 차량 주변의 타겟을 안정적으로 측정할 수 있는 장점을 갖는다. To realize these technologies, vehicles are equipped with various sensors such as cameras, LiDAR, and LADAR. Among them, the radar is less affected by the weather environment, unlike lidar and cameras, and has the advantage of being able to stably measure targets around the vehicle not only at short distances but also at long distances.

본 실시예들은 차선 점유 상황 분류 장치 및 그 방법을 제공할 수 있다. The present embodiments may provide an apparatus and method for classifying a lane occupancy situation.

일 측면에서, 본 실시예들은 주변 타겟에 대한 레이더 포인트 데이터를 생성하고 레이더 포인트 데이터에 기초하여 트랙을 생성하며 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙을 포함하는 관심 영역 내의 레이더 포인트 데이터의 특성 정보를 제공하는 레이더 모듈; 상기 레이더 포인트 데이터의 특성 정보 및 자차량 주행 정보를 전처리하여 학습 데이터를 생성하는 전처리 모듈; 및 상기 학습 데이터를 이용하여 자차량 전방의 자차선 및 양 옆차선의 점유 상황을 복수의 차선 점유 상황 클래스로 분류하도록 학습하여 차선 점유 상황 분류 모델을 구축하고, 상기 차선 점유 상황 분류 모델을 이용하여 차선 점유 상황을 분류하는 심층 신경망;을 포함하는 것을 특징으로 하는 차선 점유 상황 분류 장치를 제공할 수 있다.In one aspect, the present embodiments generate radar point data for surrounding targets, generate a track based on the radar point data, and generate a region of interest including a track located in at least one of an own lane and both side lanes in front of the own vehicle. a radar module providing characteristic information of radar point data within; a pre-processing module generating learning data by pre-processing characteristic information of the radar point data and own vehicle driving information; and learning to classify the occupancy situation of the own lane and both side lanes in front of the own vehicle into a plurality of lane occupancy situation classes using the learning data to construct a lane occupancy situation classification model, and using the lane occupancy situation classification model An apparatus for classifying lane occupancy situations may be provided, comprising a deep neural network for classifying lane occupancy situations.

다른 측면에서, 본 실시예들은 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙을 포함하는 관심 영역 내의 레이더 포인트 데이터의 특성 정보, 그리고 자차량의 주행 정보를 획득하는 단계; 상기 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보를 전처리하여 학습 데이터를 생성하는 단계; 상기 학습 데이터를 심층 신경망에 입력하고 전방의 자차선 및 양 옆차선의 점유 상황을 복수의 차선 점유 상황 클래스 별로 분류하도록 학습시켜 차선 점유 상황 분류 모델을 구축하는 단계; 및 상기 차선 점유 상황 분류 모델을 이용하여 차선 점유 상황을 분류하는 단계;를 포함하는 것을 특징으로 하는 차선 점유 상황 분류 방법을 제공할 수 있다.In another aspect, the present embodiments provide the steps of acquiring characteristic information of radar point data in an area of interest including a track located in at least one of the own lane and both side lanes in front of the own vehicle, and driving information of the own vehicle; generating learning data by preprocessing characteristic information of the radar point data and driving information of the host vehicle; constructing a lane occupancy situation classification model by inputting the learning data into a deep neural network and learning to classify occupancy situations of the own lane and both side lanes in front by a plurality of lane occupancy situation classes; and classifying lane occupancy situations using the lane occupancy situation classification model.

본 실시예들에 의하면, 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보의 분포를 이용하여 전방의 차선 점유 상황을 분류하도록 심층 신경망을 학습시키고 학습된 심층 신경망을 이용하여 차선 점유 상황을 분류함으로써 전방의 차량에 대하여 보다 정확한 정보를 제공할 수 있다. According to the present embodiments, the deep neural network is trained to classify the lane occupancy situation in front using the distribution of the driving information of the own vehicle and the characteristic information of the radar point data, and the lane occupancy situation is classified using the learned deep neural network. More accurate information about the vehicle in front can be provided.

도 1은 본 개시에 따른 차선 점유 상황 분류 장치의 블록도이다.
도 2는 본 개시에 따라 레이더 포인트 데이터 및 트랙을 생성하는 실시예를 나타낸 도면이다.
도 3은 본 개시에 따라 학습 데이터를 생성하는 실시예를 나타낸 도면이다.
도 4는 본 개시에 따른 7가지 차선 점유 상황 클래스를 나타낸 도면이다.
도 5는 본 개시에 따른 차선 점유 상황 분류 모델의 일 예를 나타낸 도면이다.
도 6은 본 개시에 따른 차선 점유 상황 분류 방법을 나타낸 순서도이다.
도 7은 레이더 포인트 데이터의 특성 정보를 획득하는 과정을 나타낸 순서도이다.
도 8은 본 개시에 따른 심층 신경망을 이용한 차선 점유 상황 분류 과정을 개략적으로 나타낸 도면이다.
1 is a block diagram of an apparatus for classifying a lane occupancy situation according to the present disclosure.
2 is a diagram illustrating an embodiment of generating radar point data and tracks according to the present disclosure.
3 is a diagram illustrating an embodiment of generating learning data according to the present disclosure.
4 is a diagram illustrating seven lane occupancy situation classes according to the present disclosure.
5 is a diagram illustrating an example of a lane occupancy situation classification model according to the present disclosure.
6 is a flowchart illustrating a method for classifying lane occupancy situations according to the present disclosure.
7 is a flowchart illustrating a process of obtaining characteristic information of radar point data.
8 is a diagram schematically illustrating a process of classifying a lane occupancy situation using a deep neural network according to the present disclosure.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다.DETAILED DESCRIPTION Some embodiments of the present disclosure are described in detail below with reference to exemplary drawings. In adding reference numerals to components of each drawing, the same components may have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing the present embodiments, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present technical idea, the detailed description may be omitted. When "comprises", "has", "consists of", etc. mentioned in this specification is used, other parts may be added unless "only" is used. In the case where a component is expressed in the singular, it may include the case of including the plural unless otherwise explicitly stated.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. Also, terms such as first, second, A, B, (a), and (b) may be used in describing the components of the present disclosure. These terms are only used to distinguish the component from other components, and the nature, sequence, order, or number of the corresponding component is not limited by the term.

구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. In the description of the positional relationship of components, when it is described that two or more components are "connected", "coupled" or "connected", the two or more components are directly "connected", "coupled" or "connected". ", but it will be understood that two or more components and other components may be further "interposed" and "connected", "coupled" or "connected". Here, other components may be included in one or more of two or more components that are “connected”, “coupled” or “connected” to each other.

구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다.In the description of the temporal flow relationship related to components, operation methods, production methods, etc., for example, "after", "continued to", "after", "before", etc. Alternatively, when a flow sequence relationship is described, it may also include non-continuous cases unless “immediately” or “directly” is used.

한편, 구성 요소에 대한 수치 또는 그 대응 정보(예: 레벨 등)가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인(예: 공정상의 요인, 내부 또는 외부 충격, 노이즈 등)에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다.On the other hand, when a numerical value or corresponding information (eg, level, etc.) for a component is mentioned, even if there is no separate explicit description, the numerical value or its corresponding information is not indicated by various factors (eg, process factors, internal or external shocks, noise, etc.) may be interpreted as including an error range that may occur.

본 개시에서, 차량은 자동차, 오토바이 등을 포함하는 개념일 수 있다. 또한, 차량은 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.In the present disclosure, a vehicle may be a concept including a car, a motorcycle, and the like. In addition, the vehicle may be a concept including all of an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source. Hereinafter, vehicles will be mainly described with respect to vehicles.

이하의 설명에서 전방은 차량의 전진 주행 방향을 의미하고, 후방은 차량의 후진 주행 방향을 의미한다. 또한, 자차선은 자차량이 위치하는 차선을 의미하고, 양 옆차선은 자차선의 좌우 차선을 의미한다. In the following description, front means a forward driving direction of the vehicle, and rear means a backward driving direction of the vehicle. In addition, the own lane means the lane where the own vehicle is located, and both side lanes mean the left and right lanes of the own lane.

본 개시에서, 타겟은 자차량 주위의 다른 차량이나 사람 등의 이동 물체나 차량 주변의 인프라 시설 등을 포괄하는 물체를 의미한다. 타겟은 객체와 혼용될 수 있으며, 객체 중 차량의 제어에 이용될 수 있는 객체의 의미로 사용될 수 있다.In the present disclosure, a target refers to a moving object such as another vehicle or a person around the vehicle or an object including infrastructure facilities around the vehicle. A target may be used interchangeably with an object, and may be used as a meaning of an object that can be used to control a vehicle among objects.

이하에서는, 첨부된 도면을 참조하여 본 개시의 실시예들에 따른 차선 점유 상황 분류 장치 및 그 방법을 설명한다.Hereinafter, an apparatus and method for classifying a lane occupancy situation according to embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시에 따른 차선 점유 상황 분류 장치의 블록도이다.1 is a block diagram of an apparatus for classifying a lane occupancy situation according to the present disclosure.

도 1을 참조하면, 본 개시에 따른 차선 점유 상황 분류 장치는, 주변 타겟(target)에 대한 레이더 포인트 데이터를 생성하고 레이더 포인트 데이터에 기초하여 트랙을 생성하며 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙을 포함하는 관심 영역 내의 레이더 포인트 데이터의 특성 정보를 제공하는 레이더 모듈(10)과, 레이더 포인트 데이터의 특성 정보 및 자차량 주행 정보를 전처리하여 학습 데이터를 생성하는 전처리 모듈(20)과, 학습 데이터를 이용하여 자차량 전방의 자차선 및 양 옆차선의 점유 상황을 복수의 차선 점유 상황 클래스로 분류하도록 학습하여 차선 점유 상황 분류 모델을 구축하고 차선 점유 상황 분류 모델을 이용하여 차선 점유 상황을 분류하는 심층 신경망(30)을 포함할 수 있다.Referring to FIG. 1 , an apparatus for classifying a lane occupancy situation according to the present disclosure generates radar point data for a surrounding target, generates a track based on the radar point data, and generates an own lane and both side lanes in front of the own vehicle. A radar module 10 providing characteristic information of radar point data in an area of interest including a track located on at least one of the , and a preprocessing module generating learning data by preprocessing characteristic information of the radar point data and vehicle driving information. (20), using the learning data, learn to classify the occupancy situation of the own lane and both side lanes in front of the own vehicle into a plurality of lane occupancy situation classes, construct a lane occupancy situation classification model, and use the lane occupancy situation classification model and a deep neural network 30 that classifies the lane occupancy situation.

구체적으로 살펴보면, 레이더 모듈(10)은 소정의 주기로 레이더 신호를 송신하고 타겟으로부터 반사된 신호를 수신하여 주변의 타겟을 스캔(scan)할 수 있다. 레이더 모듈(10)은 차량의 외부로 레이더 신호를 송신하는 적어도 하나의 송신 안테나와 차량 주변의 타겟으로부터 반사된 신호를 수신하는 적어도 하나의 수신 안테나를 포함할 수 있다. 레이더 모듈(10)은 주파수 변조 연속파(FMCW: Frequency Modulated Continuous Wave) 레이더일 수 있다. In detail, the radar module 10 may transmit radar signals at predetermined intervals and receive signals reflected from targets to scan surrounding targets. The radar module 10 may include at least one transmit antenna for transmitting a radar signal to the outside of the vehicle and at least one receive antenna for receiving a signal reflected from a target around the vehicle. The radar module 10 may be a frequency modulated continuous wave (FMCW) radar.

레이더 모듈(10)은 차량의 정면에 장착되는 전방 레이더 모듈, 차량의 후방에 장착되는 후방 레이더 모듈 및 차량의 각 측방에 장착되는 측방향 또는 측후방 레이더 모듈 중 적어도 하나를 포함할 수 있다. 본 개시는 전방 레이더 모듈에 적용되는 것이 바람직하다. The radar module 10 may include at least one of a front radar module mounted on the front of the vehicle, a rear radar module mounted on the rear of the vehicle, and a lateral or side-rear radar module mounted on each side of the vehicle. The present disclosure is preferably applied to a forward radar module.

레이더 모듈(10)은 송출된 레이더 신호가 타겟으로부터 반사된 신호를 수신하여 타겟에서 신호가 반사된 지점인 레이더 포인트 데이터를 생성하고, 레이더 포인트 데이터를 분석하여 레이더 포인트 데이터의 특성 정보를 검출할 수 있으며, 이를 위한 전자 제어 유닛(ECU) 또는 프로세서(processor)를 포함할 수 있다. 레이더 모듈(10)의 레이더 센서로부터 ECU로의 데이터 전송 또는 신호 통신은 적절한 차량 네트워크 버스 등과 같은 통신 링크를 이용할 수 있다. The radar module 10 receives a signal from which the transmitted radar signal is reflected from the target, generates radar point data, which is a point where the signal is reflected from the target, and analyzes the radar point data to detect characteristic information of the radar point data. and may include an electronic control unit (ECU) or processor for this purpose. Data transfer or signal communication from the radar sensor of the radar module 10 to the ECU may utilize a communication link, such as a suitable vehicle network bus or the like.

레이더 모듈(10)은 레이더 포인트 데이터를 기초로 트랙(track)을 생성하고, 트랙의 속도 정보 및 트랙의 위치 정보를 검출할 수 있다. 또한, 레이더 모듈(10)은 트랙의 속도 정보를 토대로 트랙이 정지 상태인지 여부를 판단할 수 있고, 트랙의 위치 정보를 토대로 트랙이 자차량 전방의 자차선 및 좌우 양 옆차선의 적어도 하나에 위치하는지 여부를 판단할 수 있다. 일 실시예에서, 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙을 횡분해능 필요 트랙으로 정의할 수 있다. 다른 실시예에서, 정지 상태이면서 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙을 횡분해능 필요 트랙으로 정의할 수 있다. The radar module 10 may generate a track based on radar point data and detect speed information of the track and location information of the track. In addition, the radar module 10 may determine whether the track is in a stationary state based on the speed information of the track, and based on the location information of the track, the track is located in at least one of the own lane and the left and right side lanes in front of the own vehicle. You can judge whether or not to do it. In one embodiment, a track located in at least one of the own lane and both side lanes in front of the own vehicle may be defined as a track requiring lateral resolution. In another embodiment, a track in a stationary state and located in at least one of the own lane and both side lanes in front of the own vehicle may be defined as a track requiring lateral resolution.

레이더 모듈(10)은 횡분해능 필요 트랙을 포함한 관심 영역(Region Of Interest) 내의 레이더 포인트 데이터의 특성 정보를 검출하고 이를 전처리 모듈(20)에 제공할 수 있다. 여기서, 레이더 포인트 데이터의 특성 정보는 레이더 포인트 데이터의 거리 정보 및 방위각 정보를 포함할 수 있다.The radar module 10 may detect characteristic information of radar point data within a region of interest including a track requiring lateral resolution and provide the detected information to the preprocessing module 20 . Here, the characteristic information of the radar point data may include distance information and azimuth information of the radar point data.

일 실시예에 따른 차선 점유 상황 분류 장치는, 주행 정보 센싱 모듈(40)을 더 포함할 수 있다. 주행 정보 센싱 모듈(40)은 자차량의 주행 정보를 센싱할 수 있다. The lane occupancy situation classification apparatus according to an embodiment may further include a driving information sensing module 40 . The driving information sensing module 40 may sense driving information of the host vehicle.

주행 정보는, 예를 들어 조향 토크, 조향 각도, 조항 모터 정보, 차속, 차량 움직임 정보, 차량 자세 정보 등의 적어도 하나를 포함할 수 있고, 주행 정보 센싱 모듈(40)은 조향 토크를 센싱하기 위한 토크 센서, 조향 각도를 센싱하기 위한 조향각 센서, 조향 모터에 대한 정보를 센싱하는 모터 위치 센서, 차속 센서, 차량의 움직임을 센싱하는 차량 움직임 감지 센서, 차량 자세 감지 센서 등의 적어도 하나를 포함할 수 있다. 이 외에도, 주행 정보 센싱 모듈(40)은 자차량 내부의 다양한 데이터를 센싱하기 위한 센서를 의미할 수도 있다.The driving information may include, for example, at least one of steering torque, steering angle, provisional motor information, vehicle speed, vehicle motion information, and vehicle attitude information, and the driving information sensing module 40 is configured to sense the steering torque. It may include at least one of a torque sensor, a steering angle sensor for sensing a steering angle, a motor position sensor for sensing information about a steering motor, a vehicle speed sensor, a vehicle motion detection sensor for sensing the movement of a vehicle, and a vehicle posture detection sensor. there is. In addition to this, the driving information sensing module 40 may mean a sensor for sensing various data inside the vehicle.

전처리 모듈(20)은 레이더 모듈(10)로부터 제공되는 레이더 포인트 데이터의 특성 정보, 그리고 주행 정보 센싱 모듈(40)로부터 제공되는 자차량의 주행 정보를 전처리하여 학습 데이터를 생성할 수 있다. The preprocessing module 20 may generate learning data by preprocessing characteristic information of radar point data provided from the radar module 10 and driving information of the host vehicle provided from the driving information sensing module 40 .

심층 신경망(30)은 학습 데이터를 이용하여 자차량 전방의 자차선 및 좌우 양 옆차선의 점유 상황을 7가지 차선 점유 상황 클래스로 분류하도록 학습하여 차선 점유 상황 분류 모델을 구축하고, 차선 점유 상황 분류 모델을 이용하여 차선 점유 상황을 분류할 수 있다. 7가지 차선 점유 상황 클래스에 대해서는 도 4를 참조로 후술할 것이다. The deep neural network 30 learns to classify the occupancy situations of the own lane and the left and right lanes in front of the own vehicle into 7 lane occupancy situation classes using the learning data, builds a lane occupancy situation classification model, and classifies the lane occupancy situation Lane occupancy situations can be classified using the model. Seven lane occupancy situation classes will be described later with reference to FIG. 4 .

도 2는 본 개시에 따라 레이더 포인트 데이터 및 트랙을 생성하는 실시예를 나타낸 도면이다.2 is a diagram illustrating an embodiment of generating radar point data and tracks according to the present disclosure.

도 2를 참조하면, 본 개시에 따른 레이더 모듈(10)은 일정한 감지 영역(SR)을 통해 자차량(100)의 주변을 감지하고, 자차량(100)의 주변에 존재하는 타겟(210,220), 예를 들어 다른 차량을 검출할 수 있다. 여기서, 레이더 모듈(10)은 도 2에 도시된 바와 같이 자차량(100)의 전방에 장착될 수 있으나, 이에 한정되는 것은 아니다. Referring to FIG. 2 , the radar module 10 according to the present disclosure detects the surroundings of the own vehicle 100 through a certain detection area SR, and targets 210 and 220 present around the own vehicle 100, For example, it can detect other vehicles. Here, the radar module 10 may be mounted in front of the vehicle 100 as shown in FIG. 2, but is not limited thereto.

레이더 모듈(10)에서 송출된 레이더 신호가 감지 영역(SR) 내의 타겟들(210,220)에 도달하고 타겟들(210,220)에서 반사된 신호가 다시 레이더 모듈(10)에 수신되면, 타겟들(210,220)에서 신호가 반사된 지점인 레이더 포인트 데이터들(Pa,Pb)이 생성된다. When the radar signal transmitted from the radar module 10 reaches the targets 210 and 220 within the detection area SR and the signals reflected from the targets 210 and 220 are received by the radar module 10 again, the targets 210 and 220 Radar point data (Pa, Pb), which is a point where a signal is reflected at , are generated.

레이더 모듈(10)은 미리 설정된 게이트 사이즈(gate size) 내에 포함된 레이더 포인트 데이터들을 그룹화하고, 그룹화한 레이더 포인트 데이터들을 하나의 트랙으로 생성할 수 있다. 예를 들면, 레이더 모듈(10)은 전방의 좌측 차선에 위치하는 타겟(210)에 대응하는 레이더 포인트 데이터들(Pa)을 그룹화하여 Track#1을 생성하고, 전방의 자차선에 위치하는 타겟(220)에 대응하는 레이더 포인트 데이터들(Pb)을 그룹화하여 Track#2을 생성할 수 있다.The radar module 10 may group radar point data included in a preset gate size and generate the grouped radar point data as one track. For example, the radar module 10 groups radar point data (Pa) corresponding to the target 210 located in the left lane of the front to generate Track # 1, and the target located in the own lane of the front ( 220), Track#2 may be generated by grouping the radar point data Pb.

레이더 모듈(10)은 레이더 포인트 데이터들(Pa,Pb)의 속도 정보에 기초하여 트랙의 속도 정보를 검출할 수 있고, 트랙 속도 정보를 토대로 트랙이 정지 트랙인지 여부를 판단할 수 있다. 예시적으로, 자차량(100)이 정지 상태이고 트랙의 속도가 0인 경우 정지 트랙으로 판단할 수 있다. 다른 예시로, 자차량(100)이 이동 중이고 트랙의 속도가 자차량(100)의 이동 속도와 동일하고 부호만 반대인 경우 정지 트랙으로 판단할 수 있다. The radar module 10 may detect track speed information based on the speed information of the radar point data Pa and Pb, and determine whether the track is a stopped track based on the track speed information. Illustratively, when the host vehicle 100 is in a stopped state and the speed of the track is 0, it may be determined that the track is stopped. As another example, if the own vehicle 100 is moving and the speed of the track is the same as the moving speed of the own vehicle 100 and only the sign is opposite, it can be determined as a stopped track.

레이더 모듈(10)은 트랙의 위치 정보를 토대로 트랙이 자차량 전방의 자차선 및 좌우 양 옆차선의 적어도 하나에 위치하는지 여부를 판단할 수 있다. 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙은 횡분해능 필요 트랙으로 정의될 수 있다. 또는, 정지 상태이면서 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙은 횡분해능 필요 트랙으로 정의될 수 있다.The radar module 10 may determine whether the track is located in at least one of the own lane and left and right side lanes in front of the own vehicle based on the location information of the track. A track located in at least one of the own lane and both side lanes in front of the own vehicle may be defined as a track requiring lateral resolution. Alternatively, a track in a stationary state and located in at least one of the own lane and both side lanes in front of the own vehicle may be defined as a track requiring lateral resolution.

도 3은 본 개시에 따라 학습 데이터를 생성하는 실시예를 나타낸 도면이다.3 is a diagram illustrating an embodiment of generating learning data according to the present disclosure.

도 3을 참조하면, 레이더 모듈(10)은 소정의 주기로 주변을 스캔하며, 각 스캔마다 횡분해능 필요 트랙을 포함한 관심 영역(ROI) 내의 레이더 포인트 데이터의 특성 정보(Ladar Point Feature, LPF)를 추출하여 전처리 모듈(20)에 제공할 수 있다. Referring to FIG. 3, the radar module 10 scans the surroundings at a predetermined period, and extracts characteristic information (Ladar Point Feature, LPF) of radar point data within a region of interest (ROI) including a track requiring lateral resolution for each scan and can be provided to the preprocessing module 20.

레이더 포인트 데이터의 특성 정보(LPF)는 레이더 포인트 데이터들 각각의 거리 정보 및 방위각 정보를 포함할 수 있으며, 각 스캔에서 관심 영역(ROI) 내의 레이더 포인트 데이터들의 거리 정보 및 방위각 정보는 해당 스캔 시점에서 관심 영역(ROI) 내의 레이더 포인트 데이터들의 분포로 볼 수 있다. 레이더 포인트 데이터의 특성 정보(LPF)는 레이더 포인트 데이터 분포로 정의될 수도 있다.The characteristic information (LPF) of the radar point data may include distance information and azimuth information of each of the radar point data, and the distance information and azimuth information of the radar point data within the region of interest (ROI) in each scan may be obtained at a corresponding scan time point. It can be viewed as a distribution of radar point data within the region of interest (ROI). The characteristic information (LPF) of radar point data may be defined as a radar point data distribution.

주행 정보 센성 모듈(미도시)은 레이더 모듈(10)의 스캔 동작에 동기화되어 매 스캔마다 자차량의 주행 정보를 센싱하여 전처리 모듈(20)에 제공할 수 있다. The driving information sensing module (not shown) may be synchronized with the scanning operation of the radar module 10 to sense the driving information of the own vehicle at every scan and provide the same to the preprocessing module 20 .

전처리 모듈(20)은 레이더 모듈(10)로부터 레이더 포인트 데이터의 특성 정보(LPF)를 수신하고, 주행 정보 센성 모듈로부터 자차량의 주행 정보(Vehicle Info, VI)를 수신하여, 기설정 횟수(n회)의 스캔에서 횡분해능 필요 트랙이 유지되는 경우에, n회의 스캔에서 획득한 n개의 레이더 포인트 데이터의 특성 정보(LPF)와 n회의 스캔 시점에서 획득된 n개의 자차량 주행 정보(VI)를 전처리하여 시계열 학습 데이터(Pcd1, Pcd2,…,Pcdn)를 생성할 수 있다. The pre-processing module 20 receives the characteristic information (LPF) of the radar point data from the radar module 10 and receives the driving information (Vehicle Info, VI) of the host vehicle from the driving information sensing module, and receives the preset number of times (n When the track required for lateral resolution is maintained in the number of scans), the characteristic information (LPF) of n radar point data acquired in n number of scans and the n vehicle driving information (VI) obtained at the time point of n number of scans Time-series learning data (Pcd 1 , Pcd 2 ,..., Pcd n ) may be generated by pre-processing.

Pcdi는 i 번째 스캔에 대응하는 학습 데이터로, i번째 스캔에서 획득한 레이더 포인트 데이터의 특성 정보(LPF)와 i번째 스캔 시점에 주행 정보 센성 모듈에서 획득한 자차량 주행 정보(VI)를 포함할 수 있다.Pcd i is learning data corresponding to the i-th scan, and includes the characteristic information (LPF) of the radar point data obtained in the i-th scan and the own vehicle driving information (VI) obtained from the driving information sensing module at the time of the i-th scan. can do.

전처리는 각 스캔 별로 레이더 포인트 데이터의 특성 정보(LPF)와 자차량 주행 정보(VI)를 벡터화하는 과정을 포함할 수 있다. Pcdi는 i번째 스캔에서 획득한 레이더 포인트 데이터의 특성 정보(LPF)와 i번째 스캔 시점에 주행 정보 센성 모듈에서 획득한 자차량 주행 정보(VI)를 성분으로 하는 벡터로 표현될 수 있다.The pre-processing may include a process of vectorizing characteristic information (LPF) of radar point data and own vehicle driving information (VI) for each scan. Pcd i may be expressed as a vector including characteristic information (LPF) of radar point data obtained in the i-th scan and host vehicle driving information (VI) obtained from the driving information sensing module at the time of the i-th scan as components.

그 외에, 전처리는 정규화(normalization) 과정을 더 포함할 수도 있다. 정규화 과정을 통해 데이터의 스케일(scale)을 일정한 규칙에 따라 변형하면 심층 신경망(도 1의 30)이 데이터를 이용하기 쉽게 하는데 도움을 줄 수 있다. In addition, the preprocessing may further include a normalization process. If the scale of the data is transformed according to a certain rule through a normalization process, the deep neural network (30 in FIG. 1) can help to make the data easier to use.

도 4는 본 개시에 따른 7가지 차선 점유 상황을 나타낸 도면이다.4 is a diagram illustrating seven lane occupancy situations according to the present disclosure.

도 4를 참조하면, class #1 내지 class #7은 자차량(100)이 3개의 차선 중에서 중앙의 차선에 위치하고 있을 때, 전방의 자차선 및 좌우 양 옆차선이 타 차량(200)에 의해 점유되는 상황을 케이스 별로 나타낸다. Referring to FIG. 4 , in class #1 to class #7, when the own vehicle 100 is located in the middle lane among three lanes, the front own lane and left and right side lanes are occupied by other vehicles 200 Indicates the situation on a case-by-case basis.

본 개시에서 차선 점유 상황은 class #1 내지 class #7의 7가지로 분류하였다. 이하에서, class #1 내지 class #7를 차선 점유 상황 클래스라고 정의할 것이다. In the present disclosure, lane occupancy situations are classified into seven types of class #1 to class #7. Hereinafter, class #1 to class #7 will be defined as lane occupancy situation classes.

class #1은 전방의 자차선 및 양 옆차선이 모두 타 차량(200)에 의해 점유된 상황을 나타내고, class #2는 전방의 자차선 및 좌측 차선이 타 차량(200)에 의해 점유되고 우측 차선은 비어있는 상황을 나타낸다. class #3은 전방의 자차선 및 우측 차선이 타 차량(200)에 의해 점유되고 좌측 차선은 비어있는 상황을 나타내고, class #4는 전방의 좌측 차선 및 우측 차선이 타 차량(200)에 의해 점유되고 자차선은 비어 있는 상황을 나타낸다.Class #1 represents a situation in which both the own lane and both side lanes in front are occupied by another vehicle 200, and in class #2, the own lane and left lane in front are occupied by other vehicles 200 and the right lane indicates an empty situation. Class #3 represents a situation where the own lane and the right lane in front are occupied by other vehicles 200 and the left lane is empty, and class #4 indicates that the left and right lanes in front are occupied by other vehicles 200 and the own lane represents an empty situation.

그리고, class #5, class #6, class #7은 각각 전방의 좌측 차선만 타 차량(200)에 의해 점유된 상황, 전방의 자차선만 타 차량(200)에 의해 점유된 상황, 전방의 우측 차선만 타 차량(200)에 의해 점유된 상황을 나타낸다.And, in class #5, class #6, and class #7, only the front left lane is occupied by another vehicle 200, only the front own lane is occupied by another vehicle 200, and the front right lane is occupied by another vehicle 200. This indicates a situation in which only the lane is occupied by another vehicle 200 .

도 5는 본 개시에 따른 차선 점유 상황 분류 모델의 일 예를 나타낸 도면이다.5 is a diagram illustrating an example of a lane occupancy situation classification model according to the present disclosure.

도 5를 참조하면, 차선 점유 상황 분류 모델은 전처리 모듈(20)로부터 제공되는 시계열 학습 데이터(Pcd1, Pcd2,…,Pcdn)를 이용하여 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보와 차선 점유 상황 클래스들 사이의 특성을 학습하는 양방향 LSTM(Long Short-Term Memory) 모듈(310)과, 양방향 LSTM 모듈(310)에서 출력되는 특성값들을 융합하여 차선 점유 상황 클래스 별로 특성값을 도출하는 완전 연결 레이어(Fully Connected layer, 330)와, 차선 점유 상황 클래스 별 특성값을 이용하여 차선 점유 상황 클래스 별로 확률값을 생성하는 소프트맥스 레이어(softmax layer, 340)를 포함하여 구성될 수 있다. 그 외에, 심층 신경망(30)은 양방향 LSTM 모듈(310)과 완전 연결 레이어(330) 사이의 연접 및 평탄화 레이어(Concatenate & Flatten, 320)를 더 포함할 수 있다. Referring to FIG. 5 , the lane occupancy situation classification model uses time-series learning data (Pcd 1 , Pcd 2 , ..., Pcd n ) provided from the preprocessing module 20 to provide characteristic information of radar point data and driving information of the own vehicle. A bidirectional LSTM (Long Short-Term Memory) module 310 that learns characteristics between the lane occupancy situation classes and the characteristic values output from the bidirectional LSTM module 310 are fused to derive characteristic values for each lane occupancy situation class and a softmax layer 340 that generates a probability value for each lane occupancy situation class by using a characteristic value for each lane occupancy situation class. In addition, the deep neural network 30 may further include a concatenate & flatten layer 320 between the bidirectional LSTM module 310 and the fully connected layer 330 .

양방향 LSTM 모듈(310)은 n개의 순방향 LSTM 셀(F1 내지 Fn) 및 n개의 역방향 LSTM 셀(B1 내지 Bn)을 포함할 수 있다.Bidirectional LSTM module 310 may include n forward LSTM cells (F1 through Fn) and n backward LSTM cells (B1 through Bn).

n개의 순방향 LSTM 셀(F1 내지 Fn)은 n회의 스캔에 대응하는 n개의 학습 데이터(Pcd1, Pcd2,…,Pcdn)를 각각 입력으로 받으며, 서로 시간 순(정방향)으로 직렬 연결된다. n개의 역방향 LSTM 셀(B1 내지 Bn)은 n회의 스캔에 대응하는 n개의 학습 데이터(Pcd1, Pcd2,…,Pcdn)를 각각 입력으로 받으며, 서로 시간의 역순(역방향)으로 직렬 연결된다. i번째 스캔에 대응하는 학습 데이터(Pcdi)를 입력값으로 하는 순방향 LSTM 셀과 역방향 LSTM 셀은 쌍을 이루어, i번째 스캔에 대응하는 학습 데이터(Pcdi)의 특성값을 추출한다. The n forward LSTM cells (F1 to Fn) each receive as inputs n pieces of training data (Pcd 1 , Pcd 2 ,..., Pcd n ) corresponding to n scans, and are serially connected to each other in chronological order (forward direction). The n backward LSTM cells (B1 to Bn) receive as inputs n learning data (Pcd 1 , Pcd 2 ,..., Pcd n ) corresponding to n scans, and are serially connected to each other in the reverse order (reverse direction) of time. . A forward LSTM cell and a backward LSTM cell that take the learning data (Pcd i ) corresponding to the i-th scan as an input value are paired, and a feature value of the learning data (Pcd i ) corresponding to the i-th scan is extracted.

n개의 순방향 LSTM 셀(F1 내지 Fn) 중 첫 번째 순방향 LSTM 셀(F1)은 시계열 학습 데이터(Pcd1, Pcd2,…,Pcdn) 중 첫 번째 데이터인 Pcd1을 입력값으로 받아, 입력(input), 망각(forget), 출력(output) 게이트에 의해 데이터를 통과 혹은 버리는 작업을 수행하고, 이에 기반하여 최종적으로 은닉(hidden) 값을 만들어 메모리에 저장한다. 이후에 입력되는 데이터는 세 종류의 게이트를 거치는 것은 동일하지만, 이전 입력값으로 인해 생성된 은닉 값과 합쳐져서 다음 은닉 값을 결정한다. The first forward LSTM cell (F1) among n forward LSTM cells (F1 to Fn) receives Pcd 1 , which is the first data among time series learning data (Pcd 1 , Pcd 2 ,…, Pcd n ) as an input value, and inputs ( Passing or discarding data is performed by input, forget, and output gates, and based on this, a hidden value is finally created and stored in memory. The data input afterwards is the same as passing through the three types of gates, but the next hidden value is determined by combining with the hidden value generated by the previous input value.

n개의 역방향 LSTM 셀(B1 내지 Bn) 중 마지막 역방향 LSTM 셀(Bn)은 시계열 학습 데이터(Pcd1, Pcd2,…,Pcdn) 중 첫 번째 데이터인 Pcd1을 입력값으로 받아 입력, 망각, 출력 게이트에 의해 데이터를 통과 혹은 버리는 작업을 수행하고, 이에 기반하여 최종적으로 은닉 값을 만들어 메모리에 저장한다. 이후에 입력되는 데이터는 세 종류의 게이트를 거치는 것은 동일하지만, 이전 입력값으로 인해 생성된 은닉 값과 합쳐져서 다음 은닉 값을 결정한다.Among the n backward LSTM cells (B1 to Bn), the last backward LSTM cell (Bn) receives Pcd 1 , which is the first data among time series learning data (Pcd 1 , Pcd 2 ,…, Pcd n ), as an input value, and performs input, forget, Passing or discarding data is performed by the output gate, and based on this, a hidden value is finally created and stored in memory. The data input afterwards is the same as passing through the three types of gates, but the next hidden value is determined by combining with the hidden value generated by the previous input value.

순방향 LSTM 셀(F1 내지 Fn) 및 역방향 LSTM 셀(B1 내지 Bn) 각각은 시간 스텝 t에서 Pcdt과 이전 시간으로부터의 정보 ht-1을 이용하여, 아래 수학식 1과 같이 이후 은닉 값 ht을 산출한다.Each of the forward LSTM cells (F1 to Fn) and the backward LSTM cells (B1 to Bn) use Pcd t at time step t and information h t-1 from the previous time to obtain a later hidden value h t as shown in Equation 1 below. yields

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

Figure pat00006
Figure pat00006

여기서, σ는 시그모이드(sigmoid) 함수를 의미하며, W 및 b는 LSTM 셀 내 각 게이트(gate)에 해당하는 가중치 및 편향값을 나타낸다.Here, σ means a sigmoid function, and W and b indicate weight and bias values corresponding to each gate in the LSTM cell.

참고로, 기존의 단순 순환 신경망 모델은 그라디언트 소실 문제 등 입력값의 시퀀스 길이(Sequence Length)가 길 경우 과거 데이터를 기억하지 못하는 문제가 발생할 수 있기 때문에 n번의 스캔에 대응하는 긴 길이의 입력값이 존재하는 차선 점유 상황 예측에 적합하지 않다. For reference, the existing simple recurrent neural network model may have a problem of not remembering past data if the sequence length of the input value is long, such as a gradient loss problem, so a long input value corresponding to n scans Not suitable for predicting existing lane occupancy situations.

본 개시에서는 LSTM 셀을 활용하였다. 앞서 살펴본 바와 같이, LSTM 셀은 입력, 망각, 출력 게이트로 구성되어 있으며, 이를 통해 주어진 입력 데이터를 통과 또는 버리는 작업을 수행한다. 망각 게이트를 통해 필요한 경우 최근 데이터를 더 많이 버리고, 과거의 데이터를 더 기억하는 등의 작업을 수행함으로써, 순환 신경망 모델이 가지고 있는 그라디언트 소멸 문제를 해결할 수 있다.In this disclosure, an LSTM cell is utilized. As discussed above, an LSTM cell is composed of input, forget, and output gates, through which the given input data is passed or discarded. The gradient vanishing problem of the recurrent neural network model can be solved by performing operations such as discarding more recent data and memorizing more past data, if necessary, through the forgetting gate.

양방향 LSTM 모듈(310)의 학습 순서에 대해 살펴보면, 먼저 n개의 학습 데이터(Pcd1, Pcd2,…,Pcdn)가 시간 순으로 n개의 순방향 LSTM 셀(F1 내지 Fn)에 순차적으로 입력되어, 순방향 LSTM 셀(F1 내지 Fn)이 학습된다. 그리고, n개의 학습 데이터(Pcd1, Pcd2,…,Pcdn)가 시간의 역순으로 n개의 역방향 LSTM 셀(B1 내지 Bn)에 순차적으로 입력되어, 역방향 LSTM 셀(B1 내지 Bn)이 학습된다.Looking at the learning sequence of the bidirectional LSTM module 310, first, n learning data (Pcd 1 , Pcd 2 , ..., Pcd n ) are sequentially input to n forward LSTM cells (F1 to Fn) in chronological order, Forward LSTM cells (F1 to Fn) are learned. Then, n pieces of learning data (Pcd 1 , Pcd 2 , ..., Pcd n ) are sequentially input to n backward LSTM cells (B1 to Bn) in reverse order of time, and the backward LSTM cells (B1 to Bn) are learned. .

n개의 순방향 LSTM 셀(F1 내지 Fn)에서 출력되는 n개의 특성값과 n개의 역방향 LSTM 셀(B1 내지 Bn)에서 출력되는 n개의 특성값은 연접 및 평탄화 레이어(320)를 거쳐 2n개의 1차원 벡터 형태로 변환되어 완전 연결 레이어(330)의 입력으로 들어가게 된다.n feature values output from n forward LSTM cells (F1 to Fn) and n feature values output from n backward LSTM cells (B1 to Bn) pass through the concatenation and flattening layer 320 to obtain 2n one-dimensional vectors It is converted into a form and enters the input of the fully connected layer 330.

완전 연결 레이어(330)는 연접 및 평탄화 레이어(320)에서 출력되는 2n개의 특성값들을 융합하는 연산을 수행하여 7개의 차선 점유 상황 클래스(class #1 내지 class #7) 별 특성값을 도출한다. 완전 연결 레이어(330)는 2n개의 특성값들에 각각 대응하는 2n개의 입력 노드와, 7개의 차선 점유 상황 클래스(class #1 내지 class #7)에 각각 대응하는 7개의 출력 노드를 포함한다. The fully connected layer 330 derives characteristic values for each of the 7 lane occupancy situation classes (class #1 to class #7) by performing an operation of fusing 2n characteristic values output from the concatenation and flattening layer 320. The fully connected layer 330 includes 2n input nodes respectively corresponding to 2n characteristic values and 7 output nodes respectively corresponding to 7 lane occupancy situation classes (class #1 to class #7).

소프트맥스 레이어(340)는 완전 연결 레이어(330)에서 출력되는 특성값을 이용하여 7개의 차선 점유 상황 클래스(class #1 내지 class #7) 별로 확률값을 산출하고, 7개의 차선 점유 상황 클래스들 중 확률값이 가장 높은 클래스를 차선 점유 상황으로 분류한다. 소프트맥스 레이어(340)는 확률값을 토대로 각 클래스별로 오차값을 산출할 수 있다. 학습 과정에서 오차값이 작아지도록 양방향 LSTM 모듈(310) 및 완전 연결 레이어(330)의 가중치 및 편향값이 조정된다.The softmax layer 340 calculates probability values for each of the seven lane occupancy situation classes (class #1 to class #7) using the characteristic values output from the fully connected layer 330, and among the seven lane occupancy situation classes The class with the highest probability value is classified as a lane occupancy situation. The softmax layer 340 may calculate an error value for each class based on the probability value. In the learning process, weights and bias values of the bidirectional LSTM module 310 and the fully connected layer 330 are adjusted so that the error value is small.

도 6은 본 개시에 따른 차선 점유 상황 분류 방법을 나타낸 순서도이고, 도 7은 레이더 포인트 데이터의 특성 정보를 획득하는 과정을 나타낸 순서도이다. 6 is a flowchart illustrating a method for classifying lane occupancy situations according to the present disclosure, and FIG. 7 is a flowchart illustrating a process of obtaining characteristic information of radar point data.

도 6을 참조하면, 본 개시에 따른 차선 점유 상황 분류 방법은 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 정지 트랙을 포함하는 관심 영역 내의 레이더 포인트 데이터의 특성 정보, 그리고 자차량의 주행 정보를 획득하는 단계(S601); 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보를 전처리하여 학습 데이터를 생성하는 단계(S602); 학습된 심층 신경망을 이용하여 차선 점유 상황을 분류하는 단계(S603);를 포함할 수 있다.Referring to FIG. 6 , the lane occupancy situation classification method according to the present disclosure includes characteristic information of radar point data in an area of interest including a stop track located in at least one of the own lane in front of the own vehicle and both side lanes, and the own vehicle Obtaining driving information of (S601); generating learning data by pre-processing the characteristic information of the radar point data and the driving information of the own vehicle (S602); Classifying lane occupancy situations using the learned deep neural network (S603); may be included.

도 7을 참조로, 레이더 포인트 데이터의 특성 정보를 획득하는 과정을 보다 구체적으로 살펴보면 다음과 같다.Referring to FIG. 7 , a process of obtaining characteristic information of radar point data in more detail is as follows.

먼저, 레이더 모듈에서 레이더 신호를 송출하고 레이더 신호가 타겟에서 반사되어 레이더 모듈에 수신되면 레이더 모듈은 신호의 반사 지점에 해당하는 레이더 포인트 데이터들을 생성하고, 미리 설정된 게이트 사이즈 내에 포함된 레이더 포인트 데이터들을 그룹화하여 트랙을 생성한다(S701). First, when a radar signal is transmitted from the radar module and the radar signal is reflected from the target and received by the radar module, the radar module generates radar point data corresponding to the reflection point of the signal and collects the radar point data included in the preset gate size. A track is created by grouping (S701).

그 다음, 트랙의 속도 정보를 토대로 트랙이 정지 상태인지를 판단한다(S702).Then, based on the speed information of the track, it is determined whether the track is in a stopped state (S702).

단계 S702의 판단 결과, 트랙이 정지 상태가 아닌 것으로 판단되는 경우에는 단계 S701로 리턴하고, 트랙이 정지 상태로 판단되는 경우에는 단계 S703으로 진행한다. As a result of the judgment in step S702, if it is determined that the track is not in a stopped state, the process returns to step S701, and if it is determined that the track is in a stopped state, the process proceeds to step S703.

단계 S703에서는 트랙의 위치 정보를 토대로 트랙이 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는지를 판단한다. In step S703, it is determined whether the track is located in at least one of the own lane and both side lanes in front of the host vehicle based on the track location information.

단계 S703의 판단 결과, 트랙이 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하지 않는 것으로 판단되는 경우에는 단계 S701로 리턴하고, 트랙이 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 것으로 판단되는 경우에는 해당 트랙을 포함한 관심 영역 내의 레이더 포인트 데이터의 특성 정보를 추출한다. As a result of the determination in step S703, if it is determined that the track is not located in at least one of the front own lane and both side lanes, the process returns to step S701, and the track is located in at least one of the own lane and both side lanes. If it is determined to be true, characteristic information of radar point data within the region of interest including the corresponding track is extracted.

도 7의 실시예는 정지 상태의 타겟(차량)에 의한 차선 점유 상황을 분류하는 경우에 해당하는 것으로, 트랙이 정지 상태인지를 판단하는 단계를 포함한다. 다만, 이는 하나의 예시로 본 개시는 이동하는 타겟에도 적용 가능하다. 이러한 경우, 트랙이 정지 상태인지를 판단하는 단계는 생략 가능하다.The embodiment of FIG. 7 corresponds to a case of classifying a lane occupation situation by a target (vehicle) in a stationary state, and includes a step of determining whether a track is in a stationary state. However, this is just one example, and the present disclosure is also applicable to a moving target. In this case, the step of determining whether the track is in a stopped state can be omitted.

도 6을 다시 참조하면, 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보를 획득한 후에, 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보를 전처리하여 학습 데이터를 생성한다(S602).Referring to FIG. 6 again, after acquiring the characteristic information of the radar point data and the driving information of the own vehicle, the characteristic information of the radar point data and the driving information of the own vehicle are preprocessed to generate learning data (S602).

전처리는 기설정 횟수(n회)의 스캔에서 트랙이 유지되는 경우에 수행된다. 전처리는 각 스캔 별로 레이더 포인트 데이터의 특성 정보와 자차량 주행 정보를 벡터화하는 과정을 포함한다. 그 외에, 전처리는 정규화 과정을 더 포함할 수도 있다. 전처리를 통해 n회의 스캔에 대응하는 n개의 시계열 학습 데이터(도 5의 Pcd1, Pcd2,…,Pcdn)가 생성된다.Pre-processing is performed when a track is maintained in a preset number of scans (n times). The preprocessing includes a process of vectorizing characteristic information of radar point data and vehicle driving information for each scan. In addition, the preprocessing may further include a normalization process. Through preprocessing, n time-series learning data (Pcd 1 , Pcd 2 , ..., Pcd n in FIG. 5 ) corresponding to n scans are generated.

학습 데이터를 이용하여 전방의 차선 점유 상황을 분류하도록 심층 신경망을 학습시키어 차선 점유 상황 분류 모델을 구축한다. A lane-occupying situation classification model is built by training a deep neural network to classify lane-occupying situations ahead using the learning data.

이후, 학습된 심층 신경망에 학습 데이터를 입력하면 양방향 LSTM 모듈(도 5의 310)을 지나 계산된 특성값이 얻어지고, 이 특성값이 연접 및 플래튼 레이어(도 5의 320), 완전 연결 레이어(도 5의 330) 및 소프트맥스 레이어(도 5의 340)를 거쳐 7개의 차선 점유 상황 클래스(class #1 내지 class #7)에 각각 대응하는 확률값이 산출되며, 7개의 차선 점유 상황 클래스들 중 확률값이 가장 높은 클래스가 차선 점유 상황으로 분류된다(S603).Then, when training data is input to the trained deep neural network, the calculated feature value is obtained by passing through the bidirectional LSTM module (310 in FIG. Probability values corresponding to each of the seven lane occupancy situation classes (class #1 to class #7) are calculated through (330 in FIG. 5) and the softmax layer (340 in FIG. 5), and among the seven lane occupancy situation classes The class with the highest probability value is classified as a lane occupancy situation (S603).

도 8은 본 개시에 의한 심층 신경망을 이용한 차선 점유 상황 분류 과정을 개략적으로 나타낸 도면이다.8 is a diagram schematically illustrating a lane occupancy situation classification process using a deep neural network according to the present disclosure.

도 8을 참조하면, 본 개시에 따른 심층 신경망(30)의 입력값은 레이더 포인트 데이터의 특성 정보(거리 정보, 위치 정보) 및 자차량의 주행 정보를 포함하며, 심층 신경망(30)은 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보의 분포를 토대로 차선 점유 상황을 7가지 차선 점유 상황 클랙스의 하나로 분류하여, 그 결과를 출력한다. 도 8은 예시적으로 차선 점유 상황 분류 결과가 전방의 자차선 및 양 옆차선이 모두 다른 차량에 의해 점유된 것으로 출력된 경우를 나타낸다.Referring to FIG. 8 , input values of the deep neural network 30 according to the present disclosure include characteristic information (distance information, location information) of radar point data and driving information of the own vehicle, and the deep neural network 30 includes the radar point data. The lane occupancy situation is classified as one of seven lane occupancy situation classes based on the distribution of data characteristic information and driving information of the host vehicle, and the result is output. FIG. 8 illustratively illustrates a case in which the lane occupancy situation classification result is output as that both the own lane and both side lanes in front are occupied by other vehicles.

이하에서는, 본 개시에서 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보의 분포를 토대로 차선 점유 상황을 분류한 이유를 살펴본다.Hereinafter, the reason for classifying lane occupancy situations based on the distribution of characteristic information of radar point data and driving information of the own vehicle in the present disclosure will be described.

스마트 크루즈 기술, 자동 주행 기술 및 자동 긴급 정지 기술 등의 신뢰도를 높이기 위해서는 전방의 타겟(차량)들에 대한 정확한 정보가 요구된다. 공지된 타겟 식별 방법의 하나로, 레이더 모듈을 이용하여 트랙의 특성 정보(이동 방향 및 속도)를 추정하고 특성 정보가 동일한 것으로 추정되는 트랙들을 클러스팅(clusting)하여 전방 타겟을 식별하는 방법이 알려져 있다. 그러나, 전방의 차량들이 나란히 정차 중이거나 나란히 주행 중인 경우와 같이 차량들간 속도 차이가 없는 경우에는 차량들간 구별이 어려워 정확한 정보를 제공할 수 없었다. 그리고, 레이더 모듈의 하드웨어적 한계, 레이더 신호 특성의 한계 등으로 인하여 추정한 트랙 특성 정보가 부정확하거나 BEV(Bird Eye View)가 나타나지 않는 경우에도 전방 차량에 대하여 정확한 정보를 제공할 수 없었다.In order to increase the reliability of smart cruise technology, automatic driving technology, and automatic emergency stop technology, accurate information about targets (vehicles) in front is required. As one of the known target identification methods, a method of estimating track characteristic information (moving direction and speed) using a radar module and identifying a forward target by clustering tracks estimated to have the same characteristic information is known. . However, when there is no difference in speed between the vehicles, such as when the vehicles in front are stopped side by side or are driving side by side, it is difficult to distinguish between vehicles and thus accurate information cannot be provided. In addition, even when the estimated track characteristic information is inaccurate or BEV (Bird Eye View) does not appear due to hardware limitations of the radar module, limitations of radar signal characteristics, etc., accurate information about the vehicle in front cannot be provided.

이상에서 설명한 바와 같이, 본 개시에 의하면 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보의 분포를 기초로 차선 점유 상황을 분류하도록 심층 신경망을 학습시키고 학습된 심층 신경망을 이용하여 차선 점유 상황을 분류하여 전방 차량들을 식별할 수 있으므로, 나란하게 위치하는 차량들에 대해서도 정확한 정보를 제공할 수 있다. 또한, 차량 인식에 트랙 특성 정보를 사용하지 않으므로 레이더 모듈의 하드웨어적 한계 및 레이더 신호 특성의 한계로 인한 인식 오류 문제도 해결할 수 있다. As described above, according to the present disclosure, a deep neural network is trained to classify a lane occupancy situation based on the distribution of driving information of the own vehicle and characteristic information of radar point data, and the lane occupancy situation is classified using the learned deep neural network. Therefore, it is possible to provide accurate information about vehicles located side by side. In addition, since the track characteristic information is not used for vehicle recognition, it is possible to solve the recognition error problem due to the hardware limitation of the radar module and the limitation of the radar signal characteristic.

이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 기술 사상의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 또한, 본 실시예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로 이러한 실시예에 의하여 본 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리 범위에 포함되는 것으로 해석되어야 할 것이다. The above description is merely illustrative of the technical idea of the present disclosure, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the technical idea. In addition, since the present embodiments are not intended to limit the technical idea of the present disclosure, but to explain, the scope of the present technical idea is not limited by these embodiments. The scope of protection of the present disclosure should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights of the present disclosure.

10: 레이더 모듈
20: 전처리 모듈
30: 심층 신경망
10: radar module
20: preprocessing module
30: deep neural network

Claims (9)

주변 타겟에 대한 레이더 포인트 데이터를 생성하고 레이더 포인트 데이터에 기초하여 트랙을 생성하며 자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙을 포함하는 관심 영역 내의 레이더 포인트 데이터의 특성 정보를 제공하는 레이더 모듈;
상기 레이더 포인트 데이터의 특성 정보 및 자차량 주행 정보를 전처리하여 학습 데이터를 생성하는 전처리 모듈; 및
상기 학습 데이터를 이용하여 자차량 전방의 자차선 및 양 옆차선의 점유 상황을 복수의 차선 점유 상황 클래스로 분류하도록 학습하여 차선 점유 상황 분류 모델을 구축하고, 상기 차선 점유 상황 분류 모델을 이용하여 차선 점유 상황을 분류하는 심층 신경망;
을 포함하는 것을 특징으로 하는 차선 점유 상황 분류 장치.
Generates radar point data for surrounding targets, generates a track based on the radar point data, and generates characteristic information of the radar point data in an area of interest including a track located in at least one of the own lane and both side lanes in front of the own vehicle. Radar module provided;
a pre-processing module generating learning data by pre-processing characteristic information of the radar point data and own vehicle driving information; and
A lane occupancy situation classification model is built by learning to classify the occupancy situation of the own lane and both side lanes in front of the own vehicle into a plurality of lane occupancy situation classes using the learning data, and the lane occupancy situation classification model is used deep neural networks that classify occupancy situations;
Lane occupancy situation classifying device comprising a.
제1항에 있어서,
상기 레이더 포인트 데이터의 특성 정보는 거리 정보 및 방위각 정보를 포함하는 것을 특징으로 하는 차선 점유 상황 분류 장치.
According to claim 1,
Characteristic information of the radar point data includes distance information and azimuth information.
제1항에 있어서,
상기 자차량의 주행 정보는 조향 토크, 조향 각도, 조항 모터 정보, 차속, 차량 움직임 정보, 차량 자세 정보의 적어도 하나를 포함하는 것을 특징으로 하는 차선 점유 상황 분류 장치.
According to claim 1,
The driving information of the own vehicle includes at least one of steering torque, steering angle, steering motor information, vehicle speed, vehicle motion information, and vehicle attitude information.
제1항에 있어서,
상기 레이더 모듈은 소정의 주기로 주변의 타겟을 스캔하여 레이더 포인트 데이터를 생성하며,
상기 전처리 모듈은 상기 레이더 모듈이 기설정된 n회의 스캔을 하는 동안 상기 트랙이 유지되는 경우에, n회의 스캔에서 획득한 n개의 레이더 포인트 데이터의 특성 정보와 n회의 스캔 시점에서 획득한 차량 주행 정보를 전처리하도록 구성된 것을 특징으로 하는 차선 점유 상황 분류 장치.
According to claim 1,
The radar module scans surrounding targets at a predetermined period to generate radar point data;
When the track is maintained while the radar module performs preset n scans, the preprocessing module converts characteristic information of n radar point data obtained in n scans and vehicle driving information obtained at n scan time points. An apparatus for classifying a lane occupancy situation, characterized in that it is configured to preprocess.
제1항에 있어서,
상기 차선 점유 상황 분류 모델은
상기 레이더 포인트 데이터의 특성 정보 및 자차량 주행 정보와 복수의 차선 점유 상황 클래스들 사이의 특성을 학습하는 양방향 LSTM(Long Short-Term Memory) 모듈;
상기 양방향 LSTM 모듈에서 출력되는 특성값들을 융합하여 차선 점유 상황 클래스 별 특성값을 도출하는 완전 연결 레이어;및
상기 차선 점유 상황 클래스 별 특성값을 이용하여 상기 복수의 차선 점유 상황 클래스 별로 확률값을 생성하고 확률값이 가장 높은 차선 점유 상황 클래스를 차선 점유 상황으로 분류하는 소프트맥스 레이어;
를 포함하는 것을 특징으로 하는 차선 점유 상황 분류 장치.
According to claim 1,
The lane occupancy situation classification model is
a bidirectional Long Short-Term Memory (LSTM) module for learning characteristics between the characteristic information of the radar point data and the own vehicle driving information and a plurality of lane occupancy situation classes;
A fully connected layer for deriving a characteristic value for each lane occupancy situation class by fusing the characteristic values output from the bidirectional LSTM module; and
a softmax layer for generating a probability value for each of the plurality of lane occupancy situation classes by using the characteristic value for each lane occupancy situation class and classifying a lane occupancy situation class having the highest probability value as a lane occupancy situation;
Lane occupancy situation classifying device comprising a.
자차량 전방의 자차선 및 양 옆차선의 적어도 하나에 위치하는 트랙을 포함하는 관심 영역 내의 레이더 포인트 데이터의 특성 정보, 그리고 자차량의 주행 정보를 획득하는 단계;
상기 레이더 포인트 데이터의 특성 정보 및 자차량의 주행 정보를 전처리하여 학습 데이터를 생성하는 단계;
상기 학습 데이터를 심층 신경망에 입력하고 전방의 자차선 및 양 옆차선의 점유 상황을 복수의 차선 점유 상황 클래스 별로 분류하도록 학습시켜 차선 점유 상황 분류 모델을 구축하는 단계;및
상기 차선 점유 상황 분류 모델을 이용하여 차선 점유 상황을 분류하는 단계;를 포함하는 것을 특징으로 하는 차선 점유 상황 분류 방법.
obtaining characteristic information of radar point data in an area of interest including a track located in at least one of an own lane and both side lanes in front of the own vehicle, and driving information of the own vehicle;
generating learning data by preprocessing characteristic information of the radar point data and driving information of the host vehicle;
Constructing a lane occupancy situation classification model by inputting the learning data into a deep neural network and learning to classify occupancy situations of the own lane and both side lanes in front by a plurality of lane occupancy situation classes; and
and classifying lane occupancy situations using the lane occupancy situation classification model.
제6항에 있어서,
상기 레이더 포인트 데이터의 특성 정보는 거리 정보 및 방위각 정보를 포함하는 것을 특징으로 하는 차선 점유 상황 분류 방법.
According to claim 6,
The lane occupancy situation classification method, characterized in that the characteristic information of the radar point data includes distance information and azimuth information.
제6항에 있어서,
상기 전처리 단계는,
주변의 타겟을 스캔하여 레이더 포인트 데이터를 생성하는 레이더 모듈이 기설정된 n회의 스캔을 하는 동안 상기 트랙이 유지되는 경우에, n회의 스캔에서 획득한 n개의 레이더 포인트 데이터의 특성 정보와 n회의 스캔 시점에서 획득한 차량 주행 정보를 전처리하는 것을 특징으로 하는 차선 점유 상황 분류 장치.
According to claim 6,
In the preprocessing step,
When the track is maintained while a radar module generating radar point data by scanning surrounding targets performs preset n scans, characteristic information of n radar point data obtained in n scans and n scan time points An apparatus for classifying lane occupancy situations, characterized in that for pre-processing vehicle driving information obtained from
제6항에 있어서,
상기 레이더 포인트 데이터의 특성 정보를 획득하는 과정은,
레이더 모듈을 이용하여 주변의 타겟에 대한 레이더 포인트 데이터를 생성하고 레이더 포인트 데이터를 기초로 트랙을 생성하는 단계;
상기 트랙이 전방의 자차선 또는/및 양 옆차선에 위치하는지를 판단하는 단계; 및
전방의 자차선 또는/및 양 옆차선에 위치하는 트랙을 포함하는 관심 영역 내의 레이더 포인트 데이터의 거리 정보 및 방위각 정보를 획득하는 단계;
를 포함하는 것을 특징으로 하는 차선 점유 상황 분류 방법.
According to claim 6,
The process of obtaining characteristic information of the radar point data,
generating radar point data for nearby targets using a radar module and generating a track based on the radar point data;
determining whether the track is located in the front own lane or/and both side lanes; and
obtaining distance information and azimuth information of radar point data in an area of interest including tracks located in front own lanes and/or both side lanes;
Lane occupancy situation classification method comprising a.
KR1020210160934A 2021-11-22 2021-11-22 Apparatus for classifying lane occupancy situation and method thereof KR20230074884A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210160934A KR20230074884A (en) 2021-11-22 2021-11-22 Apparatus for classifying lane occupancy situation and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210160934A KR20230074884A (en) 2021-11-22 2021-11-22 Apparatus for classifying lane occupancy situation and method thereof

Publications (1)

Publication Number Publication Date
KR20230074884A true KR20230074884A (en) 2023-05-31

Family

ID=86542832

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210160934A KR20230074884A (en) 2021-11-22 2021-11-22 Apparatus for classifying lane occupancy situation and method thereof

Country Status (1)

Country Link
KR (1) KR20230074884A (en)

Similar Documents

Publication Publication Date Title
Liu et al. Robust target recognition and tracking of self-driving cars with radar and camera information fusion under severe weather conditions
CN107609522B (en) Information fusion vehicle detection system based on laser radar and machine vision
EP3447528B1 (en) Automated driving system that merges heterogenous sensor data
Aeberhard et al. High-level sensor data fusion architecture for vehicle surround environment perception
CN112693466A (en) System and method for evaluating performance of vehicle environment perception sensor
CN111907517B (en) Automatic parking control method and system, vehicle and field end edge cloud system
CN108780154A (en) The processing method of 3D point cloud
Chang et al. Onboard measurement and warning module for irregular vehicle behavior
García et al. Environment perception based on LIDAR sensors for real road applications
Gavrila et al. A multi-sensor approach for the protection of vulnerable traffic participants the PROTECTOR project
KR102557620B1 (en) Radar apparatus and method for classifying object
CN114495064A (en) Monocular depth estimation-based vehicle surrounding obstacle early warning method
CN115257784A (en) Vehicle-road cooperative system based on 4D millimeter wave radar
US12092734B2 (en) Partially-learned model for speed estimates in radar tracking
CN115629375A (en) Improving accuracy of radar data predictions using vehicle-to-vehicle technology
JP2021012133A (en) Distance measuring device, information processing apparatus, distance measuring method, on-vehicle device, movable body, and distance measuring system
US20240103132A1 (en) Radar apparatus and method for classifying object
CN113792598A (en) Vehicle-mounted camera-based vehicle collision prediction system and method
US11983918B2 (en) Platform for perception system development for automated driving system
CN110095776B (en) Method for determining the presence and/or the characteristics of an object and surrounding identification device
KR20230074884A (en) Apparatus for classifying lane occupancy situation and method thereof
KR102585557B1 (en) Apparatus and method for evaluating obstacle recognition performance of autonomous vehicle
Zeisler et al. Analysis of the performance of a laser scanner for predictive automotive applications
Yang et al. Data-Driven Confidence Model for ADAS Object Detection
US20230334692A1 (en) Device and method for tracking an object