KR102384797B1 - Learning method based on segmentation labeling data and autonomous driving device using the same - Google Patents

Learning method based on segmentation labeling data and autonomous driving device using the same Download PDF

Info

Publication number
KR102384797B1
KR102384797B1 KR1020210110112A KR20210110112A KR102384797B1 KR 102384797 B1 KR102384797 B1 KR 102384797B1 KR 1020210110112 A KR1020210110112 A KR 1020210110112A KR 20210110112 A KR20210110112 A KR 20210110112A KR 102384797 B1 KR102384797 B1 KR 102384797B1
Authority
KR
South Korea
Prior art keywords
location information
camera
image information
vehicle
unpaved road
Prior art date
Application number
KR1020210110112A
Other languages
Korean (ko)
Inventor
허지성
임형우
신영숙
전태윤
이상호
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020210110112A priority Critical patent/KR102384797B1/en
Application granted granted Critical
Publication of KR102384797B1 publication Critical patent/KR102384797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • G06N3/0454
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an autonomous driving technology by automatically performing segmentation labeling related to an unpaved road, by projecting location information, which is obtained through a navigation sensor, onto an image. In this case, a learning method for autonomous driving includes: obtaining data including image information and location information, which are obtained, while a vehicle including a camera and a navigation sensor drives on the unpaved road; performing the segmentation labeling related to the unpaved road, based on the location information obtained through the navigation sensor and the image information obtained through the camera; learning a first network related to a driving situation of the vehicle, based on data to which the segmentation labeling is reflected; and learning a second network related to controlling the vehicle, based on the driving situation of the vehicle.

Description

세그멘테이션 레이블링 데이터 기초한 학습 방법 및 이를 이용한 자율 주행 장치{LEARNING METHOD BASED ON SEGMENTATION LABELING DATA AND AUTONOMOUS DRIVING DEVICE USING THE SAME}A learning method based on segmentation labeling data and an autonomous driving device using the same

본 명세서의 실시 예는 항법 센서를 통해 획득한 위치 정보 및 카메라를 통해 획득한 이미지 정보에 기초하여 자동화된 세그멘테이션 레이블링된 데이터를 이용하는 자율 주행과 관련된 학습 방법 및 이를 이용한 자율 주행 장치에 관한 것이다.Embodiments of the present specification relate to a learning method related to autonomous driving using automated segmentation labeled data based on location information acquired through a navigation sensor and image information acquired through a camera, and an autonomous driving apparatus using the same.

자율 주행 기술은 미래에 유망한 기술로서, 신경망과 관련된 기술의 발전에 따라 자율 주행 기술 또한 빠르게 발전되고 있다. 자율 주행에서는 도로와 비도로를 구분하여 이에 따라 차량을 제어하는 것이 중요하다. 특히, 규격화된 포장 도로 보다도 규격화되지 않은 비포장 도로에서 차량을 제어하기 위해 이를 구분하는 것이 더욱 중요하지만, 비포장 도로에서 도로와 비도로를 구분하는 것은 포장 도로 보다 더욱 처리하기 어려운 문제가 있었다. 기존에는 주행 중 획득한 이미지들의 픽셀 별로 도로인지 비도로인지 사람이 수동으로 각각 구분한 레이블링 데이터에 기초하여 신경망을 지도 학습하였지만, 이와 같은 과정에서 상당히 많은 시간과 비용이 소모되는 문제가 있었다. 또한, 비포장 도로에서 군용 차량의 자율 주행이 임무 수행에 있어 더욱 중요한 요소로서, 현재 포장 도로에서의 자율 주행 기술은 비포장 도로에 적용하기 어려운 문제가 있었다. Autonomous driving technology is a promising technology in the future, and autonomous driving technology is also rapidly developing according to the development of neural network related technologies. In autonomous driving, it is important to distinguish between road and non-road and control the vehicle accordingly. In particular, it is more important to classify a vehicle on an unstandardized unpaved road than a standardized paved road, but there was a problem in that it was more difficult to handle than a paved road to distinguish a road from a non-road on an unpaved road. In the past, the neural network was supervised and learned based on the labeling data manually classified by a person on the road or off-road for each pixel of the images acquired while driving. In addition, autonomous driving of military vehicles on unpaved roads is a more important factor in performing missions, and there is a problem in that it is difficult to apply autonomous driving technology on unpaved roads to unpaved roads.

따라서, 자원을 효율적으로 이용하기 위해 비포장 도로에서 도로와 비도로를 구분하는 세그멘테이션 레이블링을 자동으로 수행할 수 있는 기술이 필요하다. Therefore, there is a need for a technology capable of automatically performing segmentation labeling for classifying a road and a non-road on an unpaved road in order to efficiently use resources.

본 명세서의 실시 예는 상술한 문제점을 해결하기 위하여 제안된 것으로 항법 센서를 통해 획득한 위치 정보 및 카메라를 통해 획득한 이미지 정보에 기초하여 자동화된 세그멘테이션 레이블링된 데이터를 이용하는 자율 주행과 관련된 학습 방법에 대한 기술에 관한 것이다. 본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시 예 들로부터 또 다른 기술적 과제들이 유추될 수 있다.An embodiment of the present specification is proposed to solve the above-described problem, and based on location information obtained through a navigation sensor and image information obtained through a camera, it is a learning method related to autonomous driving using automated segmentation labeled data. It's about technology. The technical problem to be achieved by this embodiment is not limited to the technical problems as described above, and other technical problems may be inferred from the following embodiments.

상술한 과제를 달성하기 위하여, 본 명세서의 일 실시 예에 따르는 자율 주행과 관련된 학습 방법은, 카메라와 항법 센서를 장착한 차량이 비포장 도로를 주행하면서 획득한 이미지 정보와 위치 정보를 포함하는 관련 데이터를 확인하는 단계; 상기 항법 센서를 통해 획득한 상기 위치 정보와 상기 카메라를 통해 획득한 상기 이미지 정보에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는 단계; 상기 세그멘테이션 레이블링이 반영된 데이터에 기초하여 상기 차량의 주행 상황과 관련된 제1 네트워크를 학습하는 단계; 및 상기 차량의 주행 상황에 기초하여 상기 차량의 제어와 관련된 제2 네트워크를 학습하는 단계를 포함할 수 있다.In order to achieve the above object, in a learning method related to autonomous driving according to an embodiment of the present specification, related data including image information and location information acquired while a vehicle equipped with a camera and a navigation sensor is driving on an unpaved road to confirm; performing segmentation labeling related to the unpaved road based on the location information obtained through the navigation sensor and the image information obtained through the camera; learning a first network related to the driving situation of the vehicle based on the data to which the segmentation labeling is reflected; and learning a second network related to the control of the vehicle based on the driving condition of the vehicle.

실시 예에 따르면, 상기 세그멘테이션 레이블링을 수행하는 단계는, 상기 카메라를 통해 획득한 i번째(i는 1 이상의 정수) 이미지 정보에 대응하는 상기 항법 센서를 통해 획득한 m개의(m은 1 이상의 정수) 위치 정보를 식별하는 단계; 상기 m개의 위치 정보에 기초하여 상기 차량의 주행 방향에 수직 방향에 대응하는 상기 비포장 도로의 경계선을 식별하는 단계; 및 상기 경계선에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는 단계를 포함할 수 있다.According to an embodiment, the performing of the segmentation labeling includes: m (m is an integer greater than or equal to 1) obtained through the navigation sensor corresponding to the i-th (i is an integer greater than or equal to 1) image information obtained through the camera. identifying location information; identifying a boundary line of the unpaved road corresponding to a direction perpendicular to the driving direction of the vehicle based on the m pieces of location information; and performing segmentation labeling related to the unpaved road based on the boundary line.

실시 예에 따르면, 상기 비포장 도로의 경계선을 식별하는 단계는, 상기 m개의 위치 정보에 기초하여 상기 비포장 도로의 왼쪽 경계선에 대응하는 적어도 하나의 위치 정보 L과 상기 비포장 도로의 오른쪽 경계선에 대응하는 적어도 하나의 위치 정보 R을 식별하는 단계; 및 상기 적어도 하나의 위치 정보 L과 상기 적어도 하나의 위치 정보 R에 기초하여 상기 비포장 도로의 경계선을 식별하는 단계를 포함할 수 있다.According to an embodiment, the step of identifying the boundary line of the unpaved road includes at least one piece of location information L corresponding to the left boundary line of the unpaved road and at least one corresponding to the right boundary line of the unpaved road based on the m pieces of location information. identifying one piece of location information R; and identifying a boundary line of the unpaved road based on the at least one piece of location information L and the at least one piece of location information R.

실시 예에 따르면, 상기 제1 네트워크를 학습하는 단계는, 상기 세그멘테이션 레이블링이 반영된 데이터에 기초한 지도 학습(supervised learning)에 따라 학습하는 단계를 포함할 수 있다.According to an embodiment, the learning of the first network may include learning according to supervised learning based on data to which the segmentation labeling is reflected.

실시 예에 따르면, 상기 제2 네트워크를 학습하는 단계는, 상기 비포장 도로를 주행하면서 획득한 관련 데이터로부터 상기 차량의 주행 상황에 따른 상기 차량의 제어 데이터를 확인하는 단계; 및 상기 제어 데이터에 기초하여 상기 제2 네트워크를 학습하는 단계를 포함할 수 있다.According to an embodiment, the learning of the second network may include: checking control data of the vehicle according to the driving condition of the vehicle from related data obtained while driving the unpaved road; and learning the second network based on the control data.

실시 예에 따르면, 상기 관련 데이터를 획득하는 단계는, 상기 항법 센서를 통해 획득한 위치 정보의 좌표를 기설정된 행렬을 이용하여 변환하는 단계를 포함할 수 있다.According to an embodiment, the acquiring of the related data may include transforming the coordinates of the location information acquired through the navigation sensor using a preset matrix.

실시 예에 따르면, 상기 관련 데이터를 획득하는 단계는, 상기 카메라의 초점 거리 및 상기 이미지 정보에 대한 크기 정보에 기초하여 상기 기설정된 행렬을 이용하여 변환된 위치 정보로부터 상기 이미지 정보 상의 좌표를 획득하는 단계를 더 포함할 수 있다.According to an embodiment, the obtaining of the related data may include obtaining coordinates on the image information from the position information converted using the preset matrix based on the focal length of the camera and the size information for the image information. It may include further steps.

실시 예에 따르면, 상기 기설정된 행렬은 상기 카메라가 향하는 방향을 나타내는 기설정된 벡터에 기초하여 결정되고, 상기 기설정된 벡터는 상기 차량의 위치 정보에 기초하여 결정되는 것을 특징으로 할 수 있다.According to an embodiment, the preset matrix may be determined based on a preset vector indicating a direction in which the camera faces, and the preset vector may be determined based on location information of the vehicle.

상술한 과제를 달성하기 위하여, 본 명세서의 일 실시 예에 따르는 비일시적 컴퓨터 판독 가능 저장 매체는, 컴퓨터 판독 가능 명령어들을 저장하도록 구성되는 매체를 포함하고, 상기 컴퓨터 판독 가능 명령어들은 프로세서에 의해 실행되는 경우 상기 프로세서가: 카메라와 항법 센서를 장착한 차량이 비포장 도로를 주행하면서 획득한 이미지 정보와 위치 정보를 포함하는 관련 데이터를 확인하는 단계; 상기 항법 센서를 통해 획득한 상기 위치 정보와 상기 카메라를 통해 획득한 상기 이미지 정보에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는 단계; 상기 세그멘테이션 레이블링이 반영된 데이터에 기초하여 상기 차량의 주행 상황과 관련된 제1 네트워크를 학습하는 단계; 및 상기 차량의 주행 상황에 기초하여 상기 차량의 제어와 관련된 제2 네트워크를 학습하는 단계를 포함하는 학습 방법을 수행할 수 있다.In order to achieve the above object, a non-transitory computer-readable storage medium according to an embodiment of the present specification includes a medium configured to store computer-readable instructions, wherein the computer-readable instructions are executed by a processor. In this case, the processor: checking related data including image information and location information acquired while driving a vehicle equipped with a camera and a navigation sensor while driving on an unpaved road; performing segmentation labeling related to the unpaved road based on the location information obtained through the navigation sensor and the image information obtained through the camera; learning a first network related to the driving situation of the vehicle based on the data to which the segmentation labeling is reflected; and learning a second network related to control of the vehicle based on the driving condition of the vehicle.

상술한 과제를 달성하기 위하여, 본 명세서의 일 실시 예에 따르는 자율 주행 장치는, 통신부; 메모리; 및 카메라와 항법 센서를 장착한 차량이 비포장 도로를 주행하면서 획득한 이미지 정보와 위치 정보를 포함하는 관련 데이터를 확인하고, 상기 항법 센서에서 획득된 상기 위치 정보와 상기 카메라에서 획득된 상기 이미지 정보에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하고, 상기 세그멘테이션 레이블링이 반영된 데이터에 기초하여 상기 차량의 주행 상황과 관련된 제1 네트워크를 학습시키고, 상기 차량의 주행 상황에 기초하여 상기 차량의 제어와 관련된 제2 네트워크를 학습시키는 제어부(controller)를 포함할 수 있다.In order to achieve the above object, an autonomous driving apparatus according to an embodiment of the present specification includes: a communication unit; Memory; and confirming related data including image information and location information obtained while a vehicle equipped with a camera and a navigation sensor is driving on an unpaved road, and adding the location information obtained from the navigation sensor and the image information obtained from the camera Perform segmentation labeling related to the unpaved road based on the segmentation labeling, learn a first network related to the driving situation of the vehicle based on the data reflected by the segmentation labeling, and control the vehicle based on the driving situation of the vehicle It may include a controller for learning the second network.

본 명세서의 실시 예에 따르면 아래와 같은 효과가 하나 혹은 그 이상 있다.According to an embodiment of the present specification, there are one or more of the following effects.

첫째, 항법 센서를 통해 획득한 위치 정보와 카메라를 통해 획득한 이미지 정보에 기초하여 세그멘테이션 레이블링 데이터를 자동으로 생성하여, 이에 기초하여 신경망을 지도 학습하여 많은 시간과 비용이 절약될 수 있다.First, segmentation labeling data is automatically generated based on location information obtained through a navigation sensor and image information obtained through a camera, and a lot of time and money can be saved by supervising a neural network based on this.

둘째, 지도 학습된 신경망을 이용하여 규격화되지 않은 비포장 도로에서 도로와 비도로의 구분과 관련하여 보다 특화된 성능을 나타낼 수 있다. Second, using the supervised neural network, it is possible to show more specialized performance in relation to the classification of roads and non-roads on non-standardized unpaved roads.

셋째, 차량의 주행 상황과 관련하여 학습된 신경망과 차량의 제어와 관련하여 학습된 신경망을 이용하여 비포장 도로에서 특화된 자율 주행 모델에 기초하여 차량을 제어할 수 있다.Third, a vehicle can be controlled based on a specialized autonomous driving model on an unpaved road using a neural network learned in relation to the driving situation of the vehicle and a neural network learned in relation to vehicle control.

넷째, 비포장 도로에서 군용 차량이 자율 주행을 하여 임무 수행함에 있어 보다 유용할 수 있다.Fourth, it may be more useful in performing missions by autonomous driving of military vehicles on unpaved roads.

실시 예의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the embodiments are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 일 실시 예에 따른 차량의 주행 중에 카메라를 통해 획득한 이미지 정보를 나타내는 도면이고, 도 2는 일 실시 예에 따른 차량의 주행 중에 항법 센서를 통해 획득한 위치 정보를 나타내는 도면이다.
도 3은 일 실시 예에 따른 카메라가 향하고 있는 방향에 대응하는 벡터를 설명하기 위한 도면이다.
도 4는 i번째 이미지 정보에 대응하는 m개의 위치 정보를 시각화한 일 실시 예에 따른 도면이다.
도 5는 세그멘테이션 레이블링을 위한 비포장 도로의 경계선을 식별하는 과정을 설명하는 일 실시 예에 따른 도면이고, 도 6은 세그멘테이션 레이블링이 반영된 이미지 정보를 나타내는 일 실시 예에 따른 도면이고, 도 7은 비포장 도로의 경계선을 식별하는 구체적인 과정을 설명하는 일 실시 예에 따른 도면이다.
도 8은 일 실시 예에 따른 제1 네트워크의 학습을 설명하기 위한 도면이다.
도 9은 일 실시 예에 따른 자율 주행과 관련된 학습 방법을 설명하기 위한 도면이다.
도 10는 일 실시 예에 따른 자율 주행 장치의 블록도를 나타낸다.
1 is a diagram illustrating image information acquired through a camera while driving a vehicle according to an embodiment, and FIG. 2 is a diagram illustrating location information acquired through a navigation sensor while driving a vehicle according to an embodiment.
3 is a diagram for describing a vector corresponding to a direction in which a camera is facing, according to an exemplary embodiment.
4 is a diagram according to an embodiment of visualizing m pieces of location information corresponding to i-th image information.
5 is a diagram illustrating a process of identifying a boundary line of an unpaved road for segmentation labeling, FIG. 6 is a diagram according to an embodiment showing image information in which segmentation labeling is reflected, and FIG. 7 is an unpaved road It is a diagram according to an embodiment for explaining a specific process of identifying a boundary line of
8 is a diagram for explaining learning of a first network according to an embodiment.
9 is a diagram for describing a learning method related to autonomous driving according to an exemplary embodiment.
10 is a block diagram of an autonomous driving apparatus according to an exemplary embodiment.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in the embodiments are selected as currently widely used general terms as possible while considering functions in the present disclosure, but may vary according to intentions or precedents of those of ordinary skill in the art, emergence of new technologies, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “~부”, “~모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part “includes” a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as “~ unit” and “~ module” described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

명세서 전체에서 기재된 “a, b, 및 c 중 적어도 하나”의 표현은, ‘a 단독’, ‘b 단독’, ‘c 단독’, ‘a 및 b’, ‘a 및 c’, ‘b 및 c’, 또는 ‘a,b,c 모두’를 포괄할 수 있다.The expression “at least one of a, b, and c” described throughout the specification is, 'a alone', 'b alone', 'c alone', 'a and b', 'a and c', 'b and c ', or 'all of a, b, and c'.

이하에서 언급되는 "단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication), CDMA(Code Division Multiple Access), W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 등의 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.The "terminal" referred to below may be implemented as a computer or a portable terminal capable of accessing a server or other terminal through a network. Here, the computer includes, for example, a laptop, a desktop, and a laptop equipped with a web browser, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , IMT (International Mobile Telecommunication), CDMA (Code Division Multiple Access), W-CDMA (W-Code Division Multiple Access), LTE (Long Term Evolution) and other communication-based terminals, smartphones, tablet PCs, etc. It may include a handheld-based wireless communication device.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 개시의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 일 실시 예에 따른 차량의 주행 중에 카메라를 통해 획득한 이미지 정보를 나타내는 도면이고, 도 2는 일 실시 예에 따른 차량의 주행 중에 항법 센서를 통해 획득한 위치 정보를 나타내는 도면이다.1 is a diagram illustrating image information acquired through a camera while driving a vehicle according to an exemplary embodiment, and FIG. 2 is a diagram illustrating location information obtained through a navigation sensor while driving a vehicle according to an exemplary embodiment.

카메라와 항법 센서를 장착한 차량은 비포장 도로를 주행하면서 관련 데이터를 획득할 수 있다. 예컨대, 도 1과 같이 카메라를 장착한 차량은 비포장 도로를 주행하면서 이미지 정보를 획득할 수 있고, 또한 도 2와 같이 항법 센서를 장착한 차량은 비포장 도로를 주행하면서 위치 정보를 획득할 수 있다. 이때, 항법 센서는 위성항법장치(GPS)와 관성항법장치(IMU)를 포함할 수 있고, GPS와 IMU를 상호보완적으로 모두 이용할 경우 비교적 오차가 작은 위치 정보를 획득할 수 있다. Vehicles equipped with cameras and navigation sensors can acquire relevant data while driving on unpaved roads. For example, a vehicle equipped with a camera as shown in FIG. 1 may acquire image information while driving on an unpaved road, and a vehicle equipped with a navigation sensor as shown in FIG. 2 may acquire location information while driving on an unpaved road. In this case, the navigation sensor may include a global positioning system (GPS) and an inertial navigation unit (IMU), and when both the GPS and the IMU are used complementary to each other, location information with a relatively small error can be obtained.

카메라와 항법 센서를 장착한 차량이 주행 할 때, 카메라를 통해 획득된 이미지 정보와 항법 센서를 통해 획득한 위치 정보가 매칭되어 모든 프레임 마다 저장될 수 있다. 이때, 위치 정보는 차량의 위치를 식별할 수 있는 정보로서 일례로, (경도, 위도, 고도)를 포함할 수 있다.When a vehicle equipped with a camera and a navigation sensor is driving, image information obtained through the camera and location information obtained through the navigation sensor are matched and stored for every frame. In this case, the location information may include, for example, (longitude, latitude, altitude) as information for identifying the location of the vehicle.

여기서, 비포장 도로는 규격화되지 않은 도로로서, 일반적인 도로로 볼 수 없는 도로에 대응할 수 있다. 예컨대, 도 1과 같이 도로와 도로가 아닌 곳이 명확히 구분되지 않는 야지와 험지 같은 도로가 비포장 도로일 수 있다. 이와 같은 비포장 도로는 일반적인 도로에 적용되는 규격들이 적용되지 않는 도로로서, 본 명세서에 기재된 자율 주행과 관련된 학습 방법은 일반 도로 보다 비포장 도로에서의 자율 주행에 보다 특화된 성능을 나타낸다.Here, the unpaved road is a non-standardized road, and may correspond to a road that cannot be regarded as a general road. For example, as shown in FIG. 1 , a road such as a road and a rough area where a road and a place other than the road are not clearly distinguished may be unpaved roads. Such unpaved roads are roads to which standards applied to general roads are not applied, and the learning method related to autonomous driving described in the present specification exhibits more specialized performance for autonomous driving on unpaved roads than general roads.

차량의 주행 중에 획득한 위치 정보를 이미지 정보에 투영하기 위해서, 기존의 좌표계로 표현된 위치 정보들을 기설정된 행렬 V을 이용하여 새로운 좌표계로 변환할 필요가 있다. 예컨대, 기존의 global 좌표계(Global Coordinate System, GCS)에서 카메라 좌표계로 위치 정보들의 좌표를 변환할 필요가 있다. 이는 위치 정보를 이미지 정보에 투영하기 위해서는 항법 센서가 global 좌표계에서 획득한 위치 정보들을 카메라가 보는 방향을 기준으로 하는 좌표계로 변환할 필요가 있기 때문이다. 예컨대, global 좌표계는 기존의 (X, Y, Z)로 표시되는 좌표계일 수 있고, 카메라 좌표계는 카메라의 위치 및 카메라가 보는 방향을 기준으로 정의되는 좌표계일 수 있다. In order to project the position information acquired while driving the vehicle on the image information, it is necessary to convert position information expressed in the existing coordinate system into a new coordinate system using a preset matrix V. For example, it is necessary to convert coordinates of location information from the existing global coordinate system (GCS) to the camera coordinate system. This is because, in order to project the location information onto the image information, the navigation sensor needs to convert the location information acquired in the global coordinate system into a coordinate system based on the direction the camera sees. For example, the global coordinate system may be an existing coordinate system expressed as (X, Y, Z), and the camera coordinate system may be a coordinate system defined based on the position of the camera and the direction the camera sees.

구체적으로, i번째 프레임의 위치 정보(예컨대, 경도, 위도, 고도)를

Figure 112021096152077-pat00001
라고 할 때 카메라 좌표계로 변환된 위치 정보
Figure 112021096152077-pat00002
는 다음의 수학식 1을 통해 변환될 수 있다.Specifically, location information (eg, longitude, latitude, altitude) of the i-th frame
Figure 112021096152077-pat00001
position information converted to the camera coordinate system when
Figure 112021096152077-pat00002
can be transformed through Equation 1 below.

[수학식 1][Equation 1]

Figure 112021096152077-pat00003
Figure 112021096152077-pat00003

기설정된 행렬 V는 카메라가 향하는 방향을 나타내는 기설정된 벡터에 기초하여 결정될 수 있다. 이때, 기설정된 벡터는 차량의 위치 정보에 기초하여 결정될 수 있으며, 이에 대해 이하 도 3에서 자세히 기재한다.The preset matrix V may be determined based on a preset vector indicating a direction in which the camera faces. In this case, the preset vector may be determined based on location information of the vehicle, which will be described in detail below with reference to FIG. 3 .

도 3은 일 실시 예에 따른 카메라가 향하고 있는 방향에 대응하는 벡터를 설명하기 위한 도면이다.3 is a diagram for describing a vector corresponding to a direction in which a camera is facing, according to an exemplary embodiment.

도 3을 참조하면, 위치 정보가 획득될 때 방향이 함께 획득되지 않아서 카메라가 향하고 있는 방향을 결정할 수 있다. 카메라가 향하고 있는 방향은 이전 위치 정보와 다음 위치 정보의 차이로 결정될 수 있다. 예를 들면, i번째 프레임에서 카메라가 향하고 있는 방향은 i-1번째 프레임의 위치 정보와 i+1번째 프레임의 위치 정보의 차이로 결정될 수 있고, i+1번째 프레임에서 카메라가 향하고 있는 방향은 i번째 프레임의 위치 정보와 i+2번째 프레임의 위치 정보의 차이로 결정될 수 있으며, i+2번째 프레임에서 카메라가 향하고 있는 방향은 i+1번째 프레임의 위치 정보와 i+3번째 프레임의 위치 정보의 차이로 결정될 수 있다. 이는 i번째 프레임에서 카메라가 향하고 있는 방향을 결정할 때, i번째 프레임의 위치 정보와 i+1번째 프레임의 위치 정보를 이용하는 경우보다 i-1번째 프레임의 위치 정보와 i+1번째 프레임의 위치 정보를 이용할 경우 상대적으로 정확한 확률로 결정될 수 있기 때문이다. Referring to FIG. 3 , when the location information is obtained, the direction is not obtained together, so that the direction the camera is facing may be determined. The direction the camera is facing may be determined by a difference between previous location information and next location information. For example, the direction the camera is facing in the i-th frame may be determined by the difference between the position information of the i-1th frame and the position information of the i+1th frame, and the direction the camera is facing in the i+1th frame is It can be determined by the difference between the position information of the i-th frame and the position information of the i+2th frame, and the direction the camera is facing in the i+2th frame is the positional information of the i+1th frame and the position of the i+3th frame. It can be determined by the difference in information. This is compared to the case of using the position information of the i-th frame and the position information of the i+1th frame when determining the direction the camera is facing in the i-th frame, the position information of the i-1th frame and the position information of the i+1th frame This is because it can be determined with relatively accurate probability when using .

도 4는 i번째 이미지 정보에 대응하는 m개의 위치 정보를 시각화한 일 실시 예에 따른 도면이다.4 is a diagram illustrating m pieces of location information corresponding to i-th image information visualized according to an embodiment.

도 4를 참조하면, i번째 이미지 정보에 대응하는 m개의 위치 정보

Figure 112021096152077-pat00004
들을 시각화한 이미지를 확인할 수 있다. 카메라 좌표계 상의 위치 정보
Figure 112021096152077-pat00005
는 이미지 좌표계 상의 위치 정보
Figure 112021096152077-pat00006
로 다음의 수학식 2를 통해 변환될 수 있다. 4 , m pieces of location information corresponding to the i-th image information
Figure 112021096152077-pat00004
You can check the visualized images. Location information in the camera coordinate system
Figure 112021096152077-pat00005
is the location information on the image coordinate system
Figure 112021096152077-pat00006
can be converted through Equation 2 below.

[수학식 2][Equation 2]

Figure 112021096152077-pat00007
Figure 112021096152077-pat00007

여기서, 이미지 좌표계는 이미지 상의 위치 정보로서, 수학식 2에서

Figure 112021096152077-pat00008
는 카메라의 초점 거리, W와 H는 이미지 정보에 대한 크기 정보로서 W는 이미지에 대한 폭, H는 이미지에 대한 높이에 대응할 수 있다. Here, the image coordinate system is position information on the image, and in Equation 2
Figure 112021096152077-pat00008
is a focal length of the camera, W and H are size information for image information, W may correspond to a width for an image, and H may correspond to a height for an image.

도 5는 세그멘테이션 레이블링을 위한 비포장 도로의 경계선을 식별하는 과정을 설명하는 일 실시 예에 따른 도면이고, 도 6은 세그멘테이션 레이블링이 반영된 이미지 정보를 나타내는 일 실시 예에 따른 도면이고, 도 7은 비포장 도로의 경계선을 식별하는 구체적인 과정을 설명하는 일 실시 예에 따른 도면이다.5 is a diagram illustrating a process of identifying a boundary line of an unpaved road for segmentation labeling, FIG. 6 is a diagram according to an embodiment showing image information in which segmentation labeling is reflected, and FIG. 7 is an unpaved road It is a diagram according to an embodiment for explaining a specific process of identifying a boundary line of

도 5를 참조하면, 세그멘테이션 레이블링을 위해서 도 4에 표시된 위치 정보의 양 옆의 점들을 시각화한 이미지 정보를 확인할 수 있다. 여기서, 도 4에 표시된 위치 정보의 양 옆의 점들은 비포장 도로의 경계선에 대응하는 위치 정보일 수 있다. 비포장 도로의 경계선에 대응하는 위치 정보는 도 4의 m개의 위치 정보에 기초하여 차량의 주행 방향에 수직 방향에 대응하는 위치 정보일 수 있다. 이때, 차량의 주행 방향에 수직 방향에 대응하는 위치 정보는, 도 4의 m개의 위치 정보에 기초하여 비포장 도로의 왼쪽 경계선에 대응하는 적어도 하나의 위치 정보 L과 비포장 도로의 오른쪽 경계선에 대응하는 적어도 하나의 위치 정보 R에 대응할 수 있다. 적어도 하나의 위치 정보 L과 적어도 하나의 위치 정보 R에 기초하여 비포장 도로의 경계선이 식별될 수 있다. 이때, 비포장 도로의 경계선에 대응하는 적어도 하나의 위치 정보들이 도 5와 같이 이미지 정보 상에 표시될 수 있다. Referring to FIG. 5 , image information obtained by visualizing dots on both sides of the location information shown in FIG. 4 for segmentation labeling may be checked. Here, the points on both sides of the location information displayed in FIG. 4 may be location information corresponding to the boundary line of the unpaved road. The location information corresponding to the boundary line of the unpaved road may be location information corresponding to a direction perpendicular to the driving direction of the vehicle based on the m pieces of location information of FIG. 4 . At this time, the location information corresponding to the direction perpendicular to the driving direction of the vehicle is based on the m pieces of location information of FIG. 4 , at least one piece of location information L corresponding to the left boundary line of the unpaved road and at least one corresponding to the right boundary line of the unpaved road It may correspond to one piece of location information R. A boundary line of the unpaved road may be identified based on the at least one piece of location information L and the at least one piece of location information R. At this time, at least one piece of location information corresponding to the boundary line of the unpaved road may be displayed on the image information as shown in FIG. 5 .

도 5에 시각화된 양 옆의 점들로 이루어진 영역을 특정 색으로 채우면, 도 6과 같은 세그멘테이션 레이블링이 반영된 이미지 정보를 획득할 수 있다. 도 6을 참조하면, 특정 색으로 채워진 영역은 비포장 도로에 대응할 수 있고, 특정 색으로 채워지지 않은 영역은 비포장 도로가 아닌 영역에 대응할 수 있다. 여기서, 특정 색으로 채워진 비포장 도로는 차량이 자율 주행 할 때 주행 가능한 도로이고, 특정 색으로 채워지지 않은 영역은 차량이 자율 주행 할 때 주행 가능하지 않은 도로에 대응할 수 있다. If the area made up of the dots on both sides visualized in FIG. 5 is filled with a specific color, image information to which segmentation labeling as shown in FIG. 6 is reflected can be acquired. Referring to FIG. 6 , an area filled with a specific color may correspond to an unpaved road, and an area not filled with a specific color may correspond to a non-paved road. Here, the unpaved road filled with a specific color is a road that can be driven when the vehicle autonomously drives, and an area not filled with a specific color can correspond to a road that is not drivable when the vehicle autonomously drives.

도 7을 참조하면, 비포장 도로의 경계선에 대응하는 위치 정보 L과 위치 정보 R을 결정하는 구체적인 과정을 확인할 수 있다. i번째 위치 정보 기준 카메라 좌표계에서 i+k번째 위치 정보

Figure 112021096152077-pat00009
의 오른쪽 위치 정보 R와 왼쪽 위치 정보 L을 결정할 수 있다. 구체적으로, heading 벡터들 사이의 각
Figure 112021096152077-pat00010
를 계산하고, 도로 폭을
Figure 112021096152077-pat00011
라고 할 경우, 위치 정보 R은
Figure 112021096152077-pat00012
이고 위치 정보 L은
Figure 112021096152077-pat00013
이다. 여기서, heading 벡터
Figure 112021096152077-pat00014
는 도 3에서 전술한 방법과 마찬가지로, 이전 위치 정보와 다음 위치 정보 간의 차이로 다음 수학식 3과 같이 결정될 수 있다. Referring to FIG. 7 , a detailed process of determining the location information L and the location information R corresponding to the boundary line of the unpaved road can be confirmed. i+kth position information in the camera coordinate system based on the i-th position information
Figure 112021096152077-pat00009
It is possible to determine the right position information R and the left position information L of . Specifically, the angle between the heading vectors
Figure 112021096152077-pat00010
Calculate the road width
Figure 112021096152077-pat00011
If , the location information R is
Figure 112021096152077-pat00012
and the location information L is
Figure 112021096152077-pat00013
am. where, heading vector
Figure 112021096152077-pat00014
Like the method described above with reference to FIG. 3 , as a difference between the previous location information and the next location information, ?

[수학식 3][Equation 3]

Figure 112021096152077-pat00015
Figure 112021096152077-pat00015

여기서, heading 벡터는 차량의 이동 방향에 대응하는 벡터로서, 차량의 이동 방향에 수직된 위치에 비포장 도로의 양 옆의 경계선에 대응하는 위치 정보 L과 위치 정보 R이 표시될 수 있다.Here, the heading vector is a vector corresponding to the moving direction of the vehicle, and the position information L and the position information R corresponding to the boundary lines on both sides of the unpaved road may be displayed at a position perpendicular to the moving direction of the vehicle.

차량의 이동 방향에 수직된 위치에 비포장 도로의 양 옆의 경계선에 대응하는 적어도 하나의 위치 정보 L과 적어도 하나의 위치 정보 R에 기초하여 도 6과 같이 세그멘테이션 레이블링이 반영된 이미지 정보가 생성될 수 있다. Based on at least one piece of location information L and at least one piece of location information R corresponding to the boundary lines on both sides of the unpaved road at a location perpendicular to the moving direction of the vehicle, as shown in FIG. 6 , image information in which segmentation labeling is reflected can be generated. .

세그멘테이션 레이블링이 반영된 데이터에 기초하여 차량의 주행 상황과 관련된 제1 네트워크가 학습될 수 있다. 제1 네트워크의 학습에 대해 자세한 내용은 이하 도 8에서 기재한다.The first network related to the driving situation of the vehicle may be learned based on the data to which the segmentation labeling is reflected. Details of the learning of the first network will be described with reference to FIG. 8 .

또한, 차량의 주행 상황에 대응하는 차량의 제어와 관련된 제2 네트워크가 학습될 수 있다. 예컨대, 비포장 도로 내의 커브 길을 주행할 때 차량의 스티어링(steering), 쓰로틀(throttle)와 같은 차량을 제어할 때 필요한 제2 네트워크가 학습될 수 있다. In addition, a second network related to the control of the vehicle corresponding to the driving situation of the vehicle may be learned. For example, a second network necessary for controlling a vehicle such as steering and throttle of the vehicle when driving on a curved road in an unpaved road may be learned.

카메라와 항법 센서를 장착한 차량이 비포장 도로를 주행하면서, 모든 프레임 마다 이미지와 위치 정보뿐만 아니라 차량의 주행 상황에 대응하는 스티어링 및 쓰로틀 값 또한 획득될 수 있다. 제1 네트워크를 통해 출력되는 차량의 주행 상황에 대한 판단 결과에 대응하는 차량 제어를 위한 스티어링 및 쓰로틀 값에 기초하여, 제2 네트워크가 학습될 수 있다. 따라서, 제1 네트워크와 제2 네트워크를 이용하여, 비포장 도로가 포함된 이미지에 입력되더라도 이에 대응하여 차량 제어를 위한 제어 명령이 자동으로 수행되는 자율 주행 모델이 생성될 수 있다. As a vehicle equipped with a camera and navigation sensor drives on an unpaved road, not only image and location information but also steering and throttle values corresponding to the driving situation of the vehicle may be acquired for every frame. The second network may be learned based on the steering and throttle values for vehicle control corresponding to the determination result of the driving condition of the vehicle output through the first network. Accordingly, an autonomous driving model in which a control command for vehicle control is automatically performed in response to an image including an unpaved road may be generated using the first network and the second network.

도 8은 일 실시 예에 따른 제1 네트워크의 학습을 설명하기 위한 도면이다.8 is a diagram for explaining learning of a first network according to an embodiment.

도 8을 참조하면, 인코더(Encoder, 810) 및 디코더(Decoder, 820)으로 구성된 제1 네트워크는 지도 학습될 수 있다. 이때, 제1 네트워크는 뉴럴 네트워크로서 예컨대 FCN(Fully Convolutional Network) 또는 Deeplabv1~Deeplabv3+ 등에 대응할 수 있다. 이때, 입력 이미지에 대한 예측(prediction, 830)과 세그멘테이션 레이블링이 반영된 데이터(840)를 비교하여 도출된 차이 loss(850)가 백프로파게이션(backpropagation, 860)을 통해 제1 네트워크의 학습에 사용될 수 있다. Referring to FIG. 8 , a first network including an encoder 810 and a decoder 820 may be supervised. In this case, the first network may correspond to, for example, a Fully Convolutional Network (FCN) or Deeplabv1 to Deeplabv3+ as a neural network. At this time, the difference loss (850) derived by comparing the prediction (830) of the input image and the data (840) to which the segmentation labeling is reflected can be used for learning of the first network through backpropagation (860). there is.

이와 같은 학습 과정을 통해 충분히 학습된 제1 네트워크는 입력된 이미지에 대해 이미지 내의 비포장 도로와 비포장 도로가 아닌 영역을 구분할 수 있다. The first network sufficiently learned through such a learning process may distinguish an unpaved road and a non-paved road area in the image with respect to the input image.

도 9은 일 실시 예에 따른 자율 주행과 관련된 학습 방법을 설명하기 위한 도면이다. 9 is a diagram for explaining a learning method related to autonomous driving according to an embodiment.

도 9을 참조하면, 단계 S910에서 카메라와 항법 센서를 장착한 차량이 비포장 도로를 주행하면서 획득한 이미지 정보와 위치 정보를 포함하는 관련 데이터를 확인할 수 있다. 이때, 카메라를 통해 이미지 정보가 획득될 수 있고, 항법 센서를 통해 위치 정보가 획득될 수 있다. 이외에도 비포장 도로의 주행과 관련된 다양한 정보가 획득될 수 있다. 여기서, 항법 센서를 통해 획득한 위치 정보의 좌표는 기설정된 행렬을 이용하여 글로벌 좌표계에서 카메라 좌표계로 좌표 변환될 수 있고, 또한 수학식 2에 기초하여 이미지 좌표계로 변환될 수 있다. Referring to FIG. 9 , in step S910 , related data including image information and location information obtained by a vehicle equipped with a camera and a navigation sensor while driving on an unpaved road may be checked. In this case, image information may be obtained through a camera, and location information may be obtained through a navigation sensor. In addition, various information related to driving on an unpaved road may be acquired. Here, the coordinates of the position information obtained through the navigation sensor may be converted from the global coordinate system to the camera coordinate system using a preset matrix, and may also be converted into the image coordinate system based on Equation (2).

단계 S920에서 항법 센서를 통해 획득한 위치 정보와 카메라를 통해 획득한 이미지 정보에 기초하여 비포장 도로와 관련된 세그멘테이션 레이블링이 수행될 수 있다. In step S920 , segmentation labeling related to the unpaved road may be performed based on the location information obtained through the navigation sensor and the image information obtained through the camera.

구체적으로, i번째 이미지 정보에 대응하는 m개의 위치 정보를 식별하고, m개의 위치 정보에 기초하여 차량의 주행 방향에 수직 방향에 대응하는 비포장 도로의 경계선을 식별할 수 있고, 경계선에 기초하여 비포장 도로와 관련된 세그멘테이션 레이블링이 수행될 수 있다. 보다 구체적으로, m개의 위치 정보에 기초하여 비포장 도로의 왼쪽 경계선에 대응하는 적어도 하나의 위치 정보 L과 오른쪽 경계선에 대응하는 적어도 하나의 위치 정보 R을 식별할 수 있고, 적어도 하나의 위치 정보 L과 적어도 하나의 위치 정보 R에 기초하여 비포장 도로의 경계선이 식별될 수 있다. 식별된 비포장 도로의 경계선에 기초하여 세그멘테이션 레이블링이 수행될 수 있다.Specifically, it is possible to identify m pieces of location information corresponding to the i-th image information, and based on the m pieces of location information, identify the boundary line of the unpaved road corresponding to the direction perpendicular to the driving direction of the vehicle, and based on the boundary line, the unpaved road Segmentation labeling related to roads may be performed. More specifically, based on the m pieces of location information, it is possible to identify at least one piece of location information L corresponding to the left boundary line of the unpaved road and at least one piece of location information R corresponding to the right boundary line, and at least one piece of location information L and A boundary line of the unpaved road may be identified based on at least one piece of location information R. Segmentation labeling may be performed based on the identified boundary line of the unpaved road.

단계 S930에서, 세그멘테이션 레이블링이 반영된 데이터에 기초하여 차량의 주행 상황과 관련된 제1 네트워크가 학습될 수 있다. 구체적으로, 세그멘테이션 레이블링이 반영된 데이터에 기초한 지도 학습에 따라 제1 네트워크가 학습될 수 있다. In operation S930, the first network related to the driving situation of the vehicle may be learned based on the data to which the segmentation labeling is reflected. Specifically, the first network may be learned according to supervised learning based on data to which segmentation labeling is reflected.

단계 S940에서, 차량의 주행 상황에 기초하여 차량의 제어와 관련된 제2 네트워크가 학습될 수 있다. 비포장 도로를 주행하면서 획득한 관련 데이터로부터 차량의 주행 상황에 따른 차량의 제어 데이터를 확인할 수 있다. 예컨대, 비포장 도로를 주행하면서 차량의 주행 상황에 따른 스티어링, 쓰로틀 값을 제어 데이터로서 확인할 수 있다. 확인된 제어 데이터에 기초하여 차량의 주행 상황 별 차량 제어를 위한 제2 네트워크가 학습될 수 있다. In operation S940 , a second network related to vehicle control may be learned based on the driving condition of the vehicle. Control data of the vehicle according to the driving condition of the vehicle can be checked from related data obtained while driving on an unpaved road. For example, while driving on an unpaved road, steering and throttle values according to the driving situation of the vehicle may be checked as control data. A second network for vehicle control for each driving situation of the vehicle may be learned based on the checked control data.

실시 예에 따르면, 학습된 제1 네트워크와 제2 네트워크를 이용하여 비포장 도로가 포함된 이미지에 대응하여 차량에 대한 제어 데이터가 자동으로 생성되는 자율 주행 모델이 생성될 수 있다. 이와 같은 자율 주행 모델은 규격화된 도로 보다도 비포장 도로에서 특화된 성능을 나타낼 수 있다.According to an embodiment, an autonomous driving model in which control data for a vehicle is automatically generated in response to an image including an unpaved road may be generated using the learned first network and the second network. Such an autonomous driving model can exhibit specialized performance on unpaved roads rather than standardized roads.

도 10는 일 실시 예에 따른 자율 주행 장치의 블록도를 나타낸다. 10 is a block diagram of an autonomous driving apparatus according to an exemplary embodiment.

자율 주행 장치(1000)는 일 실시 예에 따라, 통신부(1010), 메모리(1020) 및 제어부(1030)를 포함할 수 있다. 도 10에 도시된 자율 주행 장치(1000)는 본 실시 예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 10에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 자율 주행 장치(1000)는 전술한 자율 주행과 관련된 학습 방법에 대한 내용을 수행할 수 있는바, 중복되는 내용에 대해서는 설명을 생략한다.According to an embodiment, the autonomous driving apparatus 1000 may include a communication unit 1010 , a memory 1020 , and a control unit 1030 . In the autonomous driving apparatus 1000 illustrated in FIG. 10 , only components related to the present embodiment are illustrated. Accordingly, it can be understood by those of ordinary skill in the art related to the present embodiment that other general-purpose components may be further included in addition to the components shown in FIG. 10 . Since the autonomous driving apparatus 1000 may perform the above-described learning method related to autonomous driving, a description of overlapping content will be omitted.

통신부(1010)는 유무선 통신을 이용하여 관련 정보를 송수신할 수 있다. 제어부(1030)는 자율 주행 장치(1000)의 전반의 동작을 제어하고 데이터 및 신호를 처리할 수 있다. 제어부(1030)는 적어도 하나의 하드웨어 유닛으로 구성될 수 있다. 또한, 제어부(1030)는 메모리(1020)에 저장된 프로그램 코드를 실행하여 생성되는 하나 이상의 소프트웨어 모듈에 의해 동작할 수 있다. 제어부(1030)는 메모리(1020)에 저장된 프로그램 코드를 실행하여 자율 주행 장치(1000)의 전반의 동작을 제어하고 데이터 및 신호를 처리할 수 있다. 제어부(1030)는 카메라에서 획득된 이미지 정보와 항법 센서에서 획득된 위치 정보에 기초하여 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하고, 세그멘테이션 레이블링이 반영된 데이터에 기초하여 차량의 주행 상황과 관련된 제1 네트워크를 학습시키고, 차량의 주행 상황에 기초하여 차량의 제어와 관련된 제2 네트워크를 학습시킬 수 있다. The communication unit 1010 may transmit/receive related information using wired/wireless communication. The controller 1030 may control the overall operation of the autonomous driving apparatus 1000 and process data and signals. The controller 1030 may be configured with at least one hardware unit. Also, the controller 1030 may operate by one or more software modules generated by executing program codes stored in the memory 1020 . The controller 1030 may execute a program code stored in the memory 1020 to control the overall operation of the autonomous driving apparatus 1000 and process data and signals. The control unit 1030 performs segmentation labeling related to the unpaved road based on the image information obtained from the camera and the location information obtained from the navigation sensor, and based on the data to which the segmentation labeling is reflected, a first network related to the driving situation of the vehicle It is possible to learn the second network related to the control of the vehicle based on the driving condition of the vehicle.

전술한 실시 예들에 따른 전자 장치 또는 단말은, 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-Access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. The electronic device or terminal according to the above-described embodiments includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, and a key (key) , a user interface device such as a button, and the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, the computer-readable recording medium includes a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optically readable medium (eg, CD-ROM). ) and DVD (Digital Versatile Disc)). The computer-readable recording medium may be distributed among network-connected computer systems, so that the computer-readable code may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed on a processor.

본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in any number of hardware and/or software configurations that perform specific functions. For example, an embodiment may be an integrated circuit configuration, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. can be hired Similar to how components may be implemented as software programming or software components, this embodiment includes various algorithms implemented in a combination of data structures, processes, routines, or other programming constructs, including C, C++, Java ( It can be implemented in a programming or scripting language such as Java), assembler, or the like. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, the present embodiment may employ the prior art for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in association with a processor or the like.

전술한 실시예들은 일 예시일 뿐 후술하는 청구항들의 범위 내에서 다른 실시예들이 구현될 수 있다.The above-described embodiments are merely examples, and other embodiments may be implemented within the scope of the claims to be described later.

Claims (10)

자율 주행 장치가 수행하는 자율 주행과 관련된 학습 방법에 있어서,
카메라와 항법 센서를 장착한 차량이 규격화되지 않은 비포장 도로를 주행하면서 획득한 이미지 정보와 위치 정보를 포함하는 관련 데이터를 확인하는 단계;
상기 항법 센서를 통해 획득한 상기 위치 정보와 상기 카메라를 통해 획득한 상기 이미지 정보에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는 단계;
상기 세그멘테이션 레이블링이 반영된 데이터에 기초하여 상기 차량의 주행 상황과 관련된 제1 네트워크를 학습하는 단계; 및
상기 차량의 주행 상황에 기초하여 상기 차량의 제어와 관련된 제2 네트워크를 학습하는 단계를 포함하고,
상기 세그멘테이션 레이블링을 수행하는 단계는,
상기 카메라를 통해 획득한 i번째(i는 2 이상의 정수) 이미지 정보에 대응하는 상기 항법 센서를 통해 획득한 m개의(m은 2 이상의 정수) 위치 정보를 식별하는 단계;
i+1번째 이미지 정보에 대응하는 위치 정보와 i-1번째 이미지 정보에 대응하는 위치 정보에 기초하여, 상기 i번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터를 결정하는 단계;
상기 i번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터와 상기 i+1번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터 사이의 각도를 결정하는 단계;
상기 결정된 각도와 상기 m개의 위치 정보를 이용하여 상기 비포장 도로의 왼쪽 경계선에 대응하는 적어도 하나의 위치 정보 L과 상기 비포장 도로의 오른쪽 경계선에 대응하는 적어도 하나의 위치 정보 R을 결정하는 단계;
상기 적어도 하나의 위치 정보 L과 상기 적어도 하나의 위치 정보 R에 기초하여 상기 비포장 도로의 경계선을 식별하는 단계; 및
상기 경계선에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는 단계를 포함하는,
학습 방법.
In a learning method related to autonomous driving performed by an autonomous driving device,
checking related data including image information and location information obtained while driving a vehicle equipped with a camera and a navigation sensor on an unstandardized unpaved road;
performing segmentation labeling related to the unpaved road based on the location information obtained through the navigation sensor and the image information obtained through the camera;
learning a first network related to the driving situation of the vehicle based on the data to which the segmentation labeling is reflected; and
and learning a second network related to the control of the vehicle based on the driving condition of the vehicle,
The step of performing the segmentation labeling comprises:
identifying m pieces of (m is an integer greater than or equal to 2) position information obtained through the navigation sensor corresponding to i-th (i is an integer greater than or equal to 2) image information obtained through the camera;
determining a direction vector of the camera corresponding to the i-th image information based on the position information corresponding to the i+1th image information and the position information corresponding to the i-1th image information;
determining an angle between a direction vector of the camera corresponding to the i-th image information and a direction vector of the camera corresponding to the i+1-th image information;
determining at least one piece of location information L corresponding to the left boundary of the unpaved road and at least one piece of location information R corresponding to the right boundary of the unpaved road by using the determined angle and the m pieces of location information;
identifying a boundary line of the unpaved road based on the at least one piece of location information L and the at least one piece of location information R; and
Comprising the step of performing segmentation labeling related to the unpaved road based on the boundary line,
How to learn.
삭제delete 삭제delete 제1항에 있어서,
상기 제1 네트워크를 학습하는 단계는,
상기 세그멘테이션 레이블링이 반영된 데이터에 기초한 지도 학습(supervised learning)에 따라 학습하는 단계를 포함하는,
학습 방법.
According to claim 1,
Learning the first network comprises:
Including the step of learning according to supervised learning based on the data to which the segmentation labeling is reflected,
How to learn.
제1항에 있어서,
상기 제2 네트워크를 학습하는 단계는,
상기 비포장 도로를 주행하면서 획득한 관련 데이터로부터 상기 차량의 주행 상황에 따른 상기 차량의 제어 데이터를 확인하는 단계; 및
상기 제어 데이터에 기초하여 상기 제2 네트워크를 학습하는 단계를 포함하는,
학습 방법.
According to claim 1,
Learning the second network comprises:
checking control data of the vehicle according to the driving condition of the vehicle from the related data obtained while driving the unpaved road; and
learning the second network based on the control data;
How to learn.
제1항에 있어서,
상기 관련 데이터를 확인하는 단계는,
기설정된 행렬을 이용하여 상기 항법 센서를 통해 획득한 위치 정보의 좌표가 변환된 관련 데이터를 확인하는 단계를 포함하는,
학습 방법.
According to claim 1,
The step of confirming the relevant data is,
Containing the step of using a predetermined matrix to check the related data, the coordinates of the location information obtained through the navigation sensor are transformed,
How to learn.
제6항에 있어서,
상기 관련 데이터를 확인하는 단계는,
상기 카메라의 초점 거리 및 상기 이미지 정보에 대한 크기 정보에 기초하여 상기 기설정된 행렬을 이용하여 변환된 위치 정보로부터 상기 이미지 정보 상의 좌표를 확인하는 단계를 더 포함하는,
학습 방법.
7. The method of claim 6,
The step of confirming the relevant data is,
Further comprising the step of confirming the coordinates on the image information from the position information transformed using the preset matrix based on the focal length of the camera and the size information for the image information,
How to learn.
제6항에 있어서,
상기 기설정된 행렬은 상기 카메라가 향하는 방향을 나타내는 기설정된 벡터에 기초하여 결정되고, 상기 기설정된 벡터는 상기 차량의 위치 정보에 기초하여 결정되는 것을 특징으로 하는,
학습 방법.
7. The method of claim 6,
The preset matrix is determined based on a preset vector indicating a direction in which the camera faces, and the preset vector is determined based on location information of the vehicle,
How to learn.
비일시적 컴퓨터 판독 가능 저장 매체로서,
컴퓨터 판독 가능 명령어들을 저장하도록 구성되는 매체를 포함하고,
상기 컴퓨터 판독 가능 명령어들은 프로세서에 의해 실행되는 경우 상기 프로세서가:
카메라와 항법 센서를 장착한 차량이 규격화되지 않은 비포장 도로를 주행하면서 획득한 이미지 정보와 위치 정보를 포함하는 관련 데이터를 확인하는 단계;
상기 항법 센서를 통해 획득한 상기 위치 정보와 상기 카메라를 통해 획득한 상기 이미지 정보에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는 단계;
상기 세그멘테이션 레이블링이 반영된 데이터에 기초하여 상기 차량의 주행 상황과 관련된 제1 네트워크를 학습하는 단계; 및
상기 차량의 주행 상황에 기초하여 상기 차량의 제어와 관련된 제2 네트워크를 학습하는 단계를 포함하고,
상기 세그멘테이션 레이블링을 수행하는 단계는,
상기 카메라를 통해 획득한 i번째(i는 2 이상의 정수) 이미지 정보에 대응하는 상기 항법 센서를 통해 획득한 m개의(m은 2 이상의 정수) 위치 정보를 식별하는 단계;
i+1번째 이미지 정보에 대응하는 위치 정보와 i-1번째 이미지 정보에 대응하는 위치 정보에 기초하여, 상기 i번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터를 결정하는 단계;
상기 i번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터와 상기 i+1번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터 사이의 각도를 결정하는 단계;
상기 결정된 각도와 상기 m개의 위치 정보를 이용하여 상기 비포장 도로의 왼쪽 경계선에 대응하는 적어도 하나의 위치 정보 L과 상기 비포장 도로의 오른쪽 경계선에 대응하는 적어도 하나의 위치 정보 R을 결정하는 단계;
상기 적어도 하나의 위치 정보 L과 상기 적어도 하나의 위치 정보 R에 기초하여 상기 비포장 도로의 경계선을 식별하는 단계; 및
상기 경계선에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는 단계를 포함하는 학습 방법을 수행하도록 하는, 비일시적 컴퓨터 판독 가능 저장 매체.
A non-transitory computer-readable storage medium comprising:
A medium configured to store computer readable instructions, comprising:
The computer readable instructions, when executed by a processor, cause the processor to:
checking related data including image information and location information obtained while driving a vehicle equipped with a camera and a navigation sensor on an unstandardized unpaved road;
performing segmentation labeling related to the unpaved road based on the location information obtained through the navigation sensor and the image information obtained through the camera;
learning a first network related to the driving situation of the vehicle based on the data to which the segmentation labeling is reflected; and
and learning a second network related to the control of the vehicle based on the driving condition of the vehicle,
The step of performing the segmentation labeling comprises:
identifying m pieces of (m is an integer greater than or equal to 2) position information obtained through the navigation sensor corresponding to i-th (i is an integer greater than or equal to 2) image information obtained through the camera;
determining a direction vector of the camera corresponding to the i-th image information based on the position information corresponding to the i+1th image information and the position information corresponding to the i-1th image information;
determining an angle between a direction vector of the camera corresponding to the i-th image information and a direction vector of the camera corresponding to the i+1-th image information;
determining at least one piece of location information L corresponding to the left boundary of the unpaved road and at least one piece of location information R corresponding to the right boundary of the unpaved road by using the determined angle and the m pieces of location information;
identifying a boundary line of the unpaved road based on the at least one piece of location information L and the at least one piece of location information R; and
and performing a segmentation labeling associated with the unpaved road based on the boundary line to perform a learning method.
통신부;
메모리; 및
카메라와 항법 센서를 장착한 차량이 규격화되지 않은 비포장 도로를 주행하면서 획득한 이미지 정보와 위치 정보를 포함하는 관련 데이터를 확인하고, 상기 항법 센서에서 획득된 상기 위치 정보와 상기 카메라에서 획득된 상기 이미지 정보에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하고, 상기 세그멘테이션 레이블링이 반영된 데이터에 기초하여 상기 차량의 주행 상황과 관련된 제1 네트워크를 학습시키고, 상기 차량의 주행 상황에 기초하여 상기 차량의 제어와 관련된 제2 네트워크를 학습시키는 제어부(controller)를 포함하고,
상기 제어부는,
상기 카메라를 통해 획득한 i번째(i는 2 이상의 정수) 이미지 정보에 대응하는 상기 항법 센서를 통해 획득한 m개의(m은 2 이상의 정수) 위치 정보를 식별하고, i+1번째 이미지 정보에 대응하는 위치 정보와 i-1번째 이미지 정보에 대응하는 위치 정보에 기초하여 상기 i번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터를 결정하고, 상기 i번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터와 상기 i+1번째 이미지 정보에 대응하는 상기 카메라의 방향 벡터 사이의 각도를 결정하고, 상기 결정된 각도와 상기 m개의 위치 정보를 이용하여 상기 비포장 도로의 왼쪽 경계선에 대응하는 적어도 하나의 위치 정보 L과 상기 비포장 도로의 오른쪽 경계선에 대응하는 적어도 하나의 위치 정보 R을 결정하고, 상기 적어도 하나의 위치 정보 L과 상기 적어도 하나의 위치 정보 R에 기초하여 상기 비포장 도로의 경계선을 식별하고, 상기 경계선에 기초하여 상기 비포장 도로와 관련된 세그멘테이션 레이블링을 수행하는,
자율 주행 장치.
communication department;
Memory; and
A vehicle equipped with a camera and a navigation sensor checks related data including image information and location information acquired while driving on a non-standardized unpaved road, and the location information acquired from the navigation sensor and the image acquired from the camera Segmentation labeling related to the unpaved road is performed based on the information, a first network related to the driving condition of the vehicle is learned based on the data reflected by the segmentation labeling, and the vehicle is controlled based on the driving condition of the vehicle Includes a controller (controller) for learning the second network related to,
The control unit is
Identifies m pieces of (m is an integer greater than or equal to 2) position information obtained through the navigation sensor corresponding to the i-th (i is an integer greater than or equal to 2) image information obtained through the camera, and corresponds to the i+1-th image information determining the direction vector of the camera corresponding to the i-th image information based on the position information corresponding to the i-th image information and the position information corresponding to the i-th image information, and the direction vector of the camera corresponding to the i-th image information and the Determine an angle between the direction vector of the camera corresponding to the i+1th image information, and use the determined angle and the m pieces of location information to determine at least one piece of location information L corresponding to the left boundary of the unpaved road and the at least one piece of location information R corresponding to the right boundary line of the unpaved road is determined, and the boundary line of the unpaved road is identified based on the at least one location information L and the at least one piece of location information R, and based on the boundary line performing segmentation labeling related to the unpaved road,
autonomous driving device.
KR1020210110112A 2021-08-20 2021-08-20 Learning method based on segmentation labeling data and autonomous driving device using the same KR102384797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210110112A KR102384797B1 (en) 2021-08-20 2021-08-20 Learning method based on segmentation labeling data and autonomous driving device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210110112A KR102384797B1 (en) 2021-08-20 2021-08-20 Learning method based on segmentation labeling data and autonomous driving device using the same

Publications (1)

Publication Number Publication Date
KR102384797B1 true KR102384797B1 (en) 2022-04-11

Family

ID=81210220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210110112A KR102384797B1 (en) 2021-08-20 2021-08-20 Learning method based on segmentation labeling data and autonomous driving device using the same

Country Status (1)

Country Link
KR (1) KR102384797B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102583700B1 (en) * 2023-03-13 2023-10-05 국방과학연구소 Learngin method related to autonomous flight and learning device performing the same
KR20240079755A (en) 2022-11-29 2024-06-05 한국기술교육대학교 산학협력단 The system for lane detection and the method for lane detection

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jinsheng Xiao et al., "Lane Detection Based on Road Module and Extended Kalman Filter," PSIVT 2017 (2017.11.20.)* *
Peng Wang et al., "DeLS-3D: Deep Localization and Segmentation with a 3D Semantic Map," arXiv:1805.04949v1 [cs.CV] (2018.05.13.)* *
Zhiyu Huang et al.,"Multi-modal Sensor Fusion-Based Deep Neural Network for End-to-end Autonomous Driving with Scene Understanding," arXiv:2005.09202v3 [cs.RO] (2020.08.01.)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240079755A (en) 2022-11-29 2024-06-05 한국기술교육대학교 산학협력단 The system for lane detection and the method for lane detection
KR102583700B1 (en) * 2023-03-13 2023-10-05 국방과학연구소 Learngin method related to autonomous flight and learning device performing the same

Similar Documents

Publication Publication Date Title
US11467590B2 (en) Techniques for considering uncertainty in use of artificial intelligence models
US11835962B2 (en) Analysis of scenarios for controlling vehicle operations
US11625036B2 (en) User interface for presenting decisions
US11561541B2 (en) Dynamically controlling sensor behavior
KR102384797B1 (en) Learning method based on segmentation labeling data and autonomous driving device using the same
KR102539942B1 (en) Method and apparatus for training trajectory planning model, electronic device, storage medium and program
US20210287387A1 (en) Lidar point selection using image segmentation
US20210398301A1 (en) Camera agnostic depth network
WO2020186943A1 (en) Mobile device posture determination apparatus and method, and visual odometer
US11820403B2 (en) Method and system of determining trajectory for an autonomous vehicle
US20240133704A1 (en) Methods and Systems for Determining Geographic Orientation Based on Imagery
US11904853B2 (en) Apparatus for preventing vehicle collision and method thereof
US20220114813A1 (en) Detecting obstacle
US20230281975A1 (en) Systems and methods for generating three-dimensional annotations for training a machine learning model
US20210209399A1 (en) Bounding box generation for object detection
US11455763B2 (en) Bounding box generation for object detection
CN114332827B (en) Vehicle identification method and device, electronic equipment and storage medium
KR102583700B1 (en) Learngin method related to autonomous flight and learning device performing the same
Pandya et al. An End—End Framework for Autonomous Driving Cars in a CARLA Simulator
Sabek A Performance Study of Different Deep Learning Architectures For Detecting Construction Equipment in Sites
CN116612454A (en) Vehicle image processing method, device, computer equipment and storage medium
KR20230061846A (en) Method for tracking object and apparatus for executing the method
CN117173513A (en) Method, system, equipment and roadside unit for detecting and positioning pavement construction

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant