KR102206684B1 - 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치 - Google Patents

주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치 Download PDF

Info

Publication number
KR102206684B1
KR102206684B1 KR1020200098159A KR20200098159A KR102206684B1 KR 102206684 B1 KR102206684 B1 KR 102206684B1 KR 1020200098159 A KR1020200098159 A KR 1020200098159A KR 20200098159 A KR20200098159 A KR 20200098159A KR 102206684 B1 KR102206684 B1 KR 102206684B1
Authority
KR
South Korea
Prior art keywords
data
driving
learning
data set
information
Prior art date
Application number
KR1020200098159A
Other languages
English (en)
Inventor
하영국
김철진
박호림
이명재
장성수
정제윈
황규홍
황성연
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020200098159A priority Critical patent/KR102206684B1/ko
Application granted granted Critical
Publication of KR102206684B1 publication Critical patent/KR102206684B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Abstract

주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치가 개시된다. 일 실시예에 따른 주행 상황 및 운전 습관 분석을 위한 학습 방법은 영상 데이터, 주행 데이터, 위치 데이터, 및 포인트 클라우드 데이터를 수집하는 단계와, 시간 데이터에 기초하여 수집한 데이터를 동기화하는 단계와, 동기화된 데이터 중에서 상기 영상 데이터 및 상기 포인트 클라우드 데이터에 기초하여 차량의 주변에 위치한 객체의 정보를 알 수 있는 주변 객체 정보데이터를 생성하는 단계와, 상기 주변 객체 정보데이터가 포함된 상기 동기화된 데이터에 대해 주행 상황 정보 및 운전 습관 정보를 라벨링하여 학습 데이터 세트를 생성하는 단계와, 상기 학습 데이터 세트를 이용하여 주행 상황 및 운전 습관을 분석하기 위한 신경망을 학습시키는 단계를 포함한다.

Description

주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치{LEARNING METHOD FOR ANALYZING DRIVING SITUATION AND DRIVING STYLE, AND AN APPARATUS FOR PERFORMING THE SAME}
아래 실시예들은 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치에 관한 것이다.
최근에는 4차 산업혁명의 핵심으로 평가받고 있는 인공지능 기술, 특히 이미지를 빠르게 처리할 수 있는 합성곱 신경망(Convolutional Neural Network, CNN)의 등장으로 컴퓨터 비전과 관련된 다양한 산업이 발달하고 있다. 3차원 Convolution 연산을 하는 CNN의 특성은 인간의 시신경을 모방하여 컴퓨터 비전 산업을 크게 발전시켰고, 이미지를 처리해야 하는 다양한 산업의 발달을 촉진하게 되었다.
특히, 최근에는 이미지를 처리하는 다양한 산업 중에서 자율주행 시스템 개발에 인공지능을 접목하여 다양한 연구가 진행되고 있다. 이미 google, NVIDIA, BMW 등 많은 대기업에서는 자율주행 시스템 개발을 오래전부터 진행해왔다.
미래에 자율주행 차량이 완전 자율주행을 하기 위해서는 다양한 데이터를 활용하여 차량을 제어해야 한다. 또한 정밀한 제어를 위해 주행중인 차량의 주행상황에 대한 분석도 필요하다.
실시예들은 자율주행 차량의 주행 시 주행 상황 및 운전자의 운전 습관을 분석함으로써 차량 제어에 도움을 주는 기술을 제공할 수 있다.
실시예들은 클라우드를 이용하여 지속적으로 데이터를 받아 주행 상황 및 운전 습관을 분석하는 신경망을 최적화하는 기술을 제공할 수 있다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
일 실시예에 따른 주행 상황 및 운전 습관 분석을 위한 학습 방법은 영상 데이터, 주행 데이터, 위치 데이터, 및 포인트 클라우드 데이터를 수집하는 단계와, 시간 데이터에 기초하여 수집한 데이터를 동기화하는 단계와, 동기화된 데이터 중에서 상기 영상 데이터 및 상기 포인트 클라우드 데이터에 기초하여 차량의 주변에 위치한 객체의 정보를 알 수 있는 주변 객체 정보데이터를 생성하는 단계와, 상기 주변 객체 정보데이터가 포함된 상기 동기화된 데이터에 대해 주행 상황 정보 및 운전 습관 정보를 라벨링하여 학습 데이터 세트를 생성하는 단계와, 상기 학습 데이터 세트를 이용하여 주행 상황 및 운전 습관을 분석하기 위한 신경망을 학습시키는 단계를 포함한다.
상기 객체의 정보는 상기 객체의 레이블 및 위치를 포함할 수 있다.
상기 주변 객체 정보데이터를 생성하는 단계는 상기 영상 데이터에 포함된 상기 객체의 종류를 인식하는 단계와, 상기 영상 데이터에서의 상기 객체의 위치와 상기 포인트 클라우드 데이터에서 인식한 상기 객체를 중점(center point) 기준으로 연동하는 단계를 포함할 수 있다.
상기 학습 데이터 세트를 생성하는 단계는 상기 동기화된 데이터 중 상기 시간 데이터의 시간 단위를 기준으로 연속된 데이터에 대해 상기 주행 상황 정보 및 상기 운전 습관 정보를 라벨링하는 단계를 포함할 수 있다.
상기 학습시키는 단계는 상기 학습 데이터 세트를 차종 별 학습 데이터 세트, 도로 별 학습 데이터 세트, 및 운전자 별 학습 데이터 세트로 세분화하는 단계를 포함할 수 있다.
상기 세분화하는 단계는 상기 학습 데이터 세트로부터 차량정보 데이터에 포함된 차종을 기반으로 데이터를 가져와서 상기 차종 별 학습 데이터 세트를 구성하는 단계와, 상기 학습 데이터 세트로부터 상기 위치 데이터 기반으로 일정 구간을 ROI로 정한 도로에서의 데이터를 가져와서 상기 도로 별 학습 데이터 세트를 구성하는 단계와, 상기 학습 데이터 세트로부터 운전자정보 데이터에 포함된 운전자 ID를 기반으로 데이터를 가져와서 상기 운전자 별 학습 데이터 세트를 구성하는 단계를 포함할 수 있다.
상기 학습시키는 단계는 상기 차종 별 학습 데이터 세트, 상기 도로 별 학습 데이터 세트, 및 상기 운전자 별 학습 데이터 세트 별로 상기 주행 상황을 분석하기 위한 신경망 및 상기 운전 습관을 분석하기 위한 신경망 각각을 학습시키는 단계를 더 포함할 수 있다.
상기 방법은 추가 학습 데이터 세트에 대하여 상기 주행 상황 및 운전 습관에 대한 정보를 자동으로 라벨링하는 단계와, 상기 라벨링 이후에 상기 학습 데이터 세트를 이용하여 학습된 신경망을 상기 추가 학습 데이터 세트로 학습시키는 단계를 더 포함할 수 있다.
상기 추가 학습 데이터 세트에 대하여 라벨링되는 상기 주행 상황 및 운전 습관에 대한 정보는 상기 학습 데이터 세트를 이용하여 학습된 신경망을 통해 추론된 값일 수 있다.
일 실시예에 따른 자율 주행 학습 장치는 하나 이상의 인스트럭션을 포함하는 메모리와, 상기 인스트럭션을 실행시키기 위한 프로세서를 포함하고, 상기 인스터력션이 실행될 때, 상기 프로세서는 영상 데이터, 주행 데이터, 위치 데이터, 및 포인트 클라우드 데이터를 수집하고, 시간 데이터에 기초하여 수집한 데이터를 동기화하고, 동기화된 데이터 중에서 상기 영상 데이터 및 상기 포인트 클라우드 데이터에 기초하여 차량의 주변에 위치한 객체의 정보를 알 수 있는 주변 객체 정보데이터를 생성하고, 상기 주변 객체 정보데이터가 포함된 상기 동기화된 데이터에 대해 주행 상황 정보 및 운전 습관 정보를 라벨링하여 학습 데이터 세트를 생성하고, 상기 학습 데이터 세트를 이용하여 주행 상황 및 운전 습관을 분석하기 위한 신경망을 학습시킨다.
상기 객체의 정보는 상기 객체의 레이블 및 위치를 포함할 수 있다.
상기 프로세서는 상기 영상 데이터에 포함된 상기 객체의 종류를 인식하고, 상기 영상 데이터에서의 상기 객체의 위치와 상기 포인트 클라우드 데이터에서 인식한 상기 객체를 중점(center point) 기준으로 연동할 수 있다.
상기 프로세서는 상기 동기화된 데이터 중 상기 시간 데이터의 시간 단위를 기준으로 연속된 데이터에 대해 상기 주행 상황 정보 및 상기 운전 습관 정보를 라벨링할 수 있다.
상기 프로세서는 상기 학습 데이터 세트를 차종 별 학습 데이터 세트, 도로 별 학습 데이터 세트, 및 운전자 별 학습 데이터 세트로 세분화할 수 있다.
상기 프로세서는 상기 학습 데이터 세트로부터 차량정보 데이터에 포함된 차종을 기반으로 데이터를 가져와서 상기 차종 별 학습 데이터 세트를 구성하고, 상기 학습 데이터 세트로부터 상기 위치 데이터 기반으로 일정 구간을 ROI로 정한 도로에서의 데이터를 가져와서 상기 도로 별 학습 데이터 세트를 구성하고, 상기 학습 데이터 세트로부터 운전자정보 데이터에 포함된 운전자 ID를 기반으로 데이터를 가져와서 상기 운전자 별 학습 데이터 세트를 구성할 수 있다.
상기 프로세서는 상기 차종 별 학습 데이터 세트, 상기 도로 별 학습 데이터 세트, 및 상기 운전자 별 학습 데이터 세트 별로 상기 주행 상황을 분석하기 위한 신경망 및 상기 운전 습관을 분석하기 위한 신경망 각각을 학습시킬 수 있다.
상기 프로세서는 추가 학습 데이터 세트에 대하여 상기 주행 상황 및 운전 습관에 대한 정보를 자동으로 라벨링하고, 상기 라벨링 이후에 상기 학습 데이터 세트를 이용하여 학습된 신경망을 상기 추가 학습 데이터 세트로 학습시킬 수 있다.
상기 추가 학습 데이터 세트에 대하여 라벨링되는 상기 주행 상황 및 운전 습관에 대한 정보는 상기 학습 데이터 세트를 이용하여 학습된 신경망을 통해 추론된 값일 수 있다.
도 1은 일 실시예에 따른 클라우드 기반 자율 주행 시스템을 나타낸다.
도 2는 데이터 수집 동작을 설명하기 위한 도면이다.
도 3은 학습 데이터 생성을 위한 데이터 전처리 동작을 설명하기 위한 도면이다.
도 4는 학습 데이터 세분화 동작을 설명하기 위한 도면이다.
도 5a 및 도 5b는 신경망 학습을 설명하기 위한 도면이다.
도 6은 점진자가 학습 동작을 설명하기 위한 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
실시예는 자율주행 방법(즉, 자율주행을 위한 학습 방법)에 관한 것이다. 자율주행 방법은 주행에서 얻을 수 있는 데이터를 활용하여 자율주행 차량의 주행 상황 학습 및 분석 방법, 및 자율주행 차량의 주행에 도움이 될 수 있도록 운전자 운전 습관도 학습 및 분석 방법을 포함한다. 또한, 자율주행 방법은 클라우드를 이용하여 지속적으로 데이터를 받아 주행 상황 및 운전 습관을 분석하는 신경망을 최적화한다.
본 명세서에서의 모듈(module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다.
다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.
도 1은 일 실시예에 따른 클라우드 기반 자율 주행 시스템을 나타낸다.
클라우드 기반 자율 주행 시스템(10)은 하나 이상의 차량(100), 데이터 서버(200), 및 클라우드 서버(300)를 포함한다. 이하에서는 설명의 편의를 위해 차량(100)으로 한정하여 설명하지만, 이하에서 설명되는 데이터 서버(200) 및 클라우드 서버(300)에 관한 내용은 다양한 이동체에 적용 가능하다. 이동체는 드론, 무인기, 비행기, 배, 바이크, 전기 자전거 등 다양한 이동 수단을 의미할 수 있다.
차량(100) 및 데이터 서버(200)으로부터 수집되는 다양한 데이터는 주행 상황 및 운전 습관 분석을 위해 사용될 수 있다. 차량(100)은 영상 데이터, 주행 데이터, 위치 데이터, 포인트 클라우드 데이터(Point Cloud Data) 등을 클라우드 서버(300)로 전송할 수 있다. 데이터는 다량의 다양한 차량(100)으로부터 지속적으로 수집되고, 클라우드 서버(300)로 전송되어 저장될 수 있다. 데이터 서버(200)는 차량정보 데이터 및 운전자정보 데이터 등을 클라우드 서버(300)로 전송할 수 있다.
클라우드 서버(300)는 자율 주행 학습 장치(400)를 포함한다. 도 1에서는 자율 주행 학습 장치(400)가 클라우드 서버(300)의 내에 구현된 것으로 도시하고 있지만, 반드시 이에 한정되는 것은 아니며, 실시예에 따라 자율 주행 학습 장치(400)는 클라우드 서버(300) 외부에 구현될 수도 있다.
자율 주행 학습 장치(400)는 수집한 데이터를 이용하여 자율주행 차량의 주행 상황 및 운전자의 운전 습관을 분석하는 신경망을 학습시킬 수 있다. 자율 주행 학습 장치(400)는 메모리(410) 및 컨트롤러(430)를 포함할 수 있다.
메모리(410)는 컨트롤러(430)에 의해 실행가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 컨트롤러(430)의 동작 및/또는 컨트롤러(430)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
컨트롤러(430)는 메모리(410)에 저장된 데이터를 처리할 수 있다. 컨트롤러(430)는 메모리(410)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 컨트롤러(430)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.
컨트롤러(430)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
컨트롤러(430)는 차량(100)의 자율 주행을 위한 동작을 학습할 수 있다. 컨트롤러(430)는 자율주행 차량의 주행 상황 및 운전자의 운전 습관을 분석하는 신경망을 학습시킬 수 있다. 이를 위해, 컨트롤러(430)는 1) 데이터 수집 2) 학습 데이터 생성을 위한 데이터 전처리 3) 학습 데이터 세분화 4) 신경망 학습 5) 점진자가 학습 등을 수행할 수 있다.
이하에서는, 1)~5)에 대한 상세한 설명을 하도록 한다.
도 2는 데이터 수집 동작을 설명하기 위한 도면이다.
주행 상황 및 운전 습관 분석을 위해 학습에 사용될 수 있는 데이터는 차량(100) 및 데이터 서버(200)으로부터 수집될 수 있다. 수집된 데이터는 데이터베이스(DB)에 저장되어 관리될 수 있다. 데이터베이스(DB)는 클라우드 서버(300) 및/또는 자율 주행 학습 장치(400)에 구현될 수 있다.
차량(100)으로부터 수집되는 데이터는 표 1과 같을 수 있다.
Figure 112020082400998-pat00001
영상 데이터는 차량(100)에 포함된 카메라로부터 수집될 수 있다. 이때, 영상 데이터는 프레임 단위로 수집될 수 있다. 카메라는 차량(100)의 전면, 측면, 및 후방에 부착된 카메라 및/또는 360도 카메라로 구성될 수 있다.
주행 데이터는 차량(100)의 주행 시 발생하는 엑셀레이터 값, 브레이크 값, 및 핸들 조향 값을 포함할 수 있다. 또한, 주행 데이터는 속도 등 차량(100)에 내재된 다양한 장치들의 데이터를 포함할 수 있다. 주행 데이터는 차량(100)에 구현된 장치, 예를 들어 ECU(Electronic Control Unit), OBU(On Board Unit) 등으로부터 획득될 수 있다.
위치 데이터는 차량(100) 및/또는 운전자와 연동된 GPS의 위치 데이터를 의미할 수 있다. GPS는 차량(100)에 내재되거나 운전자가 소지한 전자 장치(예를 들어, 스마트 폰 등)에 내재된 것일 수 있다.
포인트 클라우드 데이터는 차량(100)에 포함된 LiDAR 장치로부터 수집될 수 있다. 포인트 클라우드 데이터는 차량(100)의 주행 시 주변의 차량과 객체를 확인하고 거리를 계산하는데 이용될 수 있다.
각 데이터 수집 장치(카메라, ECU, OBU, GPS, LiDAR 등)는 각 데이터 수집 시 데이터 수집 시점에 해당하는 시간 데이터를 생성할 수 있다. 예를 들어, 영상 데이터, 주행 데이터, 위치 데이터, 및 포인트 클라우드 데이터는 데이터 수집 시점에 해당하는 시간 데이터를 포함할 수 있다. 시간 데이터도 클라우드 서버(300)로 전송되어 저장될 수 있다.
상술한 주행 데이터, 위치 데이터, 포인트 클라우드 데이터, 및 시간 데이터는 차량(100)이 수집해서 한 번에 클라우드 서버(300)로 전송될 수 있다.
데이터 서버(200)로부터 수집되는 데이터는 표 2와 같을 수 있다.
Figure 112020082400998-pat00002
차량정보 데이터 및 운전자정보 데이터 등이 데이터 서버(200)로부터 수집될 수 있다. 차량정보 데이터는 차량(100)의 차종, 연식, 크기 등의 차량정보를 포함하고, 운전자정보 데이터는 운전자 ID, 나이, 성별 등의 운전자정보를 포함할 수 있다.
상술한 데이터 이외에도 주행 상황 및 운전 습관 분석에 필요한 기타 데이터는 클라우드 서버(300)의 요구에 따라 추가 수집될 수 있다.
도 3은 학습 데이터 생성을 위한 데이터 전처리 동작을 설명하기 위한 도면이다.
컨트롤러(430)는 동기화 모듈(431), 데이터 생성 모듈(432), 정보 부여 모듈(433)을 포함할 수 있다. 도 2에서 수집한 데이터는 신경망 모델의 학습 데이터로 사용되기 위해 전처리될 수 있는데, 컨트롤러(430)의 각 모듈(431~434)을 통해 전처리되어 학습 데이터로 사용될 수 있는 것이다.
수집한 데이터는 제1 데이터 스토리지(DS1)에 저장될 수 있다.
동기화 모듈(431)은 시간 데이터에 기초하여 수집한 데이터를 동기화할 수 있다. 예를 들어, 동기화 모듈(431)은 데이터의 수집 시간을 기준으로 수집한 데이터를 정렬할 수 있다. 이때, 수집 시간은 동일 수집 시간뿐만 아니라 비슷한 시간대, 즉 유사 수집 시간도 포함되도록 특정 수집 시간 범위를 의미할 수 있다. 즉, 동기화 모듈(431)은 수집한 데이터를 동일하거나 유사한 시간 대에 수집(또는 획득)한 데이터로 구분하여 정렬하는 것이다.
동기화 모듈(431)은 시간 데이터를 기준으로 동기화된 데이터, 예를 들어 영상 데이터, 주행 데이터, 위치 데이터, 포인트 클라우드 데이터, 및 기타 데이터를 제2 데이터 스토리지(DS2)에 저장할 수 있다. 수집 시간을 기준으로 동기화된 데이터는 제2 데이터 스토리지(DS2)에 저장되어 관리될 수 있다.
또한, 동기화 모듈(431)은 시간 데이터를 기준으로 동기화된 데이터 중 영상 데이터 및 포인트 클라우드 데이터를 데이터 생성 모듈(432)로 전송할 수 있다.
데이터 생성 모듈(432)은 영상 데이터 및 포인트 클라우드 데이터를 이용하여 차량(100)의 주변, 예를 들어 전방 및/또는 후방의 주변에 위치한 객체의 정보를 알 수 있는 주변 객체 정보데이터를 생성할 수 있다. 객체의 정보는 객체의 레이블 및 객체의 위치를 포함할 수 있다. 객체의 위치는 객체가 차량(100)을 기준으로 어느 정도 거리의 위치하고 있는지를 나타내는 것이다.
데이터 생성 모듈(432)은 영상 데이터에 포함된 객체의 종류를 인식하고, 영상 데이터에서의 객체의 위치와 포인트 클라우드 데이터에서 인식한 객체를 중점(center point) 기준으로 연동할 수 있다. 이렇게, 데이터 생성 모듈(432)은 주변에 어떤 객체가 어느 위치에 어느 거리에 있는지를 알 수 있는 주변 객체 정보데이터를 생성할 수 있다.
데이터 생성 모듈(432)은 영상 데이터와 포인트 클라우드 데이터의 수집 시간에 기초하여 주변 객체 정보데이터를 시간 데이터를 기준으로 동기화된 데이터에 동기화되어 저장되도록 제2 데이터 스토리지(DS2)로 출력할 수 있다.
제2 데이터 스토리지(DS2)는 시간 데이터를 기준으로 동기화된 데이터인 영상 데이터, 주행 데이터, 위치 데이터, 포인트 클라우드 데이터, 주변 객체 정보데이터 및 기타 데이터를 저장할 수 있다.
제3 데이터 스토리지(DS3)는 주행 상황 정보 및 운전 습관 정보를 저장할 수 있다. 주행 상황 정보는 차량의 주행 상황을 설명 및/또는 정의하는 것이고, 운전 습관 정보는 운전자의 운전 습관을 설명 및/또는 정의하는 것일 수 있다.
정보 부여 모듈(433)은 동기화된 데이터 중 시간 데이터의 시간 단위를 기준으로 연속된 데이터에 대해 주행 상황 정보를 라벨링하여 제1 학습 데이터 세트를 생성할 수 있다. 또한, 정보 부여 모듈(433)은 동기화된 데이터 중 시간 데이터의 시간 단위를 기준으로 연속된 데이터에 대해 운전 습관 정보를 라벨링하여 제2 학습 데이터 세트를 생성할 수 있다. 예를 들어, 시간 단위는 초 단위일 수 있고, 연속된 데이터의 개수는 임의의 개수로 정할 수 있다.
정보 부여 모듈(433)은 제1 학습 데이터 세트 및 제2 학습 데이터 세트를 포함하는 전체 학습 데이터 세트를 제4 데이터 스토리지(DS4)에 저장할 수 있다.
학습 데이터는 도 3에서 상술한 전처리 동작을 통해 생성될 수 있다.
도 4는 학습 데이터 세분화 동작을 설명하기 위한 도면이다.
컨트롤러(430)는 도 3의 구성들(431~433) 이외에 학습 데이터 세분화 모듈(434)를 더 포함할 수 있다.
학습 데이터 세분화 모듈(434)은 학습 데이터를 세분화할 수 있다. 예를 들어, 학습 데이터 세분화 모듈(434)은 전체 학습 데이터 세트 이외에, 전체 학습 데이터 세트로부터 차종 별 학습 데이터 세트, 도로 별 학습 데이터 세트, 및 운전자 별 학습 데이터 세트로 세분화할 수 있다.
차종 별 학습 데이터 세트는 전체 학습 데이터 세트 중에서 차종 별로 구성된 학습 데이터일 수 있다. 학습 데이터 세분화 모듈(434)은 전체 학습 데이터 세트로부터 차량 정보데이터의 차종을 기반으로 데이터를 가져와서 차종 별 학습 데이터 세트를 구성할 수 있다.
도로 별 학습 데이터 세트는 전체 학습 데이터 세트 중에서 도로 별로 구성된 학습 데이터일 수 있다. 학습 데이터 세분화 모듈(434)은 전체 데이터 세트로부터 위치 데이터 기반으로 일정 구간을 ROI로 정한 도로에서의 데이터를 가져와서 도로 별 학습 데이터 세트를 구성할 수 있다. 지정되는 도로는 위치 데이터 기반의 ROI를 설정하여 가져올 수 있다.
운전자 별 학습 데이터 세트는 전체 학습 데이터 세트 중에서 운전자 별로 구성된 학습 데이터일 수 있다. 학습 데이터 세분화 모듈(434)은 전체 데이터 세트로부터 운전자정보 데이터의 운전자 ID를 기반으로 데이터를 가져와서 운전자 별 학습 데이터 세트를 구성할 수 있다.
이러한 학습 데이터 세트는 신경망 학습을 위해 사용될 수 있다.
도 5a 및 도 5b는 신경망 학습을 설명하기 위한 도면이다.
컨트롤러(430)는 도 3 및 4의 구성들(431~434) 이외에 학습 모듈(435)를 더 포함할 수 있다. 학습 모듈(435)은 학습 데이터로 도 5a 및 도 5b의 신경망을 학습시킬 수 있다. 도 5a의 신경망은 주행 상황 분석을 위한 것이고, 도 5b의 신경망은 운전 습관 분석을 위한 것일 수 있다. 도 5a 및 도 5b의 신경망의 구조는 동일하지만, 학습 데이터에서의 출력이 각각 다르기 때문에 달리 학습될 수 있다.
도 5a 및 도 5b의 신경망은 CNN 기반 모델과 LSTM 네트워크가 융합된 것이다. 차량(100) 주행의 과정은 시계열 형태의 데이터이므로 LSTM을 사용하는 것이다. LSTM 네트워크는 복수의 LSTM 셀 구조를 포함할 수 있다.
학습 데이터는 시계열 형태로 구성되어 입력될 수 있다. 각 신경망의 입력은 영상 데이터, 주행 데이터, 및 주변 객체 정보데이터일 수 있다. 영상 데이터는 CNN 기반 모델을 거쳐 특징 맵이 추출되어 특징 맵 형태로 LSTM으로 입력될 수 있다. 도 5a의 신경망의 출력은 주행 상황 정보이고, 도 5b의 신경망의 출력은 운전 습관 정보일 수 있다.
학습 모듈(435)은 각 신경망의 최적화를 위해 학습 데이터 별로 각 신경망을 학습시킬 수 있다. 학습 모듈(435)은 전체 학습 데이터 세트로 각 신경망에 대해 학습을 진행하며, 차종 별 학습 데이터 세트, 도로 별 학습 데이터 세트, 및 운전자 별 학습 데이터 세트를 활용하여 각 신경망을 학습시킬 수 있다.
학습 모듈(435)은 차종 별 학습 데이터 세트를 활용하여 각 신경망을 학습시켜 차종에 최적화(또는 세분화)된 신경망 모델을 획득할 수 있다. 컨트롤러(430)는 이를 활용하여 차종에 최적화된 주행 상황 및 운전 습관 특성을 분석할 수 있다.
학습 모듈(435)은 도로 별 학습 데이터 세트를 활용하여 각 신경망을 학습시켜 도로에 최적화(또는 세분화)된 신경망 모델을 획득할 수 있다. 컨트롤러(430)는 이를 활용하여 도로에 최적화된 주행 상황 및 운전 습관 특성을 분석할 수 있다.
또한, 학습 모듈(435)은 운전자 별 학습 데이터 세트를 활용하여 각 신경망을 학습시켜 운전자에 최적화(또는 세분화)된 신경망 모델을 획득할 수 있다. 컨트롤러(430)는 이를 활용하여 운전자에 최적화된 주행 상황 및 운전 습관 특성을 분석할 수 있다.
상술한 바와 같이, 컨트롤러(430)는 학습 데이터 별로 각 신경망을 학습시키고, 학습된 신경망을 이용하여 주행 상황 및 운전 습관 특성을 분석할 수 있다. 학습 모듈(435)은 학습 결과로 학습된 DNN 모델을 생성할 수 있다.
도 6은 점진자가 학습 동작을 설명하기 위한 도면이다.
컨트롤러(430)는 점진자가 학습 동작을 수행할 수 있다. 이를 위해, 컨트롤러(430)는 자동 부여 모듈(auto annotation module; 436)을 더 포함할 수 있다.
상술한 방법으로 학습시킨 신경망을 새로 수집되는 데이터를 학습 데이터로 만드는데 활용할 수 있다. 기존 학습 데이터 외에 추가된 학습 데이터를 일정량 모은 후 기존 신경망 모델에 학습하는 점진적 학습을 통해 신경망 모델을 개선할 수 있다.
도 5a 및 도 5b에서 설명한 바와 같이, 학습 모듈(435)은 학습 데이터 세트를 사용하여 각 신경망을 학습시킬 수 있다. 학습 모듈(435)은 학습 결과로 학습된 DNN 모델을 획득하여 이를 출력할 수 있다.
자동 부여 모듈(436)은 새로 수집된 추가 학습 데이터 세트에 대하여 주행 상황 및 운전 습관에 대한 정보를 자동으로 라벨링할 수 있다. 라벨링되는 주행 상황 및 운전 습관에 대한 정보는 학습된 DNN 모델을 이용하여 추론한 값일 수 있다.
상술한 바와 같이, 실시예들은 자율주행 차량의 주행상황 및 운전자의 운전 습관을 분석하고 차량 제어에 활용하여 자율주행 차량의 주행 시 발생할 수 있는 주행 부자연스러움을 완화시켜줄 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (18)

  1. 주행 상황 및 운전 습관 분석을 위한 학습 방법에 있어서,
    주행 중인 차량에서 수집된 영상 데이터, 주행 데이터, 위치 데이터, 및 포인트 클라우드 데이터를 획득하는 단계;
    시간 데이터에 기초하여 수집한 데이터를 동기화하는 단계;
    동기화된 데이터 중에서 상기 영상 데이터 및 상기 포인트 클라우드 데이터에 기초하여 차량의 주변에 위치한 객체의 정보를 알 수 있는 주변 객체 정보데이터를 생성하는 단계;
    상기 주변 객체 정보데이터가 포함된 상기 동기화된 데이터에 대해 주행 상황 정보 및 운전 습관 정보를 라벨링하여 학습 데이터 세트를 생성하는 단계; 및
    상기 학습 데이터 세트를 이용하여 주행 상황 및 운전 습관을 분석하기 위한 신경망을 학습시키는 단계
    를 포함하고,
    상기 주변 객체 정보데이터를 생성하는 단계는,
    상기 영상 데이터에 포함된 상기 객체의 종류를 인식하는 단계; 및
    상기 영상 데이터에서의 상기 객체의 위치와 상기 포인트 클라우드 데이터에서 인식한 상기 객체를 중점(center point) 기준으로 연동하는 단계
    를 포함하고,
    상기 학습시키는 단계는,
    상기 학습 데이터 세트를 상기 학습 데이터 세트로부터 차량정보 데이터에 포함된 차종을 기반으로 데이터를 가져와서 구성된 차종 별 학습 데이터 세트, 상기 학습 데이터 세트로부터 상기 위치 데이터 기반으로 일정 구간을 ROI로 정한 도로에서의 데이터를 가져와서 구성된 도로 별 학습 데이터 세트, 및 상기 학습 데이터 세트로부터 운전자정보 데이터에 포함된 운전자 ID를 기반으로 데이터를 가져와서 구성된 운전자 별 학습 데이터 세트로 세분화하는 단계
    를 포함하는, 프로세서를 통해 수행되는, 학습 방법.
  2. 제1항에 있어서,
    상기 객체의 정보는 상기 객체의 레이블 및 위치를 포함하는, 학습 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 학습 데이터 세트를 생성하는 단계
    상기 동기화된 데이터 중 상기 시간 데이터의 시간 단위를 기준으로 연속된 데이터에 대해 상기 주행 상황 정보 및 상기 운전 습관 정보를 라벨링하는 단계
    를 포함하는, 학습 방법.
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 학습시키는 단계는,
    상기 차종 별 학습 데이터 세트, 상기 도로 별 학습 데이터 세트, 및 상기 운전자 별 학습 데이터 세트 별로 상기 주행 상황을 분석하기 위한 신경망 및 상기 운전 습관을 분석하기 위한 신경망 각각을 학습시키는 단계
    를 더 포함하는, 학습 방법.
  8. 제1항에 있어서,
    추가 학습 데이터 세트에 대하여 상기 주행 상황 및 운전 습관에 대한 정보를 자동으로 라벨링하는 단계; 및
    상기 라벨링 이후에 상기 학습 데이터 세트를 이용하여 학습된 신경망을 상기 추가 학습 데이터 세트로 학습시키는 단계
    를 더 포함하는, 학습 방법.
  9. 제8항에 있어서,
    상기 추가 학습 데이터 세트에 대하여 라벨링되는 상기 주행 상황 및 운전 습관에 대한 정보는 상기 학습 데이터 세트를 이용하여 학습된 신경망을 통해 추론된 값인, 학습 방법.
  10. 하나 이상의 인스트럭션을 포함하는 메모리; 및
    상기 인스트럭션을 실행시키기 위한 프로세서
    를 포함하고,
    상기 인스트럭션이 실행될 때, 상기 프로세서는,
    주행 중인 차량에서 수집된 영상 데이터, 주행 데이터, 위치 데이터, 및 포인트 클라우드 데이터를 획득하고,
    시간 데이터에 기초하여 수집한 데이터를 동기화하고,
    동기화된 데이터 중에서 상기 영상 데이터 및 상기 포인트 클라우드 데이터에 기초하여 상기 영상 데이터에 포함된 객체의 종류를 인식하고, 상기 영상 데이터에서의 상기 객체의 위치와 상기 포인트 클라우드 데이터에서 인식한 상기 객체를 중점(center point) 기준으로 연동하여 차량의 주변에 위치한 객체의 정보를 알 수 있는 주변 객체 정보데이터를 생성하고,
    상기 주변 객체 정보데이터가 포함된 상기 동기화된 데이터에 대해 주행 상황 정보 및 운전 습관 정보를 라벨링하여 학습 데이터 세트를 생성하고,
    상기 학습 데이터 세트를 상기 학습 데이터 세트로부터 차량정보 데이터에 포함된 차종을 기반으로 데이터를 가져와서 구성된 차종 별 학습 데이터 세트, 상기 학습 데이터 세트로부터 상기 위치 데이터 기반으로 일정 구간을 ROI로 정한 도로에서의 데이터를 가져와서 구성된 도로 별 학습 데이터 세트, 및 상기 학습 데이터 세트로부터 운전자정보 데이터에 포함된 운전자 ID를 기반으로 데이터를 가져와서 구성된 운전자 별 학습 데이터 세트로 세분화하고,
    상기 학습 데이터 세트를 이용하여 주행 상황 및 운전 습관을 분석하기 위한 신경망을 학습시키는, 자율 주행 학습 장치.
  11. 제10항에 있어서,
    상기 객체의 정보는 상기 객체의 레이블 및 위치를 포함하는, 자율 주행 학습 장치.
  12. 삭제
  13. 제10항에 있어서,
    상기 프로세서는,
    상기 동기화된 데이터 중 상기 시간 데이터의 시간 단위를 기준으로 연속된 데이터에 대해 상기 주행 상황 정보 및 상기 운전 습관 정보를 라벨링하는, 자율 주행 학습 장치.
  14. 삭제
  15. 삭제
  16. 제10항에 있어서,
    상기 프로세서는,
    상기 차종 별 학습 데이터 세트, 상기 도로 별 학습 데이터 세트, 및 상기 운전자 별 학습 데이터 세트 별로 상기 주행 상황을 분석하기 위한 신경망 및 상기 운전 습관을 분석하기 위한 신경망 각각을 학습시키는, 자율 주행 학습 장치.
  17. 제10항에 있어서,
    상기 프로세서는,
    추가 학습 데이터 세트에 대하여 상기 주행 상황 및 운전 습관에 대한 정보를 자동으로 라벨링하고,
    상기 라벨링 이후에 상기 학습 데이터 세트를 이용하여 학습된 신경망을 상기 추가 학습 데이터 세트로 학습시키는, 자율 주행 학습 장치.
  18. 제17항에 있어서,
    상기 추가 학습 데이터 세트에 대하여 라벨링되는 상기 주행 상황 및 운전 습관에 대한 정보는 상기 학습 데이터 세트를 이용하여 학습된 신경망을 통해 추론된 값인, 자율 주행 학습 장치.

KR1020200098159A 2020-08-05 2020-08-05 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치 KR102206684B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200098159A KR102206684B1 (ko) 2020-08-05 2020-08-05 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200098159A KR102206684B1 (ko) 2020-08-05 2020-08-05 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치

Publications (1)

Publication Number Publication Date
KR102206684B1 true KR102206684B1 (ko) 2021-01-22

Family

ID=74309872

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200098159A KR102206684B1 (ko) 2020-08-05 2020-08-05 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치

Country Status (1)

Country Link
KR (1) KR102206684B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116494991A (zh) * 2023-06-20 2023-07-28 深圳市美力高集团有限公司 一种基于ai识别的驾驶习惯分析系统及方法
KR20230131984A (ko) 2022-03-07 2023-09-15 부산대학교 산학협력단 가변하는 운전성향을 고려한 운전자 식별 장치 및 방법 그리고 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170057084A (ko) * 2015-11-16 2017-05-24 삼성전자주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
KR20190110073A (ko) * 2019-09-09 2019-09-27 엘지전자 주식회사 인공 지능 모델을 갱신하는 인공 지능 장치 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170057084A (ko) * 2015-11-16 2017-05-24 삼성전자주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
KR20190110073A (ko) * 2019-09-09 2019-09-27 엘지전자 주식회사 인공 지능 모델을 갱신하는 인공 지능 장치 및 그 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230131984A (ko) 2022-03-07 2023-09-15 부산대학교 산학협력단 가변하는 운전성향을 고려한 운전자 식별 장치 및 방법 그리고 시스템
KR102589270B1 (ko) * 2022-03-07 2023-10-17 부산대학교 산학협력단 가변하는 운전성향을 고려한 운전자 식별 장치 및 방법 그리고 시스템
CN116494991A (zh) * 2023-06-20 2023-07-28 深圳市美力高集团有限公司 一种基于ai识别的驾驶习惯分析系统及方法

Similar Documents

Publication Publication Date Title
CN109032103B (zh) 无人驾驶车辆的测试方法、装置、设备及存储介质
US11899748B2 (en) System, method, and apparatus for a neural network model for a vehicle
KR20190112378A (ko) 영상 분할 방법, 영상 분할 장치, 및 영상 분할을 위한 학습 방법
US11120275B2 (en) Visual perception method, apparatus, device, and medium based on an autonomous vehicle
KR102206684B1 (ko) 주행 상황 및 운전 습관을 분석하기 위한 학습 방법 및 이를 수행하는 장치
CN109693672B (zh) 用于控制无人驾驶汽车的方法和装置
CN109407679B (zh) 用于控制无人驾驶汽车的方法和装置
CN112307978A (zh) 目标检测方法、装置、电子设备及可读存储介质
US11308324B2 (en) Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof
CN111753862A (zh) 训练神经网络模型的方法及装置、图像识别方法
CN112650300A (zh) 一种无人机避障方法和装置
CN113326826A (zh) 网络模型的训练方法、装置、电子设备及存储介质
KR20240042663A (ko) 시뮬레이션 콘텐트를 사용한 비전 기반 시스템 훈련
CN111210411B (zh) 图像中灭点的检测方法、检测模型训练方法和电子设备
KR102297578B1 (ko) 이동체의 자율 주행 제어 방법 및 이를 수행하는 장치들
CN112668596B (zh) 三维物体识别方法及装置、识别模型训练方法及装置
CN112509321A (zh) 一种基于无人机的城市复杂交通情景的驾驶控制方法、系统及可读存储介质
CN116776999A (zh) 自动驾驶系统中的自我监督网络的联合学习的系统和方法
US11663294B2 (en) System and method for training a model using localized textual supervision
CN115631482A (zh) 驾驶感知信息采集方法、装置、电子设备和可读介质
US20220188621A1 (en) Generative domain adaptation in a neural network
CN111652065B (zh) 基于车辆感知和智能穿戴的多模态安全驾驶方法、设备及系统
CN116259035A (zh) 一种标注数据的生成方法及装置
CN108860150A (zh) 汽车制动方法、装置、设备及计算机可读存储介质
US20220317301A1 (en) Modeling foliage in a synthetic environment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant