KR20200144166A - 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 - Google Patents

머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 Download PDF

Info

Publication number
KR20200144166A
KR20200144166A KR1020190071368A KR20190071368A KR20200144166A KR 20200144166 A KR20200144166 A KR 20200144166A KR 1020190071368 A KR1020190071368 A KR 1020190071368A KR 20190071368 A KR20190071368 A KR 20190071368A KR 20200144166 A KR20200144166 A KR 20200144166A
Authority
KR
South Korea
Prior art keywords
vehicle
information
driving
service
user
Prior art date
Application number
KR1020190071368A
Other languages
English (en)
Other versions
KR102209361B1 (ko
Inventor
최종은
박제현
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020190071368A priority Critical patent/KR102209361B1/ko
Publication of KR20200144166A publication Critical patent/KR20200144166A/ko
Application granted granted Critical
Publication of KR102209361B1 publication Critical patent/KR102209361B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 주행 보조를 위한 음성 서비스 제공 시스템 및 그 방법에 관한 것이다. 구체적으로 본 발명은 차량에 장착되어 사용자에게 필요한 상기 차량의 차량 정보 및 주변환경 정보를 감지하는 센싱장치와, 상기 센싱장치에서 생성되는 상기 차량 및 주변환경 정보를 각각 수집하는 수집부와, 상기 차량 및 주변환경 정보를 기초로 상기 사용자에게 개인화된 운전 서비스를 학습하여, 상기 차량의 주변 상황인 주행정보를 판단하고, 상기 주행정보를 기초로 상기 사용자에게 제공할 주행서비스를 판단하는 제1판단부와, 상기 주행정보를 기초로 상기 사용자에게 제공할 상기 주행서비스의 우선순위를 판단하는 제2판단부 및, 상기 제2판단부에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스를 상기 사용자에게 음성으로 제공하는 출력부를 포함하여, 사용자에게 주행의 안전뿐만 아니라 주행의 사용자 맞춤 퍼포먼스나 엔터테인먼트를 제공하는 효과를 얻을 수 있다.

Description

머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법{Data-based voice service system and method using machine learning algorithm}
본 발명은 운전 보조 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 실 주행 환경 센서 정보를 머신러닝 알고리즘으로 상황을 판단하여 사용자에게 음성으로 서비스를 제공하는 시스템 및 그 방법에 관한 것이다.
현재 교통의 안전을 위해 운전 보조 시스템으로 '첨단 운전자 지원 시스템(Advanced Driver Assistance Systems, ADAS)' 등 다양한 자동차 기술이 개발되고 있다. 상기 첨단 운전자 지원 시스템의 가장 큰 장점은 객체와 차량 환경을 모두 감지할 수 있다는 것이다. 이때 상기 첨단 운전자 지원 시스템은 충돌 위험시 운전자가 제동장치를 밟지 않아도 스스로 속도를 줄이거나 멈추는 '자동 긴급제동 시스템(Autonomous Emergency Braking, AEB)', 차선 이탈 시 주행 방향을 조절해 차선을 유지하는 '주행 조향보조 시스템(Lane Keep Assist System, LKAS)', 사전에 정해 놓은 속도로 달리면서도 앞차와 간격을 알아서 유지하는 '어드밴스트 스마트 크루즈 컨트롤(Advanced Smart Cruise Control, ASCC)', 사각지대 충돌 위험을 감지해 안전한 차로 변경을 돕는 '후측방 충돌 회피 지원 시스템Active Blind Spot Detection, ABSD)', 차량 주변 상황을 시각적으로 보여주는 '어라운드 뷰 모니터링 시스템(Around View Monitor, AVM)' 등을 포함한다.
이렇게 교통의 안전을 위한 기술 개발은 많이 이루어지고 있지만, 운전자 개인에 맞는 서비스를 제공하는 운전 보조 시스템은 부족한 현실이다. 한편, 운전자 수용성을 확보하기 위해 개인화된 제어기술을 확보할 수 있도록 하는 자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법이 한국공개특허공보 제10-2018-0090660호("자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법", 2018.08.13. 공개)에 개시된다. 상기한 문헌에서는 운전자 수용성을 확보하기 위한 데이터를 수집하고 학습해서, 운전자에 맞는 개인화된 이동경로를 제공하는 효과가 있으나, 단지 이동경로를 제공하는데 그치고 운전의 퍼포먼스나 엔터테인먼트 같은 요소들을 제공해주지는 못한다.
KR 10-2018-0090660 A ("자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법") 2018.08.13. 공개
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 실 주행 환경 센서 정보를 머신러닝 알고리즘으로 상황을 판단하여 사용자에게 음성으로 서비스를 제공하는 시스템 및 그 방법에 관한 것이다. 보다 상세하게는 상황을 판단하는 여러 개의 예측 모듈을 포함하여 안전뿐만 아니라 퍼포먼스나 엔터테인먼트 같은 서비스를 제공하는 시스템 및 그 방법을 제안한다.
상기와 같은 목적을 달성하기 위하여 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템은, 차량에 장착되어 사용자에게 필요한 상기 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱장치(100), 상기 센싱장치(100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집부(200), 상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단부(300), 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단부(400) 및, 상기 제2판단부(400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공하는 출력부(500)를 포함한다.
또한, 본 발명의 상기 제1판단부(300)는 상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여, 상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 정보를 학습한다.
또한, 본 발명의 상기 차량 정보(I1)는 상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주변환경 정보(I2)는 상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 상기 사용자의 사용자 상태 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도 및, 주변 환경 중 적어도 어느 하나를 포함하고, 상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스, 및 환경 서비스 중 적어도 어느 하나를 포함한다.
또한, 본 발명의 상기 제1판단부는(300)는 위험예측모듈(310), 주행향상모듈(320), 및 배경설명모듈(330) 중 적어도 어느 하나를 포함하고, 상기 위험예측모듈(310)에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고, 상기 주행향상모듈(320)에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며, 상기 배경설명모듈(330) 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단한다.
또한, 본 발명의 상기 센싱장치(100)는 LiDAR, 머신 비전 카메라, 네비게이션, 차량센서, 통신장치 중 적어도 하나를 포함한다.
한편, 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법은 사용자에게 필요한 상기 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱단계(S100), 상기 센싱단계(S100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집단계(S200), 상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단단계(S300), 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단단계(S400) 및, 상기 제2판단단계(S400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공해주는 출력단계(S500)를 포함한다.
또한, 본 발명의 상기 제1판단단계(S300)는 상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여, 상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 서비스를 학습한다.
또한, 본 발명의 상기 차량 정보(I1)는 상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주변환경 정보(I2)는 상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 상기 사용자의 사용자 상태 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도, 및 주변 환경 중 적어도 어느 하나를 포함하고, 상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스 및, 환경 서비스 중 적어도 어느 하나를 포함한다.
또한, 본 발명의 상기 제1판단단계(S300)는 위험예측단계, 주행향상단계, 및 배경설명단계 중 적어도 어느 하나를 포함하고, 상기 위험예측단계에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고, 상기 주행향상단계에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며, 상기 배경설명단계에서 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단한다.
상기와 같은 구성에 따른 본 발명은 주행 상황을 판단하는 여러 개의 예측 모듈을 포함하여, 사용자에게 주행의 안전뿐만 아니라 퍼포먼스나 엔터테인먼트를 제공하는 효과를 얻을 수 있다.
또한, 본 발명은 주행 상황을 판단하는 여러 개의 예측 모듈들의 정보들로부터 우선순위를 결정하여 사용자 맞춤 음성 서비스를 제공할 수 있는 효과를 얻을 수 있다.
도 1은 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템을 나타내는 블록도이다.
도 2 내지 4는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템의 세부 구성들을 나타내는 블록도이다.
도 5는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법을 나타내는 흐름도이다.
도 6은 본 발명에 따른 제2판단단계(400)의 상세 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명을 하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하, 본 발명의 기술적 사상을 첨부된 도면을 사용하여 더욱 구체적으로 설명한다.
첨부된 도면은 본 발명의 기술적 사상을 더욱 구체적으로 설명하기 위하여 도시한 일예에 불과하므로 본 발명의 기술적 사상이 첨부된 도면의 형태에 한정되는 것은 아니다.
도 1에 도시된 바와 같이, 본 발명은 센싱장치(100), 수집부(200), 제1판단부(300), 제2판단부(400) 및 출력부(500)를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000)을 제공할 수 있다.
상기 센싱장치(100)는 차량에 장착되어 사용자에게 필요한 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지할 수 있다. 또한, 상기 수집부(200)는 센싱장치(100)에서 생성되는 차량 및 주변환경 정보(I1, I2)를 각각 수집할 수 있다. 또한, 차량 및 주변환경 정보(I1, I2)를 기초로 사용자에게 개인화된 운전 정보를 학습하여, 차량의 주변 상황인 주행정보(D)를 판단하고, 주행정보(D)를 기초로 사용자에게 제공할 주행서비스(S)를 판단할 수 있다. 그리고 상기 제2판단부(400)는 주행정보(D)를 기초로 사용자에게 제공할 주행서비스(S)의 우선순위를 판단할 수 있다. 그리고 출력부(500)는 제2판단부에서 우선순위를 바탕으로 판단한 주행서비스(S)를 사용자에게 음성으로 제공할 수 있다.
이때, 센싱장치(100)에 대해서 자세히 설명하면 도 2에 도시된 바와 같이, 센싱장치(100)는 LiDAR(110), 머신 비전 카메라(120), 네비게이션(130), 차량센서(140), 통신장치(150) 중 적어도 하나를 포함 할 수 있다. 센싱장치(100)들은 차량에 장착되어 사용자에게 필요한 차량 및 주변환경 정보(I1, I2)를 감지 할 수 있다.
각 센싱장치(100)들에 대해 자세하게 설명하면, 상기 LiDAR(110)는 차량의 주변 차량들의 위치, 주변 차량들의 상대속도, 주변 차량들의 절대속도, 차량 주변의 도로 상태 중 적어도 하나를 감지 할 수 있다. 또한, 상기 머신 비전 카메라(120)는 사용자를 감지할 수 있다. 또한, 상기 네비게이션(130)은 차량의 위치, 차량의 주행거리, 차량의 속도, 차량 주변의 도로 상태 중 적어도 하나를 감지할 수 있다. 또한, 상기 차량센서(140)는 차량의 속도, 차량의 스티어링, 차량의 타이어 상태, 차량의 충격정보 중 적어도 하나를 감지할 수 있다. 그리고 상기 통신장치(150)는 차량 주변의 날씨 정보를 감지할 수 있다.
그리고 상기 차량 및 주변환경 정보(I1, I2)의 차량 정보(I1) 및 주변환경 정보(I2) 각각에 대해 상세히 설명하자면 다음과 같다. 먼저, 상기 차량 정보(I1)는 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함 할 수 있다. 그리고, 상기 주변환경 정보(I2)는 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 사용자의 사용자 상태 정보 중 적어도 하나를 포함 할 수 있다. 여기서 상기 주변환경 정보(I2)의 차량의 주변 도로 상태는, 노면의 포장 종류, 예를 들어, 콘크리트, 아스팔트 등 일 수도 있고, 노면에 있는 흙, 모래, 눈, 비, 파임, 방지턱 등 일 수도 있다.
아래 [표 1]은 센싱장치(100) 별 차량 및 주변환경 정보(I1, I2)의 일 예를 정리한 표이다. 여기서 본 발명은 상기 센싱장치(100)가 아래 [표 1]의 정보만을 감지하는 것으로 한정하지는 아니한다.
차량 정보(I1) 주변환경 정보(I2)
LiDAR
(110)
주변 차량 위치,
주변 차량 상대속도,
절대속도,
도로 상태
머신 비전 카메라
(120)
사용자 상태 정보
네비게이션
(130)
차량의 위치,
주행거리,
속도
도로 상태 (포장 종류, 포장 외 다른 물질)
차량센서
(140)
스티어링,
타이어 상태,
충격 정보
통신장치
(150)
주변의 날씨정보
다음, 상기 수집부(200)는 차량 및 주변환경 정보(I1, I2)를 각각 수집 할 수 있다. 도 3에 도시된 바와 같이, 상기 수집부(200)는 클라우드 서버(210)를 더 포함할 수 있다. 여기서 상기 수집부(200)는 차량 및 주변환경 정보(I1, I2)를 따로 분리하여 수집하지 않고 클라우드 서버(210)로 전송하여, Long Short-Term Memory(LSTM)을 이용해 차량 및 주변환경 정보(I1, I2)를 시계열 데이터(Time-series data)로 처리할 수 있다. 이와 같이 차량 및 주변환경 정보(I1, I2)를 시계열 데이터로 통합해서 처리하면, 클라우드 서버(210)에서 차량 및 주변환경 정보(I1, I2) 시계열 데이터를 학습을 하면 할수록 패턴을 구분하여 위 [표 1]과 같이 차량 및 주변환경 정보(I1, I2)가 쉽게 구분될 수도 있다.
다음, 상기 제1판단부(300)는 차량 및 주변환경 정보(I1, I2)를 기초로 사용자에게 개인화된 운전 정보를 학습하여, 차량의 주변 상황인 주행정보(D)를 판단하고, 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단할 수 있다.
더욱 자세하게는, 다양한 운전 상황에서 센싱장치(100)를 통해 차량 및 주변환경 정보(I1, I2)가 감지되고, 수집부(200)를 통해 수신되어 제1판단부(300)로 들어올 때, 제1판단부(300)는 아래에서 설명할 여러 개의 모듈(310, 320, 330)이 머신러닝 알고리즘을 활용하여 각각 어떤 주행정보(D)인지, 그리고 사용자에게 어떤 주행서비스(S)를 제공할 것인지 판단할 수 있다.
여기서, 상기 주행정보(D)는 차량의 위험 정도, 차량 진행 방향의 코스 난이도, 차량의 주변 환경 중 어느 하나 이상의 정보일 수 있다. 또한, 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스, 환경 서비스 중 어느 하나 이상의 서비스일 수 있다. 이하, 상기 주행정보(D) 및 주행서비스(S) 각각의 세부적인 요소들은, 같은 도면부호를 병기한다.
이어 도 4에 도시된 바와 같이, 상기 제1판단부(300)는 위험예측모듈(310), 주행향상모듈(320), 배경설명모듈(330)을 포함할 수 있다.
상기 위험예측모듈(310)은 차량 및 주변환경 정보(I1, I2)로 차량의 위험 정도(D)를 판단하여, 상기 차량의 위험 정도(D)를 기초로 사용자에게 제공할 위험 경고 서비스(S)에 대한 출력을 제어 할 수 있다. 여기서 상기 위험예측모듈(310)은 차량의 위험 정도(D)를 차량 및 주변환경 정보(I1, I2)의 주변 차량 위치, 주변 차량 상대속도, 절대속도, 도로 상태, 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보로 판단할 수 있다. 또한, 상기 위험예측모듈(310)은 위험 경고 서비스(S)로 위험 여부, 경고음, 주변 차량과의 거리, 도로 상태, 타이어 상태, 충격 정보 중 어느 하나의 서비스를 음성으로 제공해 줄 수 있다고 판단할 수 있다.
또한, 상기 주행향상모듈(320)은 차량 및 주변환경 정보(I1, I2)로 차량 진행 방향의 코스 난이도(D)를 판단하여 코스 난이도를 기초로 사용자에게 제공할 조향 및 가감속 서비스(S)를 판단 할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 주행향상모듈(320)은 차량 및 주변환경 정보(I1, I2)로 여러 코너를 포함한 어려운 길에서도 코스 난이도(S) 정보인 Turn-in Point, Apex, Track-out Point와 레코드 라인을 판단할 수 있다.
따라서, 주행향상모듈(320)은 차량 진행 방향의 코스 난이도(D)를 차량 및 주변환경 정보(I1, I2)의 주변 차량 위치, 주변 차량 상대속도, 절대속도, 도로 상태, 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태로 판단할 수 있다. 또한, 주행향상모듈(320)은 조향 및 가감속 서비스(S)로 직진, 오른쪽, 왼쪽 같은 조향 서비스와, 가속, 감속 같은 가감속 서비스 중 어느 하나의 서비스를 음성으로 제공해 줄 수 있다고 판단할 수 있다.
그리고 배경설명모듈(330)은 차량 및 주변환경 정보(I1, I2)로 차량의 주변 환경(D)을 판단하여, 차량의 주변 환경(D)을 기초로 사용자에게 제공할 환경 서비스(S)를 판단 할 수 있다. 예를 들어, 상기 배경설명모듈(330)은 차량 및 주변환경 정보(I1, I2)로 차량 주변에 해변 도로나 관광지와 같이 많은 사용자들이 선호하는 좋은 길이 배치된 경우에, 사용자에게 좋은 길로 가도록 음성으로 안내하도록 환경 서비스(S)가 구성될 수 있다. 아울러 상기 배경설명모듈(330)은 주변의 현재 날씨를 판단하거나 단기 예보를 수신받아, 사용자에게 주변의 현재 날씨를 음성으로 안내해주는 환경 서비스(S)를 구성할 수 있다. 추가적으로, 본 발명은 현재 날씨 또는 단기 예보에 따라 사용자에게 좋은 길로 안내하는 음성 안내가 다르도록 형성 될 수도 있다.
이에 따라, 상기 배경설명모듈(330)은 주변 환경(D)을 차량 및 주변환경 정보(I1, I2)의 차량의 위치, 주변의 날씨 정보로 판단할 수 있다. 또한, 배경설명모듈(330)은 환경 서비스(S)로 음악, 해변 도로나 관광지 같은 좋은 길, 주변의 현재 날씨 중 어느 하나의 서비스를 음성으로 제공해 줄 수 있다고 판단할 수 있다.
한편, 제1판단부(300)의 여러 개의 모듈들(310, 320, 330)은 가상 주행정보(D)로 따로 학습된 것일 수 있다. 더 상세히 설명하면, 각 모듈들(310, 320, 330)에 모듈 각각의 주행정보(D)에 맞는 차량 및 주변환경 정보(I1, I2)를 넣고 머신러닝 알고리즘을 활용하여 학습시킨다. 제1판단부(300)의 모듈들(310, 320, 330)의 학습을 위하여, 먼저 특정 주행정보(D)가 발생할 때의 차량 및 주변환경 정보(I1, I2)를 각 특정 주행정보(D) 별로 따로 수집한 후 각 차량 및 주변환경 정보(I1, I2)에 대응하는 차량 및 주변환경 데이터 세트(CI1, CI2)와 주행정보(D)를 라벨링한다. 도 3에 도시된 바와 같이, LSTM 네트워크는 학습 초기 임의의 숫자로 구성된 가중치(W)와 수집한 차량 및 주변환경 데이터 세트(CI1, CI2)로부터 모듈들(310, 320, 330)의 연산을 통해 어떤 주행정보(D)인지 예측한다. 이때의 예측값과 입력된 데이터에 해당하는 실제 상황인 미리 정해진 라벨(L)과의 차이가 줄어들도록 가중치(W)를 업데이트하면서 학습을 반복한다. 즉, 제1판단부(300)의 모듈들(310, 320, 330)을 학습하는 목적은 모듈들(310, 320, 330)이 예측한 값과 모듈들(310, 320, 330)에 미리 입력된 정해진 라벨(L)이 일치하면, 그 미리 입력된 정해진 라벨 값으로 각 모듈들(310, 320, 330) 가중치(W)를 결정하는 것이다. 아울러 본 발명은 LSTM 네트워크를 이용하여 일정 시간 간격 동한 발생하는 시계열 데이터(time-series data)에 대하여 정확한 예측이 가능하며 운전 상황 같은 동적인 환경에서 좋은 성능을 보인다.
다음은 제2판단부(400)에 대해서 설명한다. 제2판단부(400)는 주행정보(D)를 기초로 기설정된 순서 중 최고 우선순위인 것으로 사용자에게 주행서비스(S)의 우선순위를 판단할 수 있다. 이때, 우선순위는 주행정보(D)의 경쟁으로 정할 수 있다. 더 상세히 설명하면, 제2판단부(400)에서는 사용자가 정한 우선순위와 제1판단부(300)에서 판단한 주행정보(D)인 차량의 위험 정도, 차량 진행 방향의 코스 난이도, 차량의 주변 환경 중 어느 하나의 정보를 기초로 기설정된 순서 중 최고 우선순위인 것으로 어떤 서비스를 우선적으로 제공해야 하는지 제1판단부(300)의 모듈들(310, 320, 330)이 판단한 각 주행정보(D)의 경쟁을 통해 사용자에게 제공할 서비스의 우선순위를 결정할 수 있다.
예를 들어, 주행서비스(S)의 우선순위 항목이 안전운전, 운전의 재미, 운전의 퍼포먼스를 포함할 때, 도 8과 같이, 사용자가 제1우선순위는 안전운전, 제2우선순위는 운전의 퍼포먼스, 제3우선순위는 운전의 재미 순으로 정할 수 있다. 이때, 위험예측모듈(310)에서 차량 및 주변환경 정보(I1, I2)로 차량의 위험한 상황 발생을 예측하면 제2판단부(400)에서 제1우선순위의 안전운전에 해당한다고 판단하여, 위험예측모듈(310)에서 판단한 운전 상황(D)를 기초로 사용자에게 제공할 위험 경고 서비스를 출력부(500)에서 음성으로 서비스를 제공할 수 있다.
한편, 위와 같이 사용자가 제1우선순위는 안전운전, 제2우선순위는 운전의 퍼포먼스, 제3우선순위는 운전의 재미 순으로 정했고, 위와 달리 위험예측모듈(310)에서 차량 및 주변환경 정보(I1, I2)로 차량의 위험한 상황이 없다고 판단하고, 주행향상모듈(320)이 차량의 주행성능을 향상하는 주행정보(D)이 있다고 판단하고, 배경설명모듈(330)도 차량 주변 배경을 설명하는 주행정보(D)가 있다고 판단했을 때, 제2판단부(400)는 현재 주행정보(D)가 제1우선순위에는 해당이 안 된다고 판단하고, 주행향상모듈(320)에서 판단한 차량의 주행성능 향상을 할 수 있는 주행정보(D)를 제2우선순위의 운전의 퍼포먼스로 판단할 수 있다. 그러면 출력부(500)에서는 주행향상모듈(320)에서 주행정보(D)를 기초로 사용자에게 제공할 조향 및 가감속 서비스를 음성으로 제공할 수 있다.
다음 출력부(500)는 제2판단부(400)에서 우선순위를 바탕으로 판단한 주행서비스(S)를 사용자에게 음성으로 제공해 줄 수 있다. 한편, 출력부(500)는 머신 비전 카메라(120)에서 판단한 사용자 상태 정보 중 성별을 기초로, 사용자 성별과 다른 이성의 목소리를 제공하여 사용자에게 만족감을 제공해 줄 수 있다. 또한, 머신 비전 카메라(120)에서 판단한 성별이나 연령과 같은 사용자 상태 정보를 기초로, 다양한 목소리 형태의 음성 출력을 제공하여 사용자에게 안정감도 제공해 줄 수 있다. 이때 다양한 목소리 형태의 일 예로는, 어린 아이의 목소리, 이성의 목소리, 캐쥬얼한 목소리 및 존댓말 등 여러 선택지로 구성될 수 있으며, 이를 위해 사용자에게 별도로 정보를 기 입력받도록 형성될 수도 있다.
아래에서는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000)을 설명하기로 한다.
도 7에 도시된 바와 같이, 본 발명은 센싱단계(S100)와, 수집단계(S200)와, 제1판단단계(S300)와, 제2판단단계(S400) 및, 출력단계(S500)를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000)을 제공할 수 있다.
상세히 설명하면, 센싱단계(S100)에서는 사용자에게 필요한 차량 및 상기 차량의 주변환경 정보를 감지할 수 있다. 또한, 수집단계(S200)에서는 센싱단계(S100)에서 생성되는 차량 및 주변환경 정보(I1, I2)를 각각 수집할 수 있다. 또한, 제1판단단계(S300)에서는 차량 및 주변환경 정보(I1, I2)로 주행정보(D)를 판단할 수 있다. 그리고 제2판단단계(S400)에서는 주행정보(D)로 사용자에게 우선적으로 제공할 주행정보(D의 우선순위를 판단할 수 있다. 또한, 출력단계(S500)에서는 제2판단단계(S400)에서 우선순위를 바탕으로 판단한 운전 상황(D)를 사용자에게 음성으로 알려줄 수 있다.
한편, 제1판단단계(S300)는 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 차량 및 주변환경 정보(I1, I2)에 의해 판단된 주행정보(D)를 라벨링하여, 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 사용자에게 개인화된 운전 서비스를 학습시킬 수 있다.
차량 및 주변환경 정보(I1, I2)에 대해 자세히 설명하면, 차량 정보(I1)는 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함 할 수 있다. 또한, 주변환경 정보(I2)는 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 사용자의 사용자 상태 정보 중 적어도 하나를 포함 할 수 있다.
한편, 제1판단단계(S300)는 위험예측단계, 주행향상단계 및, 배경설명단계 중 적어도 어느 하나를 포함할 수 있다. 이때, 위험예측단계에서는 차량의 위험 정도를 판단하여 위험 정도를 기초로 사용자에게 제공할 위험 경고 서비스를 판단할 수 있다. 또한, 주행향상단계에서는 차량의 진행 방향의 코스 난이도를 판단하여 코스 난이도를 기초로 사용자에게 제공할 조향 및 가감속 서비스를 판단할 수 있다. 그리고, 배경설명단계에서는 차량의 주변 환경을 판단하여 주변 환경을 기초로 사용자에게 제공할 환경 서비스를 판단할 수 있다.
더 자세한 설명은 위 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000)에서 설명하여 생략하기로 한다.
본 발명은 상기한 실시예에 한정되지 않으며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
100 : 센싱장치 200 : 수집부
300 : 제1판단부 400 : 제2판단부
500 : 출력부

Claims (13)

  1. 차량에 장착되어 사용자에게 필요한 상기 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱장치(100);
    상기 센싱장치(100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집부(200);
    상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단부(300);
    상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단부(400); 및
    상기 제2판단부(400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공하는 출력부(500);
    를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
  2. 제1항에 있어서,
    상기 제1판단부(300)는,
    상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여,
    상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 정보를 학습하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
  3. 제2항에 있어서,
    상기 차량 정보(I1)는,
    상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 및 충격 정보 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
  4. 제2항에 있어서,
    상기 주변환경 정보(I2)는,
    상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 및 상기 사용자의 사용자 상태 정보 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
  5. 제2항에 있어서,
    상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도 및, 주변 환경 중 적어도 어느 하나를 포함하고,
    상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스, 및 환경 서비스 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
  6. 제5항에 있어서,
    상기 제1판단부는(300)는 위험예측모듈(310), 주행향상모듈(320), 및 배경설명모듈(330) 중 적어도 어느 하나를 포함하고,
    상기 위험예측모듈(310)에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고,
    상기 주행향상모듈(320)에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며,
    상기 배경설명모듈(330) 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
  7. 제1항에 있어서,
    상기 센싱장치(100)는,
    LiDAR, 머신 비전 카메라, 네비게이션, 차량센서, 및 통신장치 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
  8. 사용자에게 필요한 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱단계(S100);
    상기 센싱단계(S100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집단계(S200);
    상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단단계(S300);
    상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단단계(S400); 및
    상기 제2판단단계(S400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공해주는 출력단계(S500);
    를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
  9. 제8항에 있어서,
    상기 제1판단단계(S300)는,
    상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여,
    상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 서비스를 학습하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
  10. 제9항에 있어서,
    상기 차량 정보(I1)는,
    상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 및 충격 정보 중 적어도 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
  11. 제9항에 있어서,
    상기 주변환경 정보(I2)는,
    상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 및 상기 사용자의 사용자 상태 정보 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
  12. 제9항에 있어서,
    상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도, 및 주변 환경 중 적어도 어느 하나를 포함하고,
    상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스 및, 환경 서비스 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
  13. 제12항에 있어서,
    상기 제1판단단계(S300)는 위험예측단계, 주행향상단계, 및 배경설명단계 중 적어도 어느 하나를 포함하고,
    상기 위험예측단계에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고,
    상기 주행향상단계에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며,
    상기 배경설명단계에서 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
KR1020190071368A 2019-06-17 2019-06-17 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 KR102209361B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190071368A KR102209361B1 (ko) 2019-06-17 2019-06-17 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190071368A KR102209361B1 (ko) 2019-06-17 2019-06-17 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20200144166A true KR20200144166A (ko) 2020-12-29
KR102209361B1 KR102209361B1 (ko) 2021-02-02

Family

ID=74090311

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190071368A KR102209361B1 (ko) 2019-06-17 2019-06-17 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102209361B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025063A1 (ko) * 2022-07-27 2024-02-01 재단법인 지능형자동차부품진흥원 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015054580A (ja) * 2013-09-11 2015-03-23 トヨタ自動車株式会社 運転支援装置
KR101590787B1 (ko) * 2014-09-23 2016-02-04 현대자동차주식회사 차량 및 그 제어방법
KR20170057084A (ko) * 2015-11-16 2017-05-24 삼성전자주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
KR20170089328A (ko) * 2016-01-26 2017-08-03 삼성전자주식회사 자동차 제어 시스템과 그의 운영 방법
KR20180090660A (ko) 2017-02-03 2018-08-13 자동차부품연구원 자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015054580A (ja) * 2013-09-11 2015-03-23 トヨタ自動車株式会社 運転支援装置
KR101590787B1 (ko) * 2014-09-23 2016-02-04 현대자동차주식회사 차량 및 그 제어방법
KR20170057084A (ko) * 2015-11-16 2017-05-24 삼성전자주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
KR20170089328A (ko) * 2016-01-26 2017-08-03 삼성전자주식회사 자동차 제어 시스템과 그의 운영 방법
KR20180090660A (ko) 2017-02-03 2018-08-13 자동차부품연구원 자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025063A1 (ko) * 2022-07-27 2024-02-01 재단법인 지능형자동차부품진흥원 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법

Also Published As

Publication number Publication date
KR102209361B1 (ko) 2021-02-02

Similar Documents

Publication Publication Date Title
US11762392B2 (en) Using discomfort for speed planning in autonomous vehicles
CN110036425B (zh) 用于操纵车辆的方法和系统以及非暂时性计算机可读介质
US9429443B2 (en) Method and system for determining parameters of a model for the longitudinal guidance and for the determination of a longitudinal guide for a vehicle
US10640111B1 (en) Speed planning for autonomous vehicles
JP7303684B2 (ja) 車両の自動運転支援装置
JP6428928B2 (ja) オクルージョン制御装置
US11634134B2 (en) Using discomfort for speed planning in responding to tailgating vehicles for autonomous vehicles
CN109804420B (zh) 车辆控制装置
KR20170052488A (ko) 지도 갱신 판정 시스템
US20120296539A1 (en) Driver assistance system
US11661061B2 (en) Method and device for assisting a driver in a vehicle
US9771054B2 (en) Travel resistance arithmetic device
CN109278746A (zh) 确定自主行驶的机动车的轨迹的方法、控制装置和机动车
CN111132882A (zh) 车辆控制装置
US20200180614A1 (en) Vehicle control device
CN112009474A (zh) 自动驾驶辅助装置
JP6817166B2 (ja) 自動運転のポリシー生成装置及び車両
US11801839B2 (en) Vehicle travel control device
JP6822373B2 (ja) 自動運転提案装置及び自動運転提案方法
JP5076852B2 (ja) 走行制御装置
KR102287136B1 (ko) 주행상황 정보융합 기반 주행경로 가변화 방법 및 시스템
KR102209361B1 (ko) 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법
JP2020192824A (ja) 運転挙動制御方法及び運転挙動制御装置
JP7521490B2 (ja) 情報処理サーバ、情報処理サーバの処理方法、プログラム
CN112677976B (zh) 车辆行驶方法、装置、车辆和存储介质

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant