KR20200144166A - 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 - Google Patents
머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 Download PDFInfo
- Publication number
- KR20200144166A KR20200144166A KR1020190071368A KR20190071368A KR20200144166A KR 20200144166 A KR20200144166 A KR 20200144166A KR 1020190071368 A KR1020190071368 A KR 1020190071368A KR 20190071368 A KR20190071368 A KR 20190071368A KR 20200144166 A KR20200144166 A KR 20200144166A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- driving
- service
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000010801 machine learning Methods 0.000 title claims description 27
- 230000001133 acceleration Effects 0.000 claims description 15
- 230000007613 environmental effect Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 201000007694 Athabaskan brainstem dysgenesis syndrome Diseases 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 208000020006 human HOXA1 syndromes Diseases 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/804—Relative longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 주행 보조를 위한 음성 서비스 제공 시스템 및 그 방법에 관한 것이다. 구체적으로 본 발명은 차량에 장착되어 사용자에게 필요한 상기 차량의 차량 정보 및 주변환경 정보를 감지하는 센싱장치와, 상기 센싱장치에서 생성되는 상기 차량 및 주변환경 정보를 각각 수집하는 수집부와, 상기 차량 및 주변환경 정보를 기초로 상기 사용자에게 개인화된 운전 서비스를 학습하여, 상기 차량의 주변 상황인 주행정보를 판단하고, 상기 주행정보를 기초로 상기 사용자에게 제공할 주행서비스를 판단하는 제1판단부와, 상기 주행정보를 기초로 상기 사용자에게 제공할 상기 주행서비스의 우선순위를 판단하는 제2판단부 및, 상기 제2판단부에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스를 상기 사용자에게 음성으로 제공하는 출력부를 포함하여, 사용자에게 주행의 안전뿐만 아니라 주행의 사용자 맞춤 퍼포먼스나 엔터테인먼트를 제공하는 효과를 얻을 수 있다.
Description
본 발명은 운전 보조 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 실 주행 환경 센서 정보를 머신러닝 알고리즘으로 상황을 판단하여 사용자에게 음성으로 서비스를 제공하는 시스템 및 그 방법에 관한 것이다.
현재 교통의 안전을 위해 운전 보조 시스템으로 '첨단 운전자 지원 시스템(Advanced Driver Assistance Systems, ADAS)' 등 다양한 자동차 기술이 개발되고 있다. 상기 첨단 운전자 지원 시스템의 가장 큰 장점은 객체와 차량 환경을 모두 감지할 수 있다는 것이다. 이때 상기 첨단 운전자 지원 시스템은 충돌 위험시 운전자가 제동장치를 밟지 않아도 스스로 속도를 줄이거나 멈추는 '자동 긴급제동 시스템(Autonomous Emergency Braking, AEB)', 차선 이탈 시 주행 방향을 조절해 차선을 유지하는 '주행 조향보조 시스템(Lane Keep Assist System, LKAS)', 사전에 정해 놓은 속도로 달리면서도 앞차와 간격을 알아서 유지하는 '어드밴스트 스마트 크루즈 컨트롤(Advanced Smart Cruise Control, ASCC)', 사각지대 충돌 위험을 감지해 안전한 차로 변경을 돕는 '후측방 충돌 회피 지원 시스템Active Blind Spot Detection, ABSD)', 차량 주변 상황을 시각적으로 보여주는 '어라운드 뷰 모니터링 시스템(Around View Monitor, AVM)' 등을 포함한다.
이렇게 교통의 안전을 위한 기술 개발은 많이 이루어지고 있지만, 운전자 개인에 맞는 서비스를 제공하는 운전 보조 시스템은 부족한 현실이다. 한편, 운전자 수용성을 확보하기 위해 개인화된 제어기술을 확보할 수 있도록 하는 자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법이 한국공개특허공보 제10-2018-0090660호("자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법", 2018.08.13. 공개)에 개시된다. 상기한 문헌에서는 운전자 수용성을 확보하기 위한 데이터를 수집하고 학습해서, 운전자에 맞는 개인화된 이동경로를 제공하는 효과가 있으나, 단지 이동경로를 제공하는데 그치고 운전의 퍼포먼스나 엔터테인먼트 같은 요소들을 제공해주지는 못한다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 실 주행 환경 센서 정보를 머신러닝 알고리즘으로 상황을 판단하여 사용자에게 음성으로 서비스를 제공하는 시스템 및 그 방법에 관한 것이다. 보다 상세하게는 상황을 판단하는 여러 개의 예측 모듈을 포함하여 안전뿐만 아니라 퍼포먼스나 엔터테인먼트 같은 서비스를 제공하는 시스템 및 그 방법을 제안한다.
상기와 같은 목적을 달성하기 위하여 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템은, 차량에 장착되어 사용자에게 필요한 상기 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱장치(100), 상기 센싱장치(100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집부(200), 상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단부(300), 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단부(400) 및, 상기 제2판단부(400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공하는 출력부(500)를 포함한다.
또한, 본 발명의 상기 제1판단부(300)는 상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여, 상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 정보를 학습한다.
또한, 본 발명의 상기 차량 정보(I1)는 상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주변환경 정보(I2)는 상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 상기 사용자의 사용자 상태 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도 및, 주변 환경 중 적어도 어느 하나를 포함하고, 상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스, 및 환경 서비스 중 적어도 어느 하나를 포함한다.
또한, 본 발명의 상기 제1판단부는(300)는 위험예측모듈(310), 주행향상모듈(320), 및 배경설명모듈(330) 중 적어도 어느 하나를 포함하고, 상기 위험예측모듈(310)에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고, 상기 주행향상모듈(320)에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며, 상기 배경설명모듈(330) 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단한다.
또한, 본 발명의 상기 센싱장치(100)는 LiDAR, 머신 비전 카메라, 네비게이션, 차량센서, 통신장치 중 적어도 하나를 포함한다.
한편, 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법은 사용자에게 필요한 상기 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱단계(S100), 상기 센싱단계(S100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집단계(S200), 상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단단계(S300), 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단단계(S400) 및, 상기 제2판단단계(S400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공해주는 출력단계(S500)를 포함한다.
또한, 본 발명의 상기 제1판단단계(S300)는 상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여, 상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 서비스를 학습한다.
또한, 본 발명의 상기 차량 정보(I1)는 상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주변환경 정보(I2)는 상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 상기 사용자의 사용자 상태 정보 중 적어도 하나를 포함한다.
또한, 본 발명의 상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도, 및 주변 환경 중 적어도 어느 하나를 포함하고, 상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스 및, 환경 서비스 중 적어도 어느 하나를 포함한다.
또한, 본 발명의 상기 제1판단단계(S300)는 위험예측단계, 주행향상단계, 및 배경설명단계 중 적어도 어느 하나를 포함하고, 상기 위험예측단계에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고, 상기 주행향상단계에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며, 상기 배경설명단계에서 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단한다.
상기와 같은 구성에 따른 본 발명은 주행 상황을 판단하는 여러 개의 예측 모듈을 포함하여, 사용자에게 주행의 안전뿐만 아니라 퍼포먼스나 엔터테인먼트를 제공하는 효과를 얻을 수 있다.
또한, 본 발명은 주행 상황을 판단하는 여러 개의 예측 모듈들의 정보들로부터 우선순위를 결정하여 사용자 맞춤 음성 서비스를 제공할 수 있는 효과를 얻을 수 있다.
도 1은 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템을 나타내는 블록도이다.
도 2 내지 4는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템의 세부 구성들을 나타내는 블록도이다.
도 5는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법을 나타내는 흐름도이다.
도 6은 본 발명에 따른 제2판단단계(400)의 상세 흐름도이다.
도 2 내지 4는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템의 세부 구성들을 나타내는 블록도이다.
도 5는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법을 나타내는 흐름도이다.
도 6은 본 발명에 따른 제2판단단계(400)의 상세 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명을 하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하, 본 발명의 기술적 사상을 첨부된 도면을 사용하여 더욱 구체적으로 설명한다.
첨부된 도면은 본 발명의 기술적 사상을 더욱 구체적으로 설명하기 위하여 도시한 일예에 불과하므로 본 발명의 기술적 사상이 첨부된 도면의 형태에 한정되는 것은 아니다.
도 1에 도시된 바와 같이, 본 발명은 센싱장치(100), 수집부(200), 제1판단부(300), 제2판단부(400) 및 출력부(500)를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000)을 제공할 수 있다.
상기 센싱장치(100)는 차량에 장착되어 사용자에게 필요한 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지할 수 있다. 또한, 상기 수집부(200)는 센싱장치(100)에서 생성되는 차량 및 주변환경 정보(I1, I2)를 각각 수집할 수 있다. 또한, 차량 및 주변환경 정보(I1, I2)를 기초로 사용자에게 개인화된 운전 정보를 학습하여, 차량의 주변 상황인 주행정보(D)를 판단하고, 주행정보(D)를 기초로 사용자에게 제공할 주행서비스(S)를 판단할 수 있다. 그리고 상기 제2판단부(400)는 주행정보(D)를 기초로 사용자에게 제공할 주행서비스(S)의 우선순위를 판단할 수 있다. 그리고 출력부(500)는 제2판단부에서 우선순위를 바탕으로 판단한 주행서비스(S)를 사용자에게 음성으로 제공할 수 있다.
이때, 센싱장치(100)에 대해서 자세히 설명하면 도 2에 도시된 바와 같이, 센싱장치(100)는 LiDAR(110), 머신 비전 카메라(120), 네비게이션(130), 차량센서(140), 통신장치(150) 중 적어도 하나를 포함 할 수 있다. 센싱장치(100)들은 차량에 장착되어 사용자에게 필요한 차량 및 주변환경 정보(I1, I2)를 감지 할 수 있다.
각 센싱장치(100)들에 대해 자세하게 설명하면, 상기 LiDAR(110)는 차량의 주변 차량들의 위치, 주변 차량들의 상대속도, 주변 차량들의 절대속도, 차량 주변의 도로 상태 중 적어도 하나를 감지 할 수 있다. 또한, 상기 머신 비전 카메라(120)는 사용자를 감지할 수 있다. 또한, 상기 네비게이션(130)은 차량의 위치, 차량의 주행거리, 차량의 속도, 차량 주변의 도로 상태 중 적어도 하나를 감지할 수 있다. 또한, 상기 차량센서(140)는 차량의 속도, 차량의 스티어링, 차량의 타이어 상태, 차량의 충격정보 중 적어도 하나를 감지할 수 있다. 그리고 상기 통신장치(150)는 차량 주변의 날씨 정보를 감지할 수 있다.
그리고 상기 차량 및 주변환경 정보(I1, I2)의 차량 정보(I1) 및 주변환경 정보(I2) 각각에 대해 상세히 설명하자면 다음과 같다. 먼저, 상기 차량 정보(I1)는 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함 할 수 있다. 그리고, 상기 주변환경 정보(I2)는 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 사용자의 사용자 상태 정보 중 적어도 하나를 포함 할 수 있다. 여기서 상기 주변환경 정보(I2)의 차량의 주변 도로 상태는, 노면의 포장 종류, 예를 들어, 콘크리트, 아스팔트 등 일 수도 있고, 노면에 있는 흙, 모래, 눈, 비, 파임, 방지턱 등 일 수도 있다.
아래 [표 1]은 센싱장치(100) 별 차량 및 주변환경 정보(I1, I2)의 일 예를 정리한 표이다. 여기서 본 발명은 상기 센싱장치(100)가 아래 [표 1]의 정보만을 감지하는 것으로 한정하지는 아니한다.
차량 정보(I1) | 주변환경 정보(I2) | |
LiDAR (110) |
주변 차량 위치, 주변 차량 상대속도, 절대속도, 도로 상태 |
|
머신 비전 카메라 (120) |
사용자 상태 정보 | |
네비게이션 (130) |
차량의 위치, 주행거리, 속도 |
도로 상태 (포장 종류, 포장 외 다른 물질) |
차량센서 (140) |
스티어링, 타이어 상태, 충격 정보 |
|
통신장치 (150) |
주변의 날씨정보 |
다음, 상기 수집부(200)는 차량 및 주변환경 정보(I1, I2)를 각각 수집 할 수 있다. 도 3에 도시된 바와 같이, 상기 수집부(200)는 클라우드 서버(210)를 더 포함할 수 있다. 여기서 상기 수집부(200)는 차량 및 주변환경 정보(I1, I2)를 따로 분리하여 수집하지 않고 클라우드 서버(210)로 전송하여, Long Short-Term Memory(LSTM)을 이용해 차량 및 주변환경 정보(I1, I2)를 시계열 데이터(Time-series data)로 처리할 수 있다. 이와 같이 차량 및 주변환경 정보(I1, I2)를 시계열 데이터로 통합해서 처리하면, 클라우드 서버(210)에서 차량 및 주변환경 정보(I1, I2) 시계열 데이터를 학습을 하면 할수록 패턴을 구분하여 위 [표 1]과 같이 차량 및 주변환경 정보(I1, I2)가 쉽게 구분될 수도 있다.
다음, 상기 제1판단부(300)는 차량 및 주변환경 정보(I1, I2)를 기초로 사용자에게 개인화된 운전 정보를 학습하여, 차량의 주변 상황인 주행정보(D)를 판단하고, 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단할 수 있다.
더욱 자세하게는, 다양한 운전 상황에서 센싱장치(100)를 통해 차량 및 주변환경 정보(I1, I2)가 감지되고, 수집부(200)를 통해 수신되어 제1판단부(300)로 들어올 때, 제1판단부(300)는 아래에서 설명할 여러 개의 모듈(310, 320, 330)이 머신러닝 알고리즘을 활용하여 각각 어떤 주행정보(D)인지, 그리고 사용자에게 어떤 주행서비스(S)를 제공할 것인지 판단할 수 있다.
여기서, 상기 주행정보(D)는 차량의 위험 정도, 차량 진행 방향의 코스 난이도, 차량의 주변 환경 중 어느 하나 이상의 정보일 수 있다. 또한, 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스, 환경 서비스 중 어느 하나 이상의 서비스일 수 있다. 이하, 상기 주행정보(D) 및 주행서비스(S) 각각의 세부적인 요소들은, 같은 도면부호를 병기한다.
이어 도 4에 도시된 바와 같이, 상기 제1판단부(300)는 위험예측모듈(310), 주행향상모듈(320), 배경설명모듈(330)을 포함할 수 있다.
상기 위험예측모듈(310)은 차량 및 주변환경 정보(I1, I2)로 차량의 위험 정도(D)를 판단하여, 상기 차량의 위험 정도(D)를 기초로 사용자에게 제공할 위험 경고 서비스(S)에 대한 출력을 제어 할 수 있다. 여기서 상기 위험예측모듈(310)은 차량의 위험 정도(D)를 차량 및 주변환경 정보(I1, I2)의 주변 차량 위치, 주변 차량 상대속도, 절대속도, 도로 상태, 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보로 판단할 수 있다. 또한, 상기 위험예측모듈(310)은 위험 경고 서비스(S)로 위험 여부, 경고음, 주변 차량과의 거리, 도로 상태, 타이어 상태, 충격 정보 중 어느 하나의 서비스를 음성으로 제공해 줄 수 있다고 판단할 수 있다.
또한, 상기 주행향상모듈(320)은 차량 및 주변환경 정보(I1, I2)로 차량 진행 방향의 코스 난이도(D)를 판단하여 코스 난이도를 기초로 사용자에게 제공할 조향 및 가감속 서비스(S)를 판단 할 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 주행향상모듈(320)은 차량 및 주변환경 정보(I1, I2)로 여러 코너를 포함한 어려운 길에서도 코스 난이도(S) 정보인 Turn-in Point, Apex, Track-out Point와 레코드 라인을 판단할 수 있다.
따라서, 주행향상모듈(320)은 차량 진행 방향의 코스 난이도(D)를 차량 및 주변환경 정보(I1, I2)의 주변 차량 위치, 주변 차량 상대속도, 절대속도, 도로 상태, 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태로 판단할 수 있다. 또한, 주행향상모듈(320)은 조향 및 가감속 서비스(S)로 직진, 오른쪽, 왼쪽 같은 조향 서비스와, 가속, 감속 같은 가감속 서비스 중 어느 하나의 서비스를 음성으로 제공해 줄 수 있다고 판단할 수 있다.
그리고 배경설명모듈(330)은 차량 및 주변환경 정보(I1, I2)로 차량의 주변 환경(D)을 판단하여, 차량의 주변 환경(D)을 기초로 사용자에게 제공할 환경 서비스(S)를 판단 할 수 있다. 예를 들어, 상기 배경설명모듈(330)은 차량 및 주변환경 정보(I1, I2)로 차량 주변에 해변 도로나 관광지와 같이 많은 사용자들이 선호하는 좋은 길이 배치된 경우에, 사용자에게 좋은 길로 가도록 음성으로 안내하도록 환경 서비스(S)가 구성될 수 있다. 아울러 상기 배경설명모듈(330)은 주변의 현재 날씨를 판단하거나 단기 예보를 수신받아, 사용자에게 주변의 현재 날씨를 음성으로 안내해주는 환경 서비스(S)를 구성할 수 있다. 추가적으로, 본 발명은 현재 날씨 또는 단기 예보에 따라 사용자에게 좋은 길로 안내하는 음성 안내가 다르도록 형성 될 수도 있다.
이에 따라, 상기 배경설명모듈(330)은 주변 환경(D)을 차량 및 주변환경 정보(I1, I2)의 차량의 위치, 주변의 날씨 정보로 판단할 수 있다. 또한, 배경설명모듈(330)은 환경 서비스(S)로 음악, 해변 도로나 관광지 같은 좋은 길, 주변의 현재 날씨 중 어느 하나의 서비스를 음성으로 제공해 줄 수 있다고 판단할 수 있다.
한편, 제1판단부(300)의 여러 개의 모듈들(310, 320, 330)은 가상 주행정보(D)로 따로 학습된 것일 수 있다. 더 상세히 설명하면, 각 모듈들(310, 320, 330)에 모듈 각각의 주행정보(D)에 맞는 차량 및 주변환경 정보(I1, I2)를 넣고 머신러닝 알고리즘을 활용하여 학습시킨다. 제1판단부(300)의 모듈들(310, 320, 330)의 학습을 위하여, 먼저 특정 주행정보(D)가 발생할 때의 차량 및 주변환경 정보(I1, I2)를 각 특정 주행정보(D) 별로 따로 수집한 후 각 차량 및 주변환경 정보(I1, I2)에 대응하는 차량 및 주변환경 데이터 세트(CI1, CI2)와 주행정보(D)를 라벨링한다. 도 3에 도시된 바와 같이, LSTM 네트워크는 학습 초기 임의의 숫자로 구성된 가중치(W)와 수집한 차량 및 주변환경 데이터 세트(CI1, CI2)로부터 모듈들(310, 320, 330)의 연산을 통해 어떤 주행정보(D)인지 예측한다. 이때의 예측값과 입력된 데이터에 해당하는 실제 상황인 미리 정해진 라벨(L)과의 차이가 줄어들도록 가중치(W)를 업데이트하면서 학습을 반복한다. 즉, 제1판단부(300)의 모듈들(310, 320, 330)을 학습하는 목적은 모듈들(310, 320, 330)이 예측한 값과 모듈들(310, 320, 330)에 미리 입력된 정해진 라벨(L)이 일치하면, 그 미리 입력된 정해진 라벨 값으로 각 모듈들(310, 320, 330) 가중치(W)를 결정하는 것이다. 아울러 본 발명은 LSTM 네트워크를 이용하여 일정 시간 간격 동한 발생하는 시계열 데이터(time-series data)에 대하여 정확한 예측이 가능하며 운전 상황 같은 동적인 환경에서 좋은 성능을 보인다.
다음은 제2판단부(400)에 대해서 설명한다. 제2판단부(400)는 주행정보(D)를 기초로 기설정된 순서 중 최고 우선순위인 것으로 사용자에게 주행서비스(S)의 우선순위를 판단할 수 있다. 이때, 우선순위는 주행정보(D)의 경쟁으로 정할 수 있다. 더 상세히 설명하면, 제2판단부(400)에서는 사용자가 정한 우선순위와 제1판단부(300)에서 판단한 주행정보(D)인 차량의 위험 정도, 차량 진행 방향의 코스 난이도, 차량의 주변 환경 중 어느 하나의 정보를 기초로 기설정된 순서 중 최고 우선순위인 것으로 어떤 서비스를 우선적으로 제공해야 하는지 제1판단부(300)의 모듈들(310, 320, 330)이 판단한 각 주행정보(D)의 경쟁을 통해 사용자에게 제공할 서비스의 우선순위를 결정할 수 있다.
예를 들어, 주행서비스(S)의 우선순위 항목이 안전운전, 운전의 재미, 운전의 퍼포먼스를 포함할 때, 도 8과 같이, 사용자가 제1우선순위는 안전운전, 제2우선순위는 운전의 퍼포먼스, 제3우선순위는 운전의 재미 순으로 정할 수 있다. 이때, 위험예측모듈(310)에서 차량 및 주변환경 정보(I1, I2)로 차량의 위험한 상황 발생을 예측하면 제2판단부(400)에서 제1우선순위의 안전운전에 해당한다고 판단하여, 위험예측모듈(310)에서 판단한 운전 상황(D)를 기초로 사용자에게 제공할 위험 경고 서비스를 출력부(500)에서 음성으로 서비스를 제공할 수 있다.
한편, 위와 같이 사용자가 제1우선순위는 안전운전, 제2우선순위는 운전의 퍼포먼스, 제3우선순위는 운전의 재미 순으로 정했고, 위와 달리 위험예측모듈(310)에서 차량 및 주변환경 정보(I1, I2)로 차량의 위험한 상황이 없다고 판단하고, 주행향상모듈(320)이 차량의 주행성능을 향상하는 주행정보(D)이 있다고 판단하고, 배경설명모듈(330)도 차량 주변 배경을 설명하는 주행정보(D)가 있다고 판단했을 때, 제2판단부(400)는 현재 주행정보(D)가 제1우선순위에는 해당이 안 된다고 판단하고, 주행향상모듈(320)에서 판단한 차량의 주행성능 향상을 할 수 있는 주행정보(D)를 제2우선순위의 운전의 퍼포먼스로 판단할 수 있다. 그러면 출력부(500)에서는 주행향상모듈(320)에서 주행정보(D)를 기초로 사용자에게 제공할 조향 및 가감속 서비스를 음성으로 제공할 수 있다.
다음 출력부(500)는 제2판단부(400)에서 우선순위를 바탕으로 판단한 주행서비스(S)를 사용자에게 음성으로 제공해 줄 수 있다. 한편, 출력부(500)는 머신 비전 카메라(120)에서 판단한 사용자 상태 정보 중 성별을 기초로, 사용자 성별과 다른 이성의 목소리를 제공하여 사용자에게 만족감을 제공해 줄 수 있다. 또한, 머신 비전 카메라(120)에서 판단한 성별이나 연령과 같은 사용자 상태 정보를 기초로, 다양한 목소리 형태의 음성 출력을 제공하여 사용자에게 안정감도 제공해 줄 수 있다. 이때 다양한 목소리 형태의 일 예로는, 어린 아이의 목소리, 이성의 목소리, 캐쥬얼한 목소리 및 존댓말 등 여러 선택지로 구성될 수 있으며, 이를 위해 사용자에게 별도로 정보를 기 입력받도록 형성될 수도 있다.
아래에서는 본 발명에 따른 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000)을 설명하기로 한다.
도 7에 도시된 바와 같이, 본 발명은 센싱단계(S100)와, 수집단계(S200)와, 제1판단단계(S300)와, 제2판단단계(S400) 및, 출력단계(S500)를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000)을 제공할 수 있다.
상세히 설명하면, 센싱단계(S100)에서는 사용자에게 필요한 차량 및 상기 차량의 주변환경 정보를 감지할 수 있다. 또한, 수집단계(S200)에서는 센싱단계(S100)에서 생성되는 차량 및 주변환경 정보(I1, I2)를 각각 수집할 수 있다. 또한, 제1판단단계(S300)에서는 차량 및 주변환경 정보(I1, I2)로 주행정보(D)를 판단할 수 있다. 그리고 제2판단단계(S400)에서는 주행정보(D)로 사용자에게 우선적으로 제공할 주행정보(D의 우선순위를 판단할 수 있다. 또한, 출력단계(S500)에서는 제2판단단계(S400)에서 우선순위를 바탕으로 판단한 운전 상황(D)를 사용자에게 음성으로 알려줄 수 있다.
한편, 제1판단단계(S300)는 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 차량 및 주변환경 정보(I1, I2)에 의해 판단된 주행정보(D)를 라벨링하여, 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 사용자에게 개인화된 운전 서비스를 학습시킬 수 있다.
차량 및 주변환경 정보(I1, I2)에 대해 자세히 설명하면, 차량 정보(I1)는 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 충격 정보 중 적어도 하나를 포함 할 수 있다. 또한, 주변환경 정보(I2)는 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 사용자의 사용자 상태 정보 중 적어도 하나를 포함 할 수 있다.
한편, 제1판단단계(S300)는 위험예측단계, 주행향상단계 및, 배경설명단계 중 적어도 어느 하나를 포함할 수 있다. 이때, 위험예측단계에서는 차량의 위험 정도를 판단하여 위험 정도를 기초로 사용자에게 제공할 위험 경고 서비스를 판단할 수 있다. 또한, 주행향상단계에서는 차량의 진행 방향의 코스 난이도를 판단하여 코스 난이도를 기초로 사용자에게 제공할 조향 및 가감속 서비스를 판단할 수 있다. 그리고, 배경설명단계에서는 차량의 주변 환경을 판단하여 주변 환경을 기초로 사용자에게 제공할 환경 서비스를 판단할 수 있다.
더 자세한 설명은 위 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000)에서 설명하여 생략하기로 한다.
본 발명은 상기한 실시예에 한정되지 않으며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
100 : 센싱장치
200 : 수집부
300 : 제1판단부 400 : 제2판단부
500 : 출력부
300 : 제1판단부 400 : 제2판단부
500 : 출력부
Claims (13)
- 차량에 장착되어 사용자에게 필요한 상기 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱장치(100);
상기 센싱장치(100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집부(200);
상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단부(300);
상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단부(400); 및
상기 제2판단부(400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공하는 출력부(500);
를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
- 제1항에 있어서,
상기 제1판단부(300)는,
상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여,
상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 정보를 학습하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
- 제2항에 있어서,
상기 차량 정보(I1)는,
상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 및 충격 정보 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
- 제2항에 있어서,
상기 주변환경 정보(I2)는,
상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 및 상기 사용자의 사용자 상태 정보 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
- 제2항에 있어서,
상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도 및, 주변 환경 중 적어도 어느 하나를 포함하고,
상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스, 및 환경 서비스 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
- 제5항에 있어서,
상기 제1판단부는(300)는 위험예측모듈(310), 주행향상모듈(320), 및 배경설명모듈(330) 중 적어도 어느 하나를 포함하고,
상기 위험예측모듈(310)에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고,
상기 주행향상모듈(320)에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며,
상기 배경설명모듈(330) 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
- 제1항에 있어서,
상기 센싱장치(100)는,
LiDAR, 머신 비전 카메라, 네비게이션, 차량센서, 및 통신장치 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템(1000).
- 사용자에게 필요한 차량의 차량 정보(I1) 및 주변환경 정보(I2)를 감지하는 센싱단계(S100);
상기 센싱단계(S100)에서 생성되는 상기 차량 및 주변환경 정보(I1, I2)를 각각 수집하는 수집단계(S200);
상기 차량 및 주변환경 정보(I1, I2)를 기초로 상기 사용자에게 개인화된 운전 정보를 학습하여, 상기 차량의 주변 상황인 주행정보(D)를 판단하고, 상기 주행정보(D)를 기초로 상기 사용자에게 제공할 주행서비스(S)를 판단하는 제1판단단계(S300);
상기 주행정보(D)를 기초로 상기 사용자에게 제공할 상기 주행서비스(S)의 우선순위를 판단하는 제2판단단계(S400); 및
상기 제2판단단계(S400)에서 상기 우선순위를 바탕으로 판단한 상기 주행서비스(S)를 상기 사용자에게 음성으로 제공해주는 출력단계(S500);
를 포함하는 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
- 제8항에 있어서,
상기 제1판단단계(S300)는,
상기 차량 및 주변환경 정보(I1, I2)에 대응되는 기설정된 차량 및 주변환경 정보 데이터 세트(CI1, CI2)와, 상기 차량 및 주변환경 정보(I1, I2)에 의해 판단된 상기 주행정보(D)를 라벨링하여,
상기 차량 및 주변환경 정보 데이터 세트(CI1, CI2)가 기설정된 라벨(L)과 차이가 없는 방향으로 가중치(W)를 업데이트 하면서 상기 사용자에게 개인화된 운전 서비스를 학습하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
- 제9항에 있어서,
상기 차량 정보(I1)는,
상기 차량의 위치, 주행거리, 속도, 스티어링, 타이어 상태, 및 충격 정보 중 적어도 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
- 제9항에 있어서,
상기 주변환경 정보(I2)는,
상기 차량의 주변 도로 상태, 주변 차량의 위치, 주변 차량의 상대속도, 주변 차량의 절대속도와, 상기 차량의 주변 날씨 정보, 및 상기 사용자의 사용자 상태 정보 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
- 제9항에 있어서,
상기 주행정보(D)는 상기 차량의 위험 정도, 진행 방향의 코스 난이도, 및 주변 환경 중 적어도 어느 하나를 포함하고,
상기 주행서비스(S)는 위험 경고 서비스, 조향 및 가감속 서비스 및, 환경 서비스 중 적어도 어느 하나를 포함하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
- 제12항에 있어서,
상기 제1판단단계(S300)는 위험예측단계, 주행향상단계, 및 배경설명단계 중 적어도 어느 하나를 포함하고,
상기 위험예측단계에서 상기 차량의 위험 정도를 판단하여 상기 위험 정도를 기초로 상기 사용자에게 제공할 위험 경고 서비스를 판단하고,
상기 주행향상단계에서 상기 차량의 진행 방향의 코스 난이도를 판단하여 상기 코스 난이도를 기초로 상기 사용자에게 제공할 조향 및 가감속 서비스를 판단하며,
상기 배경설명단계에서 상기 차량의 주변 환경을 판단하여 상기 주변 환경을 기초로 상기 사용자에게 제공할 환경 서비스를 판단하는 것인 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 방법(S1000).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190071368A KR102209361B1 (ko) | 2019-06-17 | 2019-06-17 | 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190071368A KR102209361B1 (ko) | 2019-06-17 | 2019-06-17 | 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200144166A true KR20200144166A (ko) | 2020-12-29 |
KR102209361B1 KR102209361B1 (ko) | 2021-02-02 |
Family
ID=74090311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190071368A KR102209361B1 (ko) | 2019-06-17 | 2019-06-17 | 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102209361B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024025063A1 (ko) * | 2022-07-27 | 2024-02-01 | 재단법인 지능형자동차부품진흥원 | 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015054580A (ja) * | 2013-09-11 | 2015-03-23 | トヨタ自動車株式会社 | 運転支援装置 |
KR101590787B1 (ko) * | 2014-09-23 | 2016-02-04 | 현대자동차주식회사 | 차량 및 그 제어방법 |
KR20170057084A (ko) * | 2015-11-16 | 2017-05-24 | 삼성전자주식회사 | 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치 |
KR20170089328A (ko) * | 2016-01-26 | 2017-08-03 | 삼성전자주식회사 | 자동차 제어 시스템과 그의 운영 방법 |
KR20180090660A (ko) | 2017-02-03 | 2018-08-13 | 자동차부품연구원 | 자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법 |
-
2019
- 2019-06-17 KR KR1020190071368A patent/KR102209361B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015054580A (ja) * | 2013-09-11 | 2015-03-23 | トヨタ自動車株式会社 | 運転支援装置 |
KR101590787B1 (ko) * | 2014-09-23 | 2016-02-04 | 현대자동차주식회사 | 차량 및 그 제어방법 |
KR20170057084A (ko) * | 2015-11-16 | 2017-05-24 | 삼성전자주식회사 | 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치 |
KR20170089328A (ko) * | 2016-01-26 | 2017-08-03 | 삼성전자주식회사 | 자동차 제어 시스템과 그의 운영 방법 |
KR20180090660A (ko) | 2017-02-03 | 2018-08-13 | 자동차부품연구원 | 자율 주행제어 시스템의 개인화를 위한 파라미터 학습 장치 및 방법 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024025063A1 (ko) * | 2022-07-27 | 2024-02-01 | 재단법인 지능형자동차부품진흥원 | 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102209361B1 (ko) | 2021-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11762392B2 (en) | Using discomfort for speed planning in autonomous vehicles | |
CN110036425B (zh) | 用于操纵车辆的方法和系统以及非暂时性计算机可读介质 | |
US9429443B2 (en) | Method and system for determining parameters of a model for the longitudinal guidance and for the determination of a longitudinal guide for a vehicle | |
US10640111B1 (en) | Speed planning for autonomous vehicles | |
JP7303684B2 (ja) | 車両の自動運転支援装置 | |
JP6428928B2 (ja) | オクルージョン制御装置 | |
US11634134B2 (en) | Using discomfort for speed planning in responding to tailgating vehicles for autonomous vehicles | |
CN109804420B (zh) | 车辆控制装置 | |
KR20170052488A (ko) | 지도 갱신 판정 시스템 | |
US20120296539A1 (en) | Driver assistance system | |
US11661061B2 (en) | Method and device for assisting a driver in a vehicle | |
US9771054B2 (en) | Travel resistance arithmetic device | |
CN109278746A (zh) | 确定自主行驶的机动车的轨迹的方法、控制装置和机动车 | |
CN111132882A (zh) | 车辆控制装置 | |
US20200180614A1 (en) | Vehicle control device | |
CN112009474A (zh) | 自动驾驶辅助装置 | |
JP6817166B2 (ja) | 自動運転のポリシー生成装置及び車両 | |
US11801839B2 (en) | Vehicle travel control device | |
JP6822373B2 (ja) | 自動運転提案装置及び自動運転提案方法 | |
JP5076852B2 (ja) | 走行制御装置 | |
KR102287136B1 (ko) | 주행상황 정보융합 기반 주행경로 가변화 방법 및 시스템 | |
KR102209361B1 (ko) | 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법 | |
JP2020192824A (ja) | 運転挙動制御方法及び運転挙動制御装置 | |
JP7521490B2 (ja) | 情報処理サーバ、情報処理サーバの処理方法、プログラム | |
CN112677976B (zh) | 车辆行驶方法、装置、车辆和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |