KR20240037421A - 차량 내에서 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법 - Google Patents
차량 내에서 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법 Download PDFInfo
- Publication number
- KR20240037421A KR20240037421A KR1020220115663A KR20220115663A KR20240037421A KR 20240037421 A KR20240037421 A KR 20240037421A KR 1020220115663 A KR1020220115663 A KR 1020220115663A KR 20220115663 A KR20220115663 A KR 20220115663A KR 20240037421 A KR20240037421 A KR 20240037421A
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- content
- emotion
- driving situation
- score
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 23
- 230000008451 emotion Effects 0.000 claims abstract description 205
- 238000004458 analytical method Methods 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 6
- 230000002996 emotional effect Effects 0.000 claims 4
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 206010048909 Boredom Diseases 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0809—Driver authorisation; Driver identity check
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/089—Driver voice
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/22—Psychological state; Stress level or workload
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/92—Driver displays
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
차량 내에서 콘텐츠를 제공하는 장치는, 적어도 하나의 마이크로부터 입력받은 음성 데이터의 운전자를 식별하는 운전자 식별부; 상기 운전자 식별부에서 식별된 해당 운전자의 감정을 판단하는 감정 판단부; 상기 차량의 현재의 주행 상황을 판단하는 주행 상황 판단부; 및 상기 감정 판단부 및 상기 주행 상황 판단부에서의 판단 결과를 이용하여, 적어도 하나의 콘텐츠를 추천하는 콘텐츠 추천부;를 포함한다.
Description
본 명세서에서 개시되는 실시예들은, 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법에 관한 것이다.
스마트카 인포테인먼트 시장 활성화를 위한 더욱 사용자 친화적 기술을 개발할 필요가 있다. 현재의 스마트카 인포테인먼트는, 다음과 같은 한계 및 요구가 있다.
(1) 불편한 사용성으로 인한 안전 운전 걸림돌: 최근 선진화된 ICT 기술 기반의 다양한 서비스(스트리밍 뮤직, 팟 캐스트, 오디오북, 뉴스 리더 등)들이 IVI(In Vehicle Infotainment) 단말기에 탑재되고 있음에도 운전 중에 사용이 불편하다는 이유로 활성화되지 못하고 있으며 이로 인해 제품의 경쟁력과 차별성을 확보하지 못하고 있다.
(2) 단문 중심의 음성 명령 한계성 및 차량 내 저조한 인식률: 운전 중 조작의 불편함을 해결하기 위해 음성 인식 기반의 인터페이스를 도입하고 있으나 단문 중심의 간단한 명령어로 한정되어 운전자의 요구를 충족시키지 못하고 있다. 또한, 스마트폰 사용 환경과는 다르게 고속 주행 시의 풍절음과 같이 차량 내에서만 발생하는 소음과 동승자의 음성으로 인해 인식률이 매우 낮아진다.
(3) 진일보한 새로운 사용자 경험 제공 필요: 운전 중 안전한 인포테인먼트 서비스 이용을 보장하기 위해서는 자율 주행 개념과 유사하게 운전자 주도의 인터렉션이 아닌 인공 지능 주도의 인터렉션이 필요하다. 이는 운전자 개인의 성향과 감성 그리고 주행환경을 모두 고려한 서비스를 제공하여야만 높아진 소비자 요구를 만족할 것이다.
본 개시는 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 스마트카 인포테인먼트 시장 활성화를 위한 더욱 사용자 친화적인 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법을 제공하는 것에 그 목적이 있다.
차량 내에서 콘텐츠를 제공하는 장치는, 적어도 하나의 마이크로부터 입력받은 음성 데이터의 운전자를 식별하는 운전자 식별부; 상기 운전자 식별부에서 식별된 해당 운전자의 감정을 판단하는 감정 판단부; 상기 차량의 현재의 주행 상황을 판단하는 주행 상황 판단부; 및 상기 감정 판단부 및 상기 주행 상황 판단부에서의 판단 결과를 이용하여, 적어도 하나의 콘텐츠를 추천하는 콘텐츠 추천부;를 포함한다.
구체적으로, 상기 감정 판단부는, 해당 운전자의 음성 데이터의 특징 벡터를 이용하여, 미리 설정된 다수의 감정 카테고리별로 제 1 스코어를 산정하는 것에 의해, 제 1 예비적으로 해당 운전자의 감정을 분석하고, 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하여, 상기 다수의 감정 카테고리별로 제 2 스코어를 산정하는 것에 의해, 제 2 예비적으로 해당 운전자의 감정을 분석하고, 상기 제 1 예비적으로 분석된 해당 운전자의 감정 및 상기 제 2 예비적으로 분석된 해당 운전자의 감정을 종합하여, 최종적으로 해당 운전자의 감정을 판단한다.
아울러, 상기 감정 판단부는, 해당 운전자의 음성 데이터를 서브 윈도우로 분할하고, 분할된 서브 윈도우별로 특징 벡터를 추출하고, 추출된 특징 벡터를 이용하여 상기 다수의 감정 카테고리별로 상기 제 1 스코어를 산정하는 것에 의해, 상기 제 1 예비적으로 해당 운전자의 감정을 분석한다.
또한, 상기 감정 판단부는, 상기 텍스트 데이터의 문장을 토큰화하고, 토큰화된 문장 중 의미없는 어절을 삭제하고, 의미없는 어절이 삭제된 토큰화된 문장으로부터 어간을 추출하고, 추출된 어간을 이용하여 상기 다수의 감정 카테고리별로 상기 제 2 스코어를 산정하는 것에 의해, 상기 제 2 예비적으로 해당 운전자의 감정을 분석한다.
상기 감정 판단부는, 상기 다수의 감정 카테고리별 상기 제 1 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 1 가중치를 각각 곱한 값과, 상기 다수의 감정 카테고리별 상기 제 2 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 2 가중치를 각각 곱한 값을, 상기 다수의 감정 카테고리별로 합산한 값; 또는, 상기 다수의 감정 카테고리별 상기 제 1 스코어 및 상기 제 2 스코어의 통계값; 중 하나를 이용하는 것에 의해, 상기 다수의 감정 카테고리별로 최종 스코어를 산출하여 해당 운전자의 감정을 판단한다.
아울러, 상기 콘텐츠 추천부는, 해당 운전자의 감정과 관련된 콘텐츠 이력 정보 중, 상기 감정 판단부에서 판단된 해당 운전자의 감정과 동일하거나 가장 유사한 감정과 관련된 제 1 콘텐츠를 선택하여 추천한다.
또한, 상기 콘텐츠 추천부는, 해당 운전자의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 2 콘텐츠를 선택하여 추천하고, 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 3 콘텐츠를 선택하여 추천한다.
상기 콘텐츠 추천부는, 상기 제 1 콘텐츠, 상기 제 2 콘텐츠 및 상기 제 3 콘텐츠 중에서, 상기 감정 판단부에서 판단된 해당 운전자의 감정과 상기 제 1 콘텐츠에 대응하는 해당 운전자의 감정의 유사 정도인 제 1 유사도; 상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 2 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 2 유사도; 및 상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 3 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 3 유사도; 중 가장 큰 유사 정도를 나타내는 콘텐츠를 최종 콘텐츠로 추천한다.
또한, 상기 운전자 식별부는, 다수의 음원에 의한 음성 데이터 각각에 대해 제 1 마이크에 도달한 제 1 시간과 제 2 마이크에 도달한 제 2 시간의 차이를 산출하고, 상기 제 1 시간과 상기 제 2 시간의 차이를 이용하여, 상기 다수의 음원에 의한 음성 데이터 중 운전자의 음성 데이터를 특정하고, 특정된 음성 데이터의 운전자를 식별한다.
차량 내에서 콘텐츠를 제공하는 방법은, (a) 적어도 하나의 마이크로부터 입력받은 음성 데이터의 운전자를 식별하는 단계; (b) 상기 (a) 단계에서 식별된 해당 운전자의 감정을 판단하는 단계; (c) 상기 차량의 현재의 주행 상황을 판단하는 단계; 및 (d) 상기 (b) 단계 및 상기 (c) 단계에서의 판단 결과를 이용하여, 적어도 하나의 콘텐츠를 추천하는 단계;를 포함한다.
구체적으로, 상기 (b) 단계는, (b-1) 해당 운전자의 음성 데이터의 특징 벡터를 이용하여, 미리 설정된 다수의 감정 카테고리별로 제 1 스코어를 산정하는 것에 의해, 제 1 예비적으로 해당 운전자의 감정을 분석하는 단계; (b-2) 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하여, 상기 다수의 감정 카테고리별로 제 2 스코어를 산정하는 것에 의해, 제 2 예비적으로 해당 운전자의 감정을 분석하는 단계; 및 (b-3) 상기 제 1 예비적으로 분석된 해당 운전자의 감정 및 상기 제 2 예비적으로 분석된 해당 운전자의 감정을 종합하여, 최종적으로 해당 운전자의 감정을 판단하는 단계;를 포함한다.
아울러, 상기 (b-1) 단계는, (b-1-1) 해당 운전자의 음성 데이터를 서브 윈도우로 분할하는 단계; (b-1-2) 상기 (b-1-1) 단계에서 분할된 서브 윈도우별로 특징 벡터를 추출하는 단계; 및 (b-1-3) 상기 (b-1-2) 단계에서 추출된 특징 벡터를 이용하여, 상기 다수의 감정 카테고리별로 상기 제 1 스코어를 산정하는 것에 의해, 상기 제 1 예비적으로 해당 운전자의 감정을 분석하는 단계;를 포함한다.
또한, 상기 (b-2) 단계는, (b-2-1) 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하는 단계; (b-2-2) 상기 텍스트 데이터의 문장을 토큰화하는 단계; (b-2-3) 상기 (b-2-2) 단계에서 토큰화된 문장 중 의미없는 어절을 삭제하고, 의미없는 어절이 삭제된 토큰화된 문장으로부터 어간을 추출하는 단계; 및 (b-2-4) 상기 (b-2-3) 단계에서 추출된 어간을 이용하여, 상기 다수의 감정 카테고리별로 상기 제 2 스코어를 산정하는 것에 의해, 상기 제 2 예비적으로 해당 운전자의 감정을 분석하는 단계;를 포함한다.
구체적으로, 상기 (b-3) 단계에서는, 상기 다수의 감정 카테고리별 상기 제 1 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 1 가중치를 각각 곱한 값과, 상기 다수의 감정 카테고리별 상기 제 2 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 2 가중치를 각각 곱한 값을, 상기 다수의 감정 카테고리별로 합산한 값; 또는, 상기 다수의 감정 카테고리별 상기 제 1 스코어 및 상기 제 2 스코어의 통계값; 중 하나를 이용하는 것에 의해, 상기 다수의 감정 카테고리별로 최종 스코어를 산출하여, 상기 최종 스코어에 의해 최종적으로 해당 운전자의 감정을 판단한다.
아울러, 상기 (d) 단계는, (d-1) 해당 운전자의 감정과 관련된 콘텐츠 이력 정보 중, 상기 (b) 단계에서 판단된 해당 운전자의 감정과 동일하거나 가장 유사한 감정과 관련된 제 1 콘텐츠를 선택하여 추천하는 단계; (d-2) 해당 운전자의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 2 콘텐츠를 선택하여 추천하는 단계; (d-3) 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 3 콘텐츠를 선택하여 추천하는 단계; 및 (d-4) 상기 제 1 콘텐츠, 상기 제 2 콘텐츠 및 상기 제 3 콘텐츠 중 하나를 최종 콘텐츠로 추천하는 단계;를 포함한다.
구체적으로, 상기 (d-4) 단계에서는, 상기 제 1 콘텐츠, 상기 제 2 콘텐츠 및 상기 제 3 콘텐츠 중에서, 상기 (b) 단계에서 판단된 해당 운전자의 감정과 상기 제 1 콘텐츠에 대응하는 해당 운전자의 감정의 유사 정도인 제 1 유사도; 상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 2 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 2 유사도; 및 상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 3 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 3 유사도; 중 가장 큰 유사 정도를 나타내는 콘텐츠를 최종 콘텐츠로 추천한다.
아울러, 상기 (a) 단계는, (a-1) 다수의 음원에 의한 음성 데이터 각각에 대해 제 1 마이크에 도달한 제 1 시간과 제 2 마이크에 도달한 제 2 시간의 차이를 산출하는 단계; (a-2) 상기 (a-1) 단계에서 상기 제 1 시간과 상기 제 2 시간의 차이를 이용하여, 상기 다수의 음원에 의한 음성 데이터 중 운전자의 음성 데이터를 특정하는 단계; 및 (a-3) 상기 (a-2) 단계에서 특정된 음성 데이터의 운전자를 식별하는 단계;를 포함한다.
본 개시에 따르면, 스마트카 인포테인먼트 시장 활성화를 위한 더욱 사용자 친화적인 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법을 제공할 수 있다.
도 1은 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치의 구성도.
도 2는 2개의 음원에 의한 음성 데이터가 입력받은 경우, 운전자를 특정하는 방법에 대한 설명도.
도 3은 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 방법의 흐름도.
도 2는 2개의 음원에 의한 음성 데이터가 입력받은 경우, 운전자를 특정하는 방법에 대한 설명도.
도 3은 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 방법의 흐름도.
이하, 첨부된 도면을 참조하면서 본 개시의 실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법에 대해 상세히 설명하기로 한다. 본 개시의 하기의 실시예는 본 개시를 구체화하기 위한 것일 뿐 본 개시의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 개시의 상세한 설명 및 실시예로부터 본 개시가 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 개시의 권리 범위에 속하는 것으로 해석된다.
도 1은 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치(100)의 구성도를 나타낸다.
도 1로부터 알 수 있는 바와 같이, 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치(100)는, 운전자 식별부(10), 감정 판단부(20), 주행 상황 판단부(30) 및 콘텐츠 추천부(40)를 포함하여 구성된다.
일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치(100)에 포함된 각 구성은, 적어도 하나의 컴퓨팅 장치의 적어도 일부에 의해 구현될 수 있다. 아울러, 각각의 컴퓨팅 장치는 적어도 하나의 메모리와 적어도 하나의 프로세스를 포함하여 구성될 수 있다. 예를 들면, 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치(100)는, 차량 내부에서 사용되는 단말기의 형태로 구현될 수 있을 것이다.
운전자 식별부(10)는, 적어도 하나의 마이크로부터 입력받은 음성 데이터의 운전자를 식별한다. 적어도 하나의 마이크는 차량 내부에 설치될 수 있다.
구체적으로, 운전자 식별부(10)는, 하나의 음성 데이터가 적어도 하나의 마이크로부터 입력받은 경우에는 인공 지능에 의한 음성 식별을 통해, 해당 운전자가 누구인지를 식별한다.
아울러, 운전자 식별부(10)는 다수의 음원에 의한 음성 데이터가 입력받은 경우, 음성 식별에 앞서 다수의 음원에 의한 음성 데이터 중 운전자의 음성 데이터를 특정할 필요가 있다.
도 2는 2개의 음원에 의한 음성 데이터가 입력받은 경우, 운전자를 특정하는 방법에 대한 설명도이다. 2개의 음원의 예로는 각각, 운전자와 조수석에 동승한 동승자를 들 수 있을 것이다.
다수의 음원에 의한 음성 데이터가 각각, 제 1 마이크 및 제 2 마이크에 도달할 경우, 다수의 음원에 의한 음성 데이터 중 운전자의 음성을 식별할 수 있다. 만약 제 1 마이크를 운전자를 기준으로 좌측에 설치하고, 제 2 마이크를 운전자를 기준으로 우측에 설치하되, 제 1 마이크와 운전자와의 거리 및 제 2 마이크와 운전자와의 거리가 동일할 경우, 해당 운전자의 음성은 제 1 마이크 및 제 2 마이크에 동시에 도달한다.
이에 반해 운전자의 우측에 앉은 동승자의 음성은, 제 2 마이크에 비해 제 1 마이크에 보다 빨리 도달하게 된다.
즉, 운전자 식별부(10)는, 먼저, 다수의 음원에 의한 음성 데이터 각각에 대해 제 1 마이크에 도달한 제 1 시간과 제 2 마이크에 도달한 제 2 시간의 차이를 산출한다. 다음으로 운전자 식별부(10)는, 제 1 시간과 제 2 시간의 차이를 이용하여, 다수의 음원에 의한 음성 데이터 중 운전자의 음성 데이터를 특정한다. 이후, 운전자 식별부(10)는, 음성 식별을 통해, 특정된 운전자가 누구인지를 식별한다.
감정 판단부(20)는, 운전자 식별부(10)에 의해 식별된 해당 운전자의 감정을 판단하는 역할을 한다. 예를 들면, 감정은 즐거움, 분노, 평온, 슬픔, 지루함으로 5가지 카테고리로 분류될 수 있고, 감정 판단부(20)는 각 카테고리별로 판단된 감정에 대한 최종 스코어를 산출하여, 해당 운전자의 감정을 판단한다.
예를 들면, 감정 판단부(20)에 의해 즐거움 0점, 분노 30점, 평온 0점, 슬픔 70점, 지루함 0점과 같이 최종 스코어가 산출될 수 있다.
구체적으로, 감정 판단부(20)는, 해당 운전자의 음성 데이터의 특징 벡터를 이용하여, 미리 설정된 다수의 감정 카테고리별로 제 1 스코어를 산정하는 것에 의해, 제 1 예비적으로 해당 운전자의 감정을 분석할 수 있다. 아울러, 감정 판단부(20)는, 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하여, 다수의 감정 카테고리별로 제 2 스코어를 산정하는 것에 의해, 제 2 예비적으로 해당 운전자의 감정을 분석할 수 있다.
또한, 감정 판단부(20)는, 제 1 예비적으로 분석된 해당 운전자의 감정 및 제 2 예비적으로 분석된 해당 운전자의 감정을 종합하여, 최종적으로 해당 운전자의 감정을 판단한다. 즉, 감정 판단부(20)는, 해당 운전자의 음성 데이터의 특징 벡터 및 텍스트 데이터로 변환된 해당 운전자의 음성 데이터를 이용하여, 최종 스코어를 산출하여 해당 운전자의 감정을 판단한다.
감정 판단부(20)는, 해당 운전자의 음성 데이터를 서브 윈도우로 분할하고, 분할된 서브 윈도우별로 특징 벡터를 추출하고, 추출된 특징 벡터를 이용하여 다수의 감정 카테고리별로 인공 지능에 의해 제 1 스코어를 산정하여, 제 1 예비적으로 해당 운전자의 감정을 분석한다.
아울러, 감정 판단부(20)는, 텍스트 데이터의 문장을 토큰화하고, 토큰화된 문장 중 의미없는 어절을 삭제하고, 의미없는 어절이 삭제된 토큰화된 문장으로부터 어간을 추출하고, 추출된 어간을 이용하여 다수의 감정 카테고리별로 인공 지능에 의해 제 2 스코어를 산정하여, 제 2 예비적으로 해당 운전자의 감정을 분석한다.
이때 감정 판단부(20)는, 다음의 2가지 중 방법 중 하나에 의해 다수의 감정 카테고리별로 최종 스코어를 산출할 수 있다.
(1) 다수의 감정 카테고리별 제 1 스코어에 다수의 감정 카테고리별로 미리 설정된 제 1 가중치를 각각 곱한 값과, 다수의 감정 카테고리별 제 2 스코어에 다수의 감정 카테고리별로 미리 설정된 제 2 가중치를 각각 곱한 값을, 다수의 감정 카테고리별로 합산한 값
(2) 다수의 감정 카테고리별 제 1 스코어 및 제 2 스코어의 통계값
상기 (1)의 합산한 값으로 최종 스코어를 산출하는 것에 대해 구체적으로 설명하기로 한다.
제 1 가중치 및 제 2 가중치는 다수의 감정 카테고리에 각각 대응하도록, 감정 카테고리 만큼의 개수를 갖는다. 만약 감정 카테고리가 5가지라면, 제 1 가중치 및 제 2 가중치는 각각 5개의 값을 갖는다.
예를 들면 5가지의 감정 카테고리에 대해, 제 1 스코어는 각각 S11, S12, S13, S14, S15라고 하고, 제 2 스코어는 각각 S21, S22, S23, S24, S25라고 하고, 제 1 가중치는 각각 W11, W12, W13, W14, W15라고 하고, 제 2 가중치는 각각 W21, W22, W23, W24, W25라고 할 때, 제 1 감정에 대한 최종 스코어 F1=S11×W11+S21×W21으로, 제 2 감정에 대한 최종 스코어 F2=S12×W12+S22×W22으로 산출될 수 있다.
하기에 상기 (2)의 통계값으로 최종 스코어를 산출하는 것에 대해 구체적으로 설명하기로 한다.
제 1 스코어 및 제 2 스코어의 통계값은, 제 1 스코어 및 제 2 스코어의 평균값 또는 제 1 스코어 및 제 2 스코어를 합산한 값을 예로 들 수 있다. 만약 5가지의 감정 카테고리에 대해, 제 1 스코어는 각각 S11, S12, S13, S14, S15라고 하고, 제 2 스코어는 각각 S21, S22, S23, S24, S25라고 할 때 제 1 스코어 및 제 2 스코어를 합산한 값을 이용할 경우, 제 1 감정에 대한 최종 스코어 F1=S11+S21으로, 제 2 감정에 대한 최종 스코어 F2=S12+S22으로 산출될 수 있다.
주행 상황 판단부(30)는, 콘텐츠의 제공 장치(100)가 설치된 차량의 현재의 주행 상황을 판단하는 역할을 한다. 아울러, 주행 상황은, 차량 외부 상황 및 차량 내부 상황으로 분류될 수 있다.
구체적으로 차량 외부 상황은 외부 온도, 외부 습도, 강수량, 주행 중 도로, 목적지라는 카테고리를 포함할 수 있다. 차량 내부 상황은, 주행 속도, 차량 내부 온도, 차량의 공조 풍향 종류, 차량의 공조 바람 세기 정도, 차량의 공기 순환 종류라는 카테고리를 포함할 수 있다. 참고로, 각 카테고리별 주행 상황 데이터는, 센서, 날씨 정보, 차량의 내부 측정 정보 등을 이용하여 수집되어, 주행 상황 판단부(30)로 입력될 수 있다.
즉, 주행 상황 판단부(30)는, 외부 온도, 외부 습도, 주행 속도 등의 현재의 주행 상황에 대해 인공 지능을 이용하여, 각각의 카테고리별로 스코어를 산출하는 것에 의해 주행 상황을 판단할 수 있다.
콘텐츠 추천부(40)는, 감정 판단부(20) 및 주행 상황 판단부(30)에서의 판단 결과를 이용하여, 적어도 하나의 콘텐츠를 추천한다.
콘텐츠 추천부(40)는, 해당 운전자의 감정과 관련된 콘텐츠 이력 정보 중, 감정 판단부(20)에서 판단된 해당 운전자의 감정과 동일하거나 가장 유사한 감정과 관련된 제 1 콘텐츠를 선택하여 추천한다. 즉, 콘텐츠 추천부(40)는, 현재의 해당 운전자의 감정과 동일 또는 가장 유사한 해당 운전자의 감정 시의 콘텐츠인 제 1 콘텐츠를 추천한다.
아울러, 콘텐츠 추천부(40)는, 해당 운전자의 주행 상황과 관련된 콘텐츠 이력 정보 중, 주행 상황 판단부(30)에서 판단된 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 2 콘텐츠를 선택하여 추천한다. 즉, 콘텐츠 추천부(40)는, 현재의 해당 운전자의 주행 상황과 동일 또는 가장 유사한 해당 운전자의 주행 상황 시의 콘텐츠인 제 2 콘텐츠를 추천한다.
또한, 콘텐츠 추천부(40)는, 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황과 관련된 콘텐츠 이력 정보 중, 주행 상황 판단부(30)에서 판단된 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 3 콘텐츠를 선택하여 추천한다. 여기서, 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황은, 해당 그룹에 포함된 해당 운전자의 과거 주행 상황 및 다수의 다수의 운전자들의 과거 주행 상황을 의미한다. 즉, 콘텐츠 추천부(40)는, 현재의 해당 운전자의 주행 상황과 동일 또는 유사한 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황 시의 콘텐츠인 제 3 콘텐츠를 추천한다.
아울러, 콘텐츠 추천부(40)는, 제 1 콘텐츠, 제 2 콘텐츠 및 제 3 콘텐츠 중에서, 감정 판단부(20)에서 판단된 해당 운전자의 감정과 제 1 콘텐츠에 대응하는 해당 운전자의 감정의 유사 정도인 제 1 유사도; 주행 상황 판단부(30)에서 판단된 차량의 현재의 주행 상황과 제 2 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 2 유사도; 및 주행 상황 판단부(30)에서 판단된 차량의 현재의 주행 상황과 제 3 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 3 유사도; 중 가장 큰 유사 정도를 나타내는 콘텐츠를 최종 콘텐츠로 추천한다.
현재 해당 운전자의 감정인 제 1 감정 데이터와 이력에 저장된 과거의 해당 운전자의 감정인 제 2 감정 데이터 사이의 유사도인 제 1 유사도는, 다수의 감정 카테고리별 제 1 감정 데이터의 최종 스코어와 제 2 감정 데이터의 최종 스코어의 차이값의 절대값을 산출하고, 산출된 감정 카테고리별 최종 스코어의 차이값의 절대값을 합산한 값을 이용하여 산출될 수 있다. 즉, 합산한 값의 역수를 제 1 유사도로 이용할 수 있다.
마찬가지로, 차량의 현재의 주행 상황인 제 1 주행 상황 데이터와 이력에 저장된 과거의 해당 운전자의 주행 상황인 제 2 주행 상황 데이터 사이의 유사도인 제 2 유사도의 산출은, 다수의 주행 상황 카테고리별 제 1 주행 상황 데이터의 스코어와 제 2 주행 상황 데이터의 스코어의 차이값의 절대값을 산출하고, 산출된 주행 상황 카테고리별 차이값의 절대값을 합산한 값을 이용하여 산출될 수 있다. 즉, 합산한 값의 역수를 제 2 유사도로 이용할 수 있다.
아울러, 차량의 현재의 주행 상황인 제 1 주행 상황 데이터와 이력에 저장된 과거의 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황인 제3 주행 상황 데이터 사이의 유사도인 제 3 유사도의 산출은, 다수의 주행 상황 카테고리별 제 1 주행 상황 데이터의 스코어와 제 3 주행 상황 데이터의 스코어의 차이값의 절대값을 산출하고, 산출된 주행 상황 카테고리별 차이값의 절대값을 합산한 값을 이용하여 산출될 수 있다. 즉, 합산한 값의 역수를 제 3 유사도로 이용할 수 있다.
도 3은 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 방법의 흐름도를 나타낸다.
일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 방법은, 상술한 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치(100)를 이용하므로 별도의 설명이 없더라도 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 장치(100)의 모든 특징을 포함하고 있음은 물론이다.
아울러, 일실시예에 따른 른 운전자 개인 맞춤 콘텐츠의 제공 방법은, 적어도 하나의 프로세서에 의해 실시되는 컴퓨터 프로그램의 형태로 구현될 수 있다.
도 3으로부터 알 수 있는 바와 같이 일실시예에 따른 운전자 개인 맞춤 콘텐츠의 제공 방법은, 적어도 하나의 마이크로부터 입력받은 음성 데이터의 운전자를 식별하는 단계(S100); S100 단계에서 식별된 해당 운전자의 감정을 판단하는 단계(S200); 차량의 현재의 주행 상황을 판단하는 단계(S300); 및 S200 단계 및 S300 단계에서의 판단 결과를 이용하여, 적어도 하나의 콘텐츠를 추천하는 단계(S400);를 포함한다.
구체적으로, S100 단계는, 다수의 음원에 의한 음성 데이터 각각에 대해 제 1 마이크에 도달한 제 1 시간과 제 2 마이크에 도달한 제 2 시간의 차이를 산출하는 단계(S110); S110 단계에서 제 1 시간과 제 2 시간의 차이를 이용하여, 다수의 음원에 의한 음성 데이터 중 운전자의 음성 데이터를 특정하는 단계(S120); 및 S120 단계에서 특정된 음성 데이터의 운전자를 식별하는 단계(S130);를 포함한다.
아울러, S200 단계는, 해당 운전자의 음성 데이터의 특징 벡터를 이용하여, 미리 설정된 다수의 감정 카테고리별로 제 1 스코어를 산정하는 것에 의해, 제 1 예비적으로 해당 운전자의 감정을 분석하는 단계(S210); 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하여, 다수의 감정 카테고리별로 제 2 스코어를 산정하는 것에 의해, 제 2 예비적으로 해당 운전자의 감정을 분석하는 단계(S220); 및 제 1 예비적으로 분석된 해당 운전자의 감정 및 제 2 예비적으로 분석된 해당 운전자의 감정을 종합하여, 최종적으로 해당 운전자의 감정을 판단하는 단계(S230);를 포함한다.
구체적으로 S210 단계는, 해당 운전자의 음성 데이터를 서브 윈도우로 분할하는 단계(S211); S211 단계에서 분할된 서브 윈도우별로 특징 벡터를 추출하는 단계(S212); 및 S212 단계에서 추출된 특징 벡터를 이용하여, 다수의 감정 카테고리별로 제 1 스코어를 산정하는 것에 의해, 제 1 예비적으로 해당 운전자의 감정을 분석하는 단계(S213);를 포함한다.
아울러, S220 단계는, 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하는 단계(S221); 텍스트 데이터의 문장을 토큰화하는 단계(S222); S222 단계에서 토큰화된 문장 중 의미없는 어절을 삭제하고, 의미없는 어절이 삭제된 토큰화된 문장으로부터 어간을 추출하는 단계(S223); 및 S223 단계에서 추출된 어간을 이용하여, 다수의 감정 카테고리별로 제 2 스코어를 산정하는 것에 의해, 제 2 예비적으로 해당 운전자의 감정을 분석하는 단계(S224);를 포함한다.
구체적으로, S230 단계에서는, 다수의 감정 카테고리별 제 1 스코어에 다수의 감정 카테고리별로 미리 설정된 제 1 가중치를 각각 곱한 값과, 다수의 감정 카테고리별 제 2 스코어에 다수의 감정 카테고리별로 미리 설정된 제 2 가중치를 각각 곱한 값을, 다수의 감정 카테고리별로 합산한 값; 또는, 다수의 감정 카테고리별 제 1 스코어 및 제 2 스코어의 통계값; 중 하나를 이용하는 것에 의해, 다수의 감정 카테고리별로 최종 스코어를 산출하여, 최종 스코어에 의해 최종적으로 해당 운전자의 감정을 판단한다.
S400 단계는, 해당 운전자의 감정과 관련된 콘텐츠 이력 정보 중, S200 단계에서 판단된 해당 운전자의 감정과 동일하거나 가장 유사한 감정과 관련된 제 1 콘텐츠를 선택하여 추천하는 단계(S410); 해당 운전자의 주행 상황과 관련된 콘텐츠 이력 정보 중, S300 단계에서 판단된 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 2 콘텐츠를 선택하여 추천하는 단계(S420); 및 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황과 관련된 콘텐츠 이력 정보 중, S300 단계에서 판단된 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 3 콘텐츠를 선택하여 추천하는 단계(S430); 및 제 1 콘텐츠, 제 2 콘텐츠 및 제 3 콘텐츠 중 하나를 최종 콘텐츠로 추천하는 단계(S440);를 포함한다.
구체적으로, S440 단계에서는, 제 1 콘텐츠, 제 2 콘텐츠 및 제 3 콘텐츠 중에서, S200 단계에서 판단된 해당 운전자의 감정과 제 1 콘텐츠에 대응하는 해당 운전자의 감정의 유사 정도인 제 1 유사도; S300 단계에서 판단된 차량의 현재의 주행 상황과 제 2 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 2 유사도; 및 S300 단계에서 판단된 차량의 현재의 주행 상황과 제 3 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 3 유사도; 중 가장 큰 유사 정도를 나타내는 콘텐츠를 최종 콘텐츠로 추천한다.
상술한 바와 같이 본 개시에 따르면, 스마트카 인포테인먼트 시장 활성화를 위한 더욱 사용자 친화적인 운전자 개인 맞춤 콘텐츠의 제공 장치(100) 및 그 제공 방법을 제공할 수 있음을 알 수 있다.
100 : 콘텐츠의 제공 장치
10 : 운전자 식별부
20 : 감정 판단부
30 : 주행 상황 판단부
40 : 콘텐츠 추천부
10 : 운전자 식별부
20 : 감정 판단부
30 : 주행 상황 판단부
40 : 콘텐츠 추천부
Claims (18)
- 차량 내에서 콘텐츠를 제공하는 장치에 있어서,
적어도 하나의 마이크로부터 입력받은 음성 데이터의 운전자를 식별하는 운전자 식별부;
상기 운전자 식별부에서 식별된 해당 운전자의 감정을 판단하는 감정 판단부;
상기 차량의 현재의 주행 상황을 판단하는 주행 상황 판단부; 및
상기 감정 판단부 및 상기 주행 상황 판단부에서의 판단 결과를 이용하여, 적어도 하나의 콘텐츠를 추천하는 콘텐츠 추천부;를 포함하는, 콘텐츠를 제공하는 장치. - 제1항에 있어서,
상기 감정 판단부는,
해당 운전자의 음성 데이터의 특징 벡터를 이용하여, 미리 설정된 다수의 감정 카테고리별로 제 1 스코어를 산정하는 것에 의해, 제 1 예비적으로 해당 운전자의 감정을 분석하고,
해당 운전자의 음성 데이터를 텍스트 데이터로 변환하여, 상기 다수의 감정 카테고리별로 제 2 스코어를 산정하는 것에 의해, 제 2 예비적으로 해당 운전자의 감정을 분석하고,
상기 제 1 예비적으로 분석된 해당 운전자의 감정 및 상기 제 2 예비적으로 분석된 해당 운전자의 감정을 종합하여, 최종적으로 해당 운전자의 감정을 판단하는, 콘텐츠를 제공하는 장치. - 제2항에 있어서,
상기 감정 판단부는,
해당 운전자의 음성 데이터를 서브 윈도우로 분할하고, 분할된 서브 윈도우별로 특징 벡터를 추출하고, 추출된 특징 벡터를 이용하여 상기 다수의 감정 카테고리별로 상기 제 1 스코어를 산정하는 것에 의해, 상기 제 1 예비적으로 해당 운전자의 감정을 분석하는, 콘텐츠를 제공하는 장치. - 제2항에 있어서,
상기 감정 판단부는,
상기 텍스트 데이터의 문장을 토큰화하고, 토큰화된 문장 중 의미없는 어절을 삭제하고, 의미없는 어절이 삭제된 토큰화된 문장으로부터 어간을 추출하고, 추출된 어간을 이용하여 상기 다수의 감정 카테고리별로 상기 제 2 스코어를 산정하는 것에 의해, 상기 제 2 예비적으로 해당 운전자의 감정을 분석하는, 콘텐츠를 제공하는 장치. - 제2항에 있어서,
상기 감정 판단부는,
상기 다수의 감정 카테고리별 상기 제 1 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 1 가중치를 각각 곱한 값과, 상기 다수의 감정 카테고리별 상기 제 2 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 2 가중치를 각각 곱한 값을, 상기 다수의 감정 카테고리별로 합산한 값; 또는,
상기 다수의 감정 카테고리별 상기 제 1 스코어 및 상기 제 2 스코어의 통계값; 중 하나를 이용하는 것에 의해, 상기 다수의 감정 카테고리별로 최종 스코어를 산출하여 해당 운전자의 감정을 판단하는, 콘텐츠를 제공하는 장치. - 제1항에 있어서,
상기 콘텐츠 추천부는,
해당 운전자의 감정과 관련된 콘텐츠 이력 정보 중, 상기 감정 판단부에서 판단된 해당 운전자의 감정과 동일하거나 가장 유사한 감정과 관련된 제 1 콘텐츠를 선택하여 추천하는, 콘텐츠를 제공하는 장치. - 제6항에 있어서,
상기 콘텐츠 추천부는,
해당 운전자의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 2 콘텐츠를 선택하여 추천하고,
해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 3 콘텐츠를 선택하여 추천하는, 콘텐츠를 제공하는 장치. - 제7항에 있어서,
상기 콘텐츠 추천부는,
상기 제 1 콘텐츠, 상기 제 2 콘텐츠 및 상기 제 3 콘텐츠 중에서,
상기 감정 판단부에서 판단된 해당 운전자의 감정과 상기 제 1 콘텐츠에 대응하는 해당 운전자의 감정의 유사 정도인 제 1 유사도;
상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 2 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 2 유사도; 및
상기 주행 상황 판단부에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 3 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 3 유사도; 중 가장 큰 유사 정도를 나타내는 콘텐츠를 최종 콘텐츠로 추천하는, 콘텐츠를 제공하는 장치. - 제1항에 있어서,
상기 운전자 식별부는,
다수의 음원에 의한 음성 데이터 각각에 대해 제 1 마이크에 도달한 제 1 시간과 제 2 마이크에 도달한 제 2 시간의 차이를 산출하고,
상기 제 1 시간과 상기 제 2 시간의 차이를 이용하여, 상기 다수의 음원에 의한 음성 데이터 중 운전자의 음성 데이터를 특정하고, 특정된 음성 데이터의 운전자를 식별하는, 콘텐츠를 제공하는 장치. - 차량 내에서 콘텐츠를 제공하는 방법에 있어서,
(a) 적어도 하나의 마이크로부터 입력받은 음성 데이터의 운전자를 식별하는 단계;
(b) 상기 (a) 단계에서 식별된 해당 운전자의 감정을 판단하는 단계;
(c) 상기 차량의 현재의 주행 상황을 판단하는 단계; 및
(d) 상기 (b) 단계 및 상기 (c) 단계에서의 판단 결과를 이용하여, 적어도 하나의 콘텐츠를 추천하는 단계;를 포함하는, 콘텐츠를 제공하는 방법. - 제10항에 있어서,
상기 (b) 단계는,
(b-1) 해당 운전자의 음성 데이터의 특징 벡터를 이용하여, 미리 설정된 다수의 감정 카테고리별로 제 1 스코어를 산정하는 것에 의해, 제 1 예비적으로 해당 운전자의 감정을 분석하는 단계;
(b-2) 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하여, 상기 다수의 감정 카테고리별로 제 2 스코어를 산정하는 것에 의해, 제 2 예비적으로 해당 운전자의 감정을 분석하는 단계; 및
(b-3) 상기 제 1 예비적으로 분석된 해당 운전자의 감정 및 상기 제 2 예비적으로 분석된 해당 운전자의 감정을 종합하여, 최종적으로 해당 운전자의 감정을 판단하는 단계;를 포함하는, 콘텐츠를 제공하는 방법. - 제11항에 있어서,
상기 (b-1) 단계는,
(b-1-1) 해당 운전자의 음성 데이터를 서브 윈도우로 분할하는 단계;
(b-1-2) 상기 (b-1-1) 단계에서 분할된 서브 윈도우별로 특징 벡터를 추출하는 단계; 및
(b-1-3) 상기 (b-1-2) 단계에서 추출된 특징 벡터를 이용하여, 상기 다수의 감정 카테고리별로 상기 제 1 스코어를 산정하는 것에 의해, 상기 제 1 예비적으로 해당 운전자의 감정을 분석하는 단계;를 포함하는, 콘텐츠를 제공하는 방법. - 제11항에 있어서,
상기 (b-2) 단계는,
(b-2-1) 해당 운전자의 음성 데이터를 텍스트 데이터로 변환하는 단계;
(b-2-2) 상기 텍스트 데이터의 문장을 토큰화하는 단계;
(b-2-3) 상기 (b-2-2) 단계에서 토큰화된 문장 중 의미없는 어절을 삭제하고, 의미없는 어절이 삭제된 토큰화된 문장으로부터 어간을 추출하는 단계; 및
(b-2-4) 상기 (b-2-3) 단계에서 추출된 어간을 이용하여, 상기 다수의 감정 카테고리별로 상기 제 2 스코어를 산정하는 것에 의해, 상기 제 2 예비적으로 해당 운전자의 감정을 분석하는 단계;를 포함하는, 콘텐츠를 제공하는 방법. - 제11항에 있어서,
상기 (b-3) 단계에서는,
상기 다수의 감정 카테고리별 상기 제 1 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 1 가중치를 각각 곱한 값과, 상기 다수의 감정 카테고리별 상기 제 2 스코어에 상기 다수의 감정 카테고리별로 미리 설정된 제 2 가중치를 각각 곱한 값을, 상기 다수의 감정 카테고리별로 합산한 값; 또는,
상기 다수의 감정 카테고리별 상기 제 1 스코어 및 상기 제 2 스코어의 통계값; 중 하나를 이용하는 것에 의해, 상기 다수의 감정 카테고리별로 최종 스코어를 산출하여,
상기 최종 스코어에 의해 최종적으로 해당 운전자의 감정을 판단하는, 콘텐츠를 제공하는 방법. - 제10항에 있어서,
상기 (d) 단계는,
(d-1) 해당 운전자의 감정과 관련된 콘텐츠 이력 정보 중, 상기 (b) 단계에서 판단된 해당 운전자의 감정과 동일하거나 가장 유사한 감정과 관련된 제 1 콘텐츠를 선택하여 추천하는 단계;를 포함하는, 콘텐츠를 제공하는 방법. - 제15항에 있어서,
상기 (d) 단계는,
(d-2) 해당 운전자의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 2 콘텐츠를 선택하여 추천하는 단계; 및
(d-3) 해당 운전자가 포함된 미리 설정된 그룹의 다수의 운전자들의 주행 상황과 관련된 콘텐츠 이력 정보 중, 상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 동일하거나 가장 유사한 주행 상황과 관련된 제 3 콘텐츠를 선택하여 추천하는 단계;를 더 포함하는, 콘텐츠를 제공하는 방법. - 제16항에 있어서,
상기 (d) 단계는,
(d-4) 상기 제 1 콘텐츠, 상기 제 2 콘텐츠 및 상기 제 3 콘텐츠 중 하나를 최종 콘텐츠로 추천하는 단계;를 더 포함하되,
상기 (d-4) 단계에서는, 상기 제 1 콘텐츠, 상기 제 2 콘텐츠 및 상기 제 3 콘텐츠 중에서,
상기 (b) 단계에서 판단된 해당 운전자의 감정과 상기 제 1 콘텐츠에 대응하는 해당 운전자의 감정의 유사 정도인 제 1 유사도;
상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 2 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 2 유사도; 및
상기 (c) 단계에서 판단된 상기 차량의 현재의 주행 상황과 상기 제 3 콘텐츠에 대응하는 주행 상황의 유사 정도인 제 3 유사도; 중 가장 큰 유사 정도를 나타내는 콘텐츠를 최종 콘텐츠로 추천하는, 콘텐츠를 제공하는 방법. - 제10항에 있어서,
상기 (a) 단계는,
(a-1) 다수의 음원에 의한 음성 데이터 각각에 대해 제 1 마이크에 도달한 제 1 시간과 제 2 마이크에 도달한 제 2 시간의 차이를 산출하는 단계;
(a-2) 상기 (a-1) 단계에서 상기 제 1 시간과 상기 제 2 시간의 차이를 이용하여, 상기 다수의 음원에 의한 음성 데이터 중 운전자의 음성 데이터를 특정하는 단계; 및
(a-3) 상기 (a-2) 단계에서 특정된 음성 데이터의 운전자를 식별하는 단계;를 포함하는, 콘텐츠를 제공하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220115663A KR20240037421A (ko) | 2022-09-14 | 2022-09-14 | 차량 내에서 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220115663A KR20240037421A (ko) | 2022-09-14 | 2022-09-14 | 차량 내에서 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240037421A true KR20240037421A (ko) | 2024-03-22 |
Family
ID=90481288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220115663A KR20240037421A (ko) | 2022-09-14 | 2022-09-14 | 차량 내에서 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240037421A (ko) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220014943A (ko) | 2020-07-29 | 2022-02-08 | 현대자동차주식회사 | 주행 환경 연동 운전자 감정 판단 방법 및 시스템 |
-
2022
- 2022-09-14 KR KR1020220115663A patent/KR20240037421A/ko unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220014943A (ko) | 2020-07-29 | 2022-02-08 | 현대자동차주식회사 | 주행 환경 연동 운전자 감정 판단 방법 및 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675860A (zh) | 基于改进注意力机制并结合语义的语音信息识别方法及系统 | |
US10861459B2 (en) | Apparatus and method for determining reliability of recommendation based on environment of vehicle | |
US20140119563A1 (en) | System and method for using biometrics to predict and select music preferences | |
US20190340201A1 (en) | Computerized domain expert | |
KR102221513B1 (ko) | 음성 감정 인식 방법 및 시스템 | |
JP2006510933A (ja) | センサ・ベース音声認識装置の選択、適応、および組合せ | |
CN112349276B (zh) | 一种车载语音交互方法、装置及电子设备 | |
CN110210027A (zh) | 基于集成学习的细粒度情感分析方法、装置、设备及介质 | |
CN111128178A (zh) | 一种基于面部表情分析的语音识别方法 | |
WO2021166207A1 (ja) | 認識装置、学習装置、それらの方法、およびプログラム | |
Teye et al. | Evaluation of conversational agents: understanding culture, context and environment in emotion detection | |
CN117114745B (zh) | 一种意向车型预测方法及装置 | |
CN111414732A (zh) | 文本风格转换方法、装置、电子设备及存储介质 | |
KR20240037421A (ko) | 차량 내에서 운전자 개인 맞춤 콘텐츠의 제공 장치 및 그 제공 방법 | |
CN111291189B (zh) | 一种文本处理方法、设备及计算机可读存储介质 | |
US11922538B2 (en) | Apparatus for generating emojis, vehicle, and method for generating emojis | |
Fuentes et al. | Towards a classifier to recognize emotions using voice to improve recommendations | |
Chen et al. | Integrated automatic expression prediction and speech synthesis from text | |
Kono et al. | Prototype of conversation support system for activating group conversation in the vehicle | |
CN111681670B (zh) | 信息识别方法、装置、电子设备及存储介质 | |
CN114625878A (zh) | 意图识别方法、交互系统及设备 | |
Goyal et al. | Personalized emotion detection from text using machine learning | |
CN111966897B (zh) | 一种出行意愿的感知方法、装置、终端及存储介质 | |
Walther et al. | Towards a conversational expert system for rhetorical and vocal quality assessment in call center talks. | |
KR20240044699A (ko) | 차량의 주행 상황에 따른 아이템의 추천 시스템 및 그 추천 방법 |