KR20200074168A - 차량용 조작 지원 장치 및 조작 지원 방법 - Google Patents
차량용 조작 지원 장치 및 조작 지원 방법 Download PDFInfo
- Publication number
- KR20200074168A KR20200074168A KR1020207014105A KR20207014105A KR20200074168A KR 20200074168 A KR20200074168 A KR 20200074168A KR 1020207014105 A KR1020207014105 A KR 1020207014105A KR 20207014105 A KR20207014105 A KR 20207014105A KR 20200074168 A KR20200074168 A KR 20200074168A
- Authority
- KR
- South Korea
- Prior art keywords
- human
- human relationship
- relationship
- vehicle
- conversational
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 47
- 241000282414 Homo sapiens Species 0.000 claims abstract description 325
- 238000004458 analytical method Methods 0.000 claims abstract description 69
- 241000282412 Homo Species 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims description 78
- 238000004445 quantitative analysis Methods 0.000 claims 1
- 238000000605 extraction Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 8
- 238000011002 quantification Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 102000054584 human Y acceptor Human genes 0.000 description 2
- 108700023876 human Y acceptor Proteins 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
Images
Classifications
-
- G10L17/005—
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3617—Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Social Psychology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
인간 관계 해석 유닛(1A)과, 인간 관계 기억 유닛(1B)과, 지원 정보 결정 유닛(1C)을 구비하고, 인간 관계를 포함하는 탑승원 구성에 적합한 권장 정보를 구하여, 탑승원이 행하는 차량 조작의 지원에 제공하는 차량용 조작 지원 장치(1)에 있어서, 상기 인간 관계 해석 유닛은, 상기 탑승원이 될 수 있는 복수의 인간의 회화 음성 데이터를 취득하여 발화자를 특정하고, 취득한 회화 음성 데이터를, 특정한 발화자별로 분석하여 소정의 키워드를 추출하고, 발화자별 상기 키워드에 기초하여 당해 발화자별 말투를 특정하고, 상기 복수의 인간의 회화 음성 데이터에 기초하여 회화 내용을 특정하고, 특정한 말투와, 특정한 회화 내용으로부터, 상기 복수의 인간끼리의 직접적인 인간 관계를 해석하여 정량화하고, 상기 인간 관계 기억 유닛은, 상기 탑승원이 될 수 있는 복수의 인간의 상기 직접적인 인간 관계를 미리 축적하고, 상기 지원 정보 결정 유닛은, 차량에 탑승한 복수의 탑승원을 특정하고, 상기 인간 관계 기억 유닛에 축적된 상기 직접적인 인간 관계에 기초하여, 상기 복수의 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 결정한다.
Description
본 발명은 인간 관계를 포함하는 탑승원 구성에 적합한 권장 정보를 구하여, 탑승원이 행하는 각종 차량 조작의 지원에 제공하는 차량용 조작 지원 장치에 관한 것이다.
차내의 음성을 수집함과 함께 탑승원의 좌석 위치를 특정하고, 수집한 음성과 특정한 착석 위치에 기초하여, 차내에 존재하는 탑승원 중 발화자를 추정함과 함께, 수집한 음성에 기초하여 회화의 내용을 추정하고, 특정한 착석 위치, 추정한 발화자 및 추정한 회화 내용에 기초하여, 탑승원의 구성을 추정하고, 추정한 회화 내용 및 추정한 탑승원 구성에 기초하여 탑승원의 행동 목적을 추정하고, 추정한 탑승원 구성 및 추정한 행동 목적에 기초하여, 권장하는 레코멘드 서비스를 결정하는 차량 탑재 장치가 알려져 있다(특허문헌 1). 구체적으로는, 수집한 음성의 성문 패턴으로부터 개인을 식별하고, 또한 식별된 개인별 착석 위치와 승차 빈도로부터 소유자를 특정하고, 수집한 음성으로부터 회화 키워드를 사용하여 식별된 개인과의 관계를 특정하여 발화자 패턴 데이터로서 등록해 두고, 등록된 발화자 패턴 데이터를 사용하여 탑승원 구성을 추정한다.
그러나, 상기 종래 기술에서는, 정밀도 높은 발화자 패턴 데이터를 작성하기 위해서는, 그에 상당하는 횟수의 데이터를 수집할 필요가 있고, 탑승원에 대해 최적인 레코멘드 서비스(이하, 권장 정보라고도 함)를 제공할 때까지 상당한 시간이 걸린다는 문제가 있다.
본 발명이 해결하고자 하는 과제는, 인간 관계를 포함하는 탑승원 구성에 적합한 권장 정보를 단시간에 구하여, 탑승원이 행하는 각종 차량 조작의 지원에 제공하는 차량용 조작 지원 장치를 제공하는 것이다.
본 발명은, 미리 복수의 인간의 회화 음성 데이터를 취득하여 발화자를 특정하고, 취득한 회화 음성 데이터를, 특정한 발화자별로 분석하여 소정의 키워드를 추출하고, 발화자별 키워드에 기초하여 당해 발화자별 말투를 특정하고, 복수의 인간의 회화 음성 데이터에 기초하여 회화 내용을 특정하고, 특정한 말투와, 특정한 회화 내용으로부터, 복수의 인간끼리의 직접적인 인간 관계를 정량화하여 구해 둔다. 그리고, 복수의 인간이 승차하면, 그 인간과 정량화된 인간 관계로부터, 권장되도록 정해진 차량 조작의 지원 정보를 결정함으로써 상기 과제를 해결한다.
본 발명에 의하면, 승차 전에 구해 둔 인간 관계에 관한 정보를 사용하고 있으므로, 인간 관계를 포함하는 탑승원 구성에 적합한 권장 정보를 단시간에 구할 수 있고, 탑승원이 행하는 각종 차량 조작의 지원에 시의적절하게 제공할 수 있다.
도 1은 본 발명에 관한 차량용 조작 지원 장치의 일 실시 형태를 도시하는 블록도이다.
도 2a는 도 1의 회화 그룹 추정부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 2b는 도 2a의 스텝 S22의 발화 위치에 의한 조합 추출 처리를 설명하기 위한 평면 지도이다.
도 2c는 도 2a의 스텝 S23의 발화 기간에 의한 조합 추출 처리를 설명하기 위한 타임차트이다.
도 3a는 도 1의 직접적 인간 관계 해석부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 3b는 도 3a의 스텝 S33의 발화 내용 카테고리의 해석 처리에 사용되는 카테고리 사서의 일부를 도시하는 도면이다.
도 3c는 도 3a의 스텝 S33의 발화 내용 카테고리의 해석 처리에 의해 얻어지는 해석 결과의 일례를 나타내는 그래프이다.
도 3d는 도 3a의 스텝 S34의 말투의 해석 처리에 사용되는 말투 사서의 일부를 도시하는 도면이다.
도 3e는 도 3a의 스텝 S34의 말투의 해석 처리에 의해 얻어지는 해석 결과의 일례를 나타내는 그래프이다.
도 4a는 도 1의 간접적 인간 관계 추정부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 4b는 도 4a의 스텝 S42의 직접적인 인간 관계의 해석값의 통계 처리를 설명하기 위한 인간 관계를 나타내는 도면이다.
도 4c는 도 4a의 스텝 S42의 직접적인 인간 관계의 해석값의 통계 처리에 의해 얻어지는 결과의 일례를 나타내는 그래프이다.
도 4d는 도 4a의 스텝 S44의 간접적인 인간 관계의 추정값의 산출 처리를 설명하기 위한 인간 관계를 나타내는 도면이다.
도 5는 도 1의 차량 정보 학습부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 6은 도 1의 지원 정보 결정부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 2a는 도 1의 회화 그룹 추정부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 2b는 도 2a의 스텝 S22의 발화 위치에 의한 조합 추출 처리를 설명하기 위한 평면 지도이다.
도 2c는 도 2a의 스텝 S23의 발화 기간에 의한 조합 추출 처리를 설명하기 위한 타임차트이다.
도 3a는 도 1의 직접적 인간 관계 해석부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 3b는 도 3a의 스텝 S33의 발화 내용 카테고리의 해석 처리에 사용되는 카테고리 사서의 일부를 도시하는 도면이다.
도 3c는 도 3a의 스텝 S33의 발화 내용 카테고리의 해석 처리에 의해 얻어지는 해석 결과의 일례를 나타내는 그래프이다.
도 3d는 도 3a의 스텝 S34의 말투의 해석 처리에 사용되는 말투 사서의 일부를 도시하는 도면이다.
도 3e는 도 3a의 스텝 S34의 말투의 해석 처리에 의해 얻어지는 해석 결과의 일례를 나타내는 그래프이다.
도 4a는 도 1의 간접적 인간 관계 추정부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 4b는 도 4a의 스텝 S42의 직접적인 인간 관계의 해석값의 통계 처리를 설명하기 위한 인간 관계를 나타내는 도면이다.
도 4c는 도 4a의 스텝 S42의 직접적인 인간 관계의 해석값의 통계 처리에 의해 얻어지는 결과의 일례를 나타내는 그래프이다.
도 4d는 도 4a의 스텝 S44의 간접적인 인간 관계의 추정값의 산출 처리를 설명하기 위한 인간 관계를 나타내는 도면이다.
도 5는 도 1의 차량 정보 학습부에서 실행되는 처리 수순을 도시하는 흐름도이다.
도 6은 도 1의 지원 정보 결정부에서 실행되는 처리 수순을 도시하는 흐름도이다.
이하, 본 발명의 일 실시 형태를 도면에 기초하여 설명한다. 본 실시 형태의 차량용 조작 지원 장치(1)는, 인간 관계를 포함하는 탑승원 구성에 적합한 권장 정보를 구하여, 탑승원이 행하는 각종 차량 조작의 지원에 제공하는 것이다. 특별히 한정되지 않지만 본원 발명의 이해를 용이하게 하기 위해 그 일례를 들면, 차량 VH1의 탑승원을 구성하는 탑승원 A와 탑승원 B이며, 양자가, 낚시 친구라는 인간 관계에 있는 경우, 차량 탑재 내비게이션 장치에 대해, 낚시 장소에 적합한 목적지를 선택지로서 표시하거나 자동으로 목적지로 설정하거나, 또는 차량 탑재 오디오 장치에 대해, 낚시 프로그램의 라디오 방송을 선택지로서 표시하거나 자동으로 틀거나 하는 것이다. 또한, 차량 VH2의 탑승원을 구성하는 탑승원 C와 탑승원 D이며, 양자가, 같은 회사의 상사와 부하라는 인간 관계에 있는 경우, 차량 탑재 내비게이션 장치에 대해, 출장지나 점심 식사용 레스토랑 등의 목적지를 선택지로서 표시하거나 자동으로 목적지로 설정하거나, 또는 차량 탑재 오디오 장치에 대해, 경제 프로그램의 라디오 방송을 선택지로서 표시하거나 자동으로 틀거나 하는 것이다.
「인간 관계」란, 현재 또는 과거의 사회 생활에 있어서의 경험에 의해 정해지는, 특정 인간과 특정 인간 사이의 관계를 의미하며, 특별히 한정되지 않지만 본원 발명의 이해를 용이하게 하기 위해 그 일례를 들면, 부모ㆍ자녀ㆍ남편ㆍ아내 등의 가족, 사촌 형제ㆍ사촌 자매 등의 친척, 이들 가족이나 친척 그 밖의 관계, 회사나 학교 등의 조직에 있어서의 상사ㆍ부하ㆍ동료ㆍ동급생ㆍ선배ㆍ후배와 같은 조직 내의 지위의 관계, 취미나 오락의 동료, 보이 프렌드ㆍ걸 프렌드ㆍ연인 그 밖의 친구 및 타인 등으로 분류할 수 있다. 본 실시 형태에 있어서, 차량의 탑승원 구성이라는 것은, 이러한 인간 관계를 포함하는 것을 의미한다.
「차량 조작」이란, 특별히 한정되지 않지만 본원 발명의 이해를 용이하게 하기 위해 그 일례를 들면, 탑승원이 행하는 차량의 주행 조작(액셀러레이터 조작, 브레이크 조작, 트랜스미션 레버 조작, 핸들 조작 등), 내비게이션 장치의 조작, 오디오 장치의 조작, 카 에어컨의 조작, 좌석 포지션의 조절 조작 등, 운전자를 포함하는 탑승원이 행하는 차량의 각종 조작이 포함된다.
「탑승원 구성에 적합한 권장 정보」란, 상술한 탑승원이 행하는 차량의 조작상, 탑승원의 인간 관계로부터 생각되는, 가능성 높거나 또는 바람직한 조작을 실현하기 위한 차량 또는 차량 탑재 장치에 대한 지시 정보이다. 특별히 한정되지 않지만 본원 발명의 이해를 용이하게 하기 위해 그 일례를 들면, 상술한 예로 말하자면, 탑승원을 구성하는 탑승원 A와 탑승원 B가, 낚시 친구라는 인간 관계에 있는 경우의 권장 정보로서는, 차량 탑재 내비게이션 장치의 목적지의 설정 조작에 대한 지시 정보나, 오디오 장치의 선국 조작에 대한 지시 정보 등을 예시할 수 있다.
차량 조작의 「지원」에는, 탑승원이 수동 조작할 때 그 선택지를 탑승원에게 제시하는 것 외에, 탑승원이 수동 조작하지 않고 차량용 조작 지원 장치(1)가 자동적으로 조작하는 것도 포함된다. 차량용 조작 지원 장치(1)가 권장 정보에 기초하여 자동적으로 차량 조작한 경우에, 그 권장 정보에 대해 탑승원이 호감도를 가졌을 때는, 탑승원이 행해야 할 차량 조작을 적게 할 수 있다. 또한, 네거티브한 호감도를 가졌을 때에는, 당해 탑승원은, 그 자동적인 차량 조작에 대해 다른 수동 조작을 하면 자동적인 차량 조작은 해제할 수 있다.
이와 같이, 본 실시 형태의 차량용 조작 지원 장치(1)는, 인간 관계를 포함하는 탑승원 구성에 적합한 권장 정보를 구하여, 탑승원이 행하는 각종 차량 조작의 지원에 제공하는 것이지만, 승차하기 전에 인간 관계를 해석 또는 추정하여 미리 구해 두고, 승차하면 당해 인간 관계를 사용하여 권장 정보를 단시간에 구하여, 차량 조작의 지원에 제공하는 것을 특징으로 한다.
이 때문에, 도 1에 도시하는 바와 같이, 본 실시 형태의 차량용 조작 지원 장치(1)는, 인간 관계 해석 유닛(1A)과, 인간 관계 기억 유닛(1B)과, 지원 정보 결정 유닛(1C)과, 차량 정보 학습 유닛(1D)과, 조작 경향 기억 유닛(1E)을 구비한다. 그리고, 인간 관계 해석 유닛(1A)은, 음성 취득부(11), 회화 그룹 추정부(12), 직접적 인간 관계 해석부(13) 및 간접적 인간 관계 추정부(14)를 포함하고, 인간 관계 기억 유닛(1B)은, 인간 관계 데이터베이스(15)를 포함하고, 지원 정보 결정 유닛(1C)은, 지원 정보 결정부(16)를 포함하고, 차량 정보 학습 유닛(1D)은, 차량 정보 학습부(17)를 포함하고, 조작 경향 기억 유닛(1E)은, 조작 경향 데이터베이스(18)를 포함한다. 또한, 본 발명의 차량용 조작 지원 장치(1)는, 필요에 따라, 차량 정보 학습 유닛(1D) 및 조작 경향 기억 유닛(1E)을 생략하고, 인간 관계 해석 유닛(1A), 인간 관계 기억 유닛(1B) 및 지원 정보 결정 유닛(1C)으로 구성해도 된다.
본 실시 형태의 차량용 조작 지원 장치(1)는, 하드웨어 및 소프트웨어를 구비한 컴퓨터에 의해 구성되고, 프로그램을 저장한 ROM(Read Only Memory)과, 이 ROM에 저장된 프로그램을 실행하는 CPU(Central Processing Unit)와, 액세스 가능한 기억 장치로서 기능하는 RAM(Random Access Memory)으로 구성된다. 또한, 동작 회로로서는, CPU(Central Processing Unit) 대신에 또는 이와 함께, MPU(Micro Processing Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등을 사용할 수 있다. 그리고, 상술한 인간 관계 해석 유닛(1A)과, 인간 관계 기억 유닛(1B)과, 지원 정보 결정 유닛(1C)과, 차량 정보 학습 유닛(1D)과, 조작 경향 기억 유닛(1E)은, ROM에 확립된 소프트웨어에 의해, 후술하는 각 기능을 실현한다.
우선, 본 실시 형태의 차량용 조작 지원 장치(1)의 전제로서, 탑승원이 될 수 있는 복수의 인간은, 일상적으로 휴대 또는 사용하는 단말기 TD1, TD2, TD3…(이하, 총칭하여 TD라고도 함)을 각각 소유한다. 이 종류의 단말기 TD로서는, 스마트 폰, 휴대 전화기, 착탈 가능한 차량 탑재 기기, 차량의 리모트 컨트롤 키(인텔리전트 키(등록 상표) 등), 음성 인식 유저 인터페이스(Amazon Echo Dot(등록 상표) 등)를 사용할 수 있다. 본 실시 형태의 단말기 TD는, 컴퓨터 기능을 구비하고, 회화 음성 데이터를 입력하기 위한 마이크와, 입력한 회화 음성 데이터를 본 실시 형태의 차량용 조작 지원 장치(1)의 인간 관계 해석 유닛(1A)에 송신하기 위한 통신 기능과, 단말기 TD의 현재 위치를 검출하는 GPS 수신기 등의 위치 검출 기능을 구비한다. 그리고, 각 단말기 TD는, 자기의 ID와, 현재 위치와, 수음한 회화 음성 데이터를, 인터넷 등의 무선 통신 회선망을 통하여 인간 관계 해석 유닛(1A)의 음성 취득부(11)에 송신한다.
인간 관계 해석 유닛(1A)은, 도 1에 도시하는 바와 같이, 음성 취득부(11), 회화 그룹 추정부(12), 직접적 인간 관계 해석부(13) 및 간접적 인간 관계 추정부(14)를 포함한다.
음성 취득부(11)는, 인터넷 등의 무선 통신 회선망을 통하여, 상술한 복수의 단말기 TD와 정보의 송수신을 실행하고, 특히 각 단말기 TD의, ID와 현재 위치와 수음한 회화 음성 데이터를 입력한다(도 2a의 스텝 S21).
회화 그룹 추정부(12)는, 음성 취득부(11)에 입력된 각 단말기 TD의, ID와 현재 위치와 수음한 회화 음성 데이터에 기초하여, 어느 특정 단말기 TD에 입력된 회화 음성 데이터에 관한 것이며, 누구와 누구가 회화하고 있는지, 회화하고 있는 인간의 그룹(집단)을 추정한다. 이 때, 미리 등록되어 있는 각 단말기 TD의 소유자(또는 특정 인간이어도 된다. 이하 동일.)의 성문 데이터와 대조하여, 어느 회화 음성 데이터가 누구의 음성인지도 특정한다. 예를 들어, 도 2b는, 도 2a의 스텝 S22의 발화 위치에 의한 조합 추출 처리를 설명하기 위한 평면 지도(위도-경도)이다. 도 2b에 도시하는 바와 같이, 발화 음성 데이터가 단말기 TD1에서 수음된 경우에, 차량용 조작 지원 장치(1)의 인간 관계 데이터베이스(15)에, 각 단말기 TD의 소유자의 성문 데이터를 ID에 관련지어 등록해 두고, 단말기 TD1에서 수음된 회화 음성 데이터를 성문 데이터와 대조하여, 어느 ID의 단말기 TD의 소유자의 음성인지를 특정한다.
단말기 TD에서 수음되는 회화 음성 데이터에는, 실제로 회화하고 있는 복수의 인간의 회화 음성 데이터 이외에도, 회화와는 관계가 없는 인간의 회화 음성 데이터가 입력된다. 이 때문에, 회화 그룹 추정부(12)는, 단말기 TD의 위치 정보에 의한 조합 추출 처리와, 발화 기간에 의한 조합 추출 처리를 실행함으로써, 그 단말기 TD에 입력된 회화 음성 데이터 중에서 실제로 회화하고 있는 그룹의 인간을 추정한다. 즉, 단말기 TD의 위치 정보에 의한 조합 추출 처리는, 음성 취득부(11)에 입력된 각 단말기 TD의, ID와 현재 위치와 수음한 회화 음성 데이터에 기초하여, 단말기 TD에 의해 동 시각에 집음된 복수의 회화 음성 데이터에 대해, 집음된 위치 정보가 임계값 이상으로 접근하고 있는 조합을 추출함으로써, 단말기 TD의 위치 정보에 기초하는 가상의 회화 그룹의 추정을 실행한다(도 2a의 스텝 S22).
예를 들어, 도 2b에 도시하는 바와 같이, 회화 음성 데이터를 수음한 단말기 TD1이 위치 P에 있고, 이 위치 P로부터 반경 r 이내에 존재하는 단말기 TD(동 도면에서는 세 단말기 TD2, TD3, TD4)는, 거리가 가깝다는 점에서 회화 그룹일 가능성이 높으므로, 이들을 가상의 회화 그룹으로서 추정한다. 이에 비하여, 회화 음성 데이터를 수음한 단말기 TD1의 위치 P로부터 반경 r을 초과하는 위치에 존재하는 단말기 TD(동 도면에서는 네 삼각 표시로 나타내는 단말기)는, 거리가 멀다는 점에서, 회화 그룹일 가능성이 낮으므로, 가상의 회화 그룹으로부터 제외한다.
발화 기간에 의한 조합 추출 처리는, 상술한 위치 정보에 의한 조합 추출 처리(도 2a의 스텝 S22)에 의해 추출된 동일 그룹에 속한다고 추정된 하나 이상의 회화 음성 데이터에 대해, 발화된 기간(발화 개시로부터 발화 종료까지 시간 간격)의 중복률 또는 중복 시간이, 소정의 임계값 이하인 회화 음성 데이터끼리를 추출하고, 이들이 실제로 회화를 행하고 있는 회화 그룹이라고 추정한다(도 2a의 스텝 S23).
예를 들어, 도 2c는, 도 2a의 스텝 S23의 발화 기간에 의한 조합 추출 처리를 설명하기 위한 타임차트이다. 도 2c에 도시하는 바와 같이, 네 단말기 TD1, TD2, TD3, TD4의 회화 음성 데이터의 발화 기간을 실선으로 나타내면, 단말기 TD1의 인간의 발화 기간에 대해, 단말기 TD2의 인간의 발화 기간은 거의 중복되어 있지 않지만, 단말기 TD1의 인간의 발화 기간에 대해, 단말기 TD3 및 TD4의 인간의 발화 기간은, 중복되어 있는 비율이 크다. 또한, 단말기 TD2의 인간의 발화 기간에 대해서도, 단말기 TD3 및 TD4의 인간의 발화 기간은, 중복되어 있는 비율이 크다. 이와 같이, 인간끼리 회화하고 있는 경우, 발화 기간이 중복되어 있는 비율이 크다는 것은, 회화가 성립되고 있지 않다고 추정하는 것이 합리적이기 때문에, 단말기 TD3 및 TD4의 인간은, 단말기 TD1 및 TD2의 인간과 동일 회화 그룹을 구성하고 있지 않다고 추정하는 한편, 단말기 TD1 및 TD2의 인간의 발화 기간은 거의 중복되어 있지 않기 때문에(소정의 임계값 이하), 이들이 동일 회화 그룹이라고 추정한다. 회화 그룹 추정부(12)는, 이와 같이 추정한 동일 회화 그룹의 회화 음성 데이터를 특정하고, 단말기 TD1, TD2의 ID와 함께 직접적 인간 관계 해석부(13)로 출력한다.
직접적 인간 관계 해석부(13)는, 취득한 회화 음성 데이터를, 특정한 발화자별로 분석하여 소정의 키워드를 추출하고, 발화자별 키워드에 기초하여 당해 발화자별 말투를 특정하고, 복수의 인간의 회화 음성 데이터에 기초하여 회화 내용을 특정하고, 특정한 말투와, 특정한 회화 내용으로부터, 복수의 인간끼리의 직접적인 인간 관계를 해석하고, 정량화하여 구하는 기능을 담당한다. 이 해석은, 상술한 회화 그룹 추정부(12)에 의해 추정된 동일한 회화 그룹에 속하는 회화 음성 데이터에 기초하여 실행된다(도 3a의 스텝 S31). 본 실시 형태의 직접적 인간 관계 해석부(13)는, 키워드 추출 처리(도 3a의 스텝 S32), 회화 내용의 카테고리의 해석 처리(도 3a의 스텝 S33), 말투의 해석 처리(도 3a의 스텝 S34) 및 결합 처리(도 3a의 스텝 S35)에 의해 실행된다.
키워드 추출 처리는, 동일한 회화 그룹에 속하는 회화 음성 데이터로부터, 미리 등록된 복수의 키워드(소정의 단어)를 공지의 음성 검출 처리에 의해 추출하는 처리이며, 회화 내용의 카테고리의 해석 처리는, 키워드 추출 처리에 의해 추출된 키워드에 대해, 키워드가 속하는 카테고리로 분류하는 처리이다. 이들 키워드의 추출 처리와 회화 내용의 카테고리의 해석 처리는, 인간 관계 데이터베이스(15)에 기억된 카테고리 사서를 참조함으로써 행해진다. 도 3b는, 도 3a의 스텝 S33의 발화 내용 카테고리의 해석 처리에 사용되는 카테고리 사서의 일부를 도시하는 도면이다. 동 도면에 도시하는 바와 같이, 복수의 키워드에 대해 하나의 회화 내용의 카테고리가 관련지어져, 예를 들어 회화 음성 데이터에 「마라톤」이 포함되어 있는 경우에는 「스포츠」로 분류되는 회화가 행해지고 있음이 나타나고 있다. 회화 내용의 카테고리의 해석 처리에 있어서는, 추출된 키워드에 대해 관련된 회화 내용의 카테고리의 발생 빈도를 도 3c에 도시하는 바와 같이 산출한다. 도 3c는, 도 3a의 스텝 S33의 발화 내용 카테고리의 해석 처리에 의해 얻어지는 해석 결과의 일례를 나타내는 그래프이다. 회화 내용의 카테고리의 해석 처리에 있어서는, 동 도면에 나타내는 발생 빈도가 큰 회화 내용의 카테고리를 특정하고, 도 3a의 스텝 S35의 결합 처리에 사용한다.
말투의 해석 처리는, 키워드 추출 처리에 의해 추출된 키워드에 대해, 키워드가 속하는 말투로 분류하는 처리이다. 이 처리는, 인간 관계 데이터베이스(15)에 기억된 말투 사서를 참조함으로써 행해진다. 도 3d는, 도 3a의 스텝 S34의 말투의 해석 처리에 사용되는 말투 사서의 일부를 도시하는 도면이다. 말투의 해석 처리에서 추출되는 키워드는, 도 3a의 스텝 S32에서 추출되지만, 스텝 S33의 회화 내용의 카테고리의 해석 처리에서 사용되는 키워드와는 다른 키워드가 사용된다. 동 도면에 도시하는 바와 같이, 복수의 키워드에 대해 하나의 말투의 카테고리가 관련지어져, 예를 들어 회화 음성 데이터에 「~ 님」이 포함되어 있는 경우에는 「경어 또는 존대어」로 분류되는 회화가 행해지고 있음이 나타나 있다. 여기서, 「말투」란, 말의 사용 방식, 물건을 말하는 방식이며, 도 3d에 도시하는 바와 같이, 예를 들어 경어 또는 존대어, 젊은이말, 방언, 보통 말투, 약어 등을 예시할 수 있다.
말투의 해석 처리에서는, 한쪽 인간과 다른 쪽 인간의 말투가 다른 경우가 있을 수 있다는 점에서, 추출된 키워드에 대해 관련지어진 말투의 카테고리의 발생 빈도를 도 3e에 도시하는 바와 같이, 한쪽 인간(예를 들어 동 도면의 좌측 그래프)과, 다른 쪽 인간(예는 들어 동 도면의 우측 그래프)과 같이 각각 산출한다. 도 3e는, 도 3a의 스텝 S34의 말투의 해석 처리에 의해 얻어지는 해석 결과의 일례를 나타내는 그래프이다. 말투의 해석 처리에 있어서는, 동 도면에 나타내는 발생 빈도가 큰 말투의 카테고리를 각각 특정하고, 도 3a의 스텝 S35의 결합 처리에 사용한다.
결합 처리는, 회화 내용의 카테고리의 해석 처리와, 말투의 해석 처리에 의해 산출된 발생 빈도에 관한 수치를 조합함으로써, 대상이 되는 인간끼리의 인간 관계를 정량화하고, 이것을 직접적인 인간 관계로서 인간 관계 데이터베이스(15)에 기억한다. 여기서 말하는 「인간 관계」란, 전술한 바와 같이, 현재 또는 과거의 사회 생활에 있어서의 경험에 의해 정해지는, 특정 인간과 특정 인간 사이의 관계를 의미하며, 특별히 한정되지 않지만 본원 발명의 이해를 용이하게 하기 위해 그 일례를 들면, 부모ㆍ자녀ㆍ남편ㆍ아내 등의 가족, 사촌 형제ㆍ사촌 자매 등의 친척, 이들 가족이나 친척 그 밖의 관계, 회사나 학교 등의 조직에 있어서의 상사ㆍ부하ㆍ동료ㆍ동급생ㆍ선배ㆍ후배와 같은 조직 내의 지위의 관계, 취미나 오락의 동료, 보이 프렌드ㆍ걸 프렌드ㆍ연인 그 밖의 친구 및 타인 등으로 분류할 수 있다.
이와 같은 직접적인 인간 관계의 정량화는, 회화 내용의 카테고리의 해석 처리와, 말투의 해석 처리에 의해 산출된 발생 빈도에 관한 수치를 조합함으로써 행해진다. 특별히 한정되지 않지만, 예를 들어 회화 내용의 카테고리 해석 결과가 도 3c에 도시하는 바와 같이 「일」로 분류되는 회화 내용의 발생 빈도가 높고, 말투의 해석 결과가 도 3e의 좌우처럼, 한쪽 인간의 말투가 「보통」인 발생 빈도가 높고, 다른 쪽 인간의 말투가 「경어」인 발생 빈도가 높으므로, 회사 조직에 있어서의 상사와 부하의 관계일 확률이 70%라고 하는 식으로, 미리 인간 관계 데이터베이스(15)에 기억된 인간 관계 정량화 맵에 기초하여 확률값 등을 사용하여 정량화한다. 이 정량화된 직접적인 인간 관계는, 인간 관계 데이터베이스(15)에 축적된다.
간접적 인간 관계 추정부(14)는, 정량화된 직접적인 인간 관계에 기초하여, 인간 관계 데이터베이스(15)에 기억된 인간끼리 중, 해석되어 있지 않은 인간끼리의 간접적인 인간 관계를 추정하여 정량화한다. 상술한 직접적인 인간 관계는, 실제로 행해진 회화 음성 데이터에 기초하여 해석되어 정량화되기 때문에 「직접적인」 인간 관계라고 칭하지만, 이에 비해, 간접적 인간 관계 추정부(14)에서 추정되는 것은, 실제로는 회화한 적이 없는 인간끼리의 인간 관계의 정량화를, 정량화된 직접적인 인간 관계의 데이터에 기초하여 추정하는 것이다. 그 의미에서 「간접적인」 인간 관계라고 칭한다.
간접적 인간 관계 추정부(14)에서는, 직접적인 인간 관계의 판독 처리(도 4a의 스텝 S41), 직접적인 인간 관계의 통계 처리(도 4a의 스텝 S42), 미해석 인간의 조합 추출 처리(도 4a의 스텝 S43) 및 간접적인 인간 관계의 추정값의 산출 처리(도 4a의 스텝 S44)가 실행되고, 구해진 간접적인 인간 관계의 추정값은, 인간 관계 데이터베이스(15)에 축적된다(도 4a의 스텝 S45).
직접적인 인간 관계의 통계 처리는, 직접적 인간 관계 해석부(13)에 의해 정량화되고, 인간 관계 데이터베이스(15)에 축적된 값의 상호 관계를 고찰함으로써 산출된다. 구체적으로는, 인간 관계 데이터베이스(15)로부터, 직접적인 인간 관계의 값이 기지인 3명의 조합을 추출하고, 추출된 3명 사이의 세 인간 관계의 값 중, 두 값을 전제로 한 나머지 하나의 값을 기록한다. 이 처리를, 인간 관계 데이터베이스(15)에 축적된 다수의 조합에 대해 통계 처리함으로써, 두 인간 관계 V1, V2의 경우에 나머지 하나의 인간 관계 V3이 얻어지는 확률값 P(V3|V1, V2)을 산출할 수 있고, 이것을 인간 관계 데이터베이스(15)에 기록한다.
도 4b는, 도 4a의 스텝 S42의 직접적인 인간 관계의 해석값의 통계 처리를 설명하기 위한 인간 관계를 나타내는 도면, 도 4c는, 도 4a의 스텝 S42의 직접적인 인간 관계의 해석값의 통계 처리에 의해 얻어지는 결과의 일례를 나타내는 그래프이다. 도 4b에 도시하는 바와 같이, 인간 A와 인간 B 두 사람 간의 직접적인 인간 관계의 값 V1과, 인간 B와 인간 C 두 사람 간의 직접적인 인간 관계의 값 V2와, 인간 C와 인간 A 두 사람 간의 직접적인 인간 관계의 값 V3이, 복수의 3인간의 조합에 대해 이미 구해져, 인간 관계 데이터베이스(15)에 축적되어 있다고 하자. 이 때, 이들 복수의 데이터로부터, 인간 A와 인간 B의 직접적인 인간 관계의 값 V1과, 인간 B와 인간 C의 직접적인 인간 관계의 값 V2를 전제로 한 경우에, 나머지 인간 C와 인간 A의 직접적인 인간 관계의 값 V3은, 어떤 관계를 나타내는지를, 도 4c와 같이 발생 빈도로 해석한다. 예를 들어, 도 4c에 나타내는 예로 말하면, 인간 C와 인간 A의 직접적인 인간 관계의 값 V3은, 「회사 조직의 상사와 부하」일 확률이 가장 높다는 결과가 얻어진다. 이 발생 빈도를 확률 P(V3|V1, V2)로 산출한다. 이 확률은, 인간 C와 인간 A의 직접적인 인간 관계의 값 V3은, 인간 A와 인간 B의 직접적인 인간 관계의 값 V1과, 인간 B와 인간 C의 직접적인 인간 관계의 값 V2가 기지라면, 도 4c와 같이 통계적 확률에 의해 산출할 수 있음을 의미한다.
미해석 인간의 조합 추출 처리는, 상술한 바와 같이, 실제로는 직접 회화를 한 적이 없고, 따라서 직접적인 인간 관계의 정량화한 값 Vn이 인간 관계 데이터베이스(15)에 기억되어 있지 않은 인간 2명의 조합을 추출한다. 예를 들어, 도 4d에 도시하는 바와 같이, 인간 Z와 인간 X라 하자. 도 4d는, 도 4a의 스텝 S44의 간접적인 인간 관계의 추정값의 산출 처리를 설명하기 위한 인간 관계를 나타내는 도면이다. 여기에 더하여, 추출된 2명의 인간 Z, X 각각에 대해 직접적인 인간 관계가 정량화된 인간을 추정 중계자로서 1명 이상 추출한다. 도 4d에 나타내는 예로 말하면, 인간 Y를 추출한다. 인간 Y는, 인간 X의 직접적인 인간 관계의 값 V1이 기지이며, 인간 Z의 직접적인 인간 관계의 값 V2도 기지이다.
간접적인 인간 관계의 산출 처리에서는, 미해석 인간의 조합 추출 처리에 의해 추출된 2명의 인간 Z, X와, 추정 중계자의 사이의 직접적인 인간 관계의 값 V1, V2를 인간 관계 데이터베이스(15)로부터 참조한다. 그리고, 참조된 두 인간 관계의 값 V1, V2를 전제로 한 경우의 인간끼리의 인간 관계의 값 Vn을, 도 4a의 스텝 S42의 통계 처리에 의해 얻어진 확률값 V3을 최대로 하는 값을, 간접적인 인간 관계로서 산출한다. 또한, 복수의 추정 중계자가 추출된 경우에는, 확률값 V3의 곱, 또는 확률값 V3 중 최대 확률값을 나타내는 값의 다수결에 의해 결정해도 된다. 간접적인 인간 관계의 추정값으로서 산출된 값 Vn은, 인간 관계 데이터베이스(15)에 축적된다.
인간 관계 기억 유닛(1B)은, 인간 관계 데이터베이스(15)를 포함하고, 상술한 바와 같이, 인간 관계 데이터베이스(15)에는, 각 단말기 TD의 소유자의 ID에 관련된 성문 데이터, 도 3b에 나타내는 카테고리 사서, 도 3d에 나타내는 말투 사서, 직접적 인간 관계 해석부(13)의 직접적인 인간 관계의 정량화 처리에서 사용되는 인간 관계 정량화 맵, 직접적 인간 관계 해석부(13)에서 정량화된 직접적인 인간 관계, 간접적 인간 관계 추정부(14)에서 통계 처리된 두 인간 관계 V1, V2의 경우에 있어서의 나머지 하나의 인간 관계 V3의 확률값 P(V3|V1, V2), 간접적 인간 관계 추정부(14)에서 추정된 간접적인 인간 관계의 추정값 등이 기억된다.
차량 정보 학습 유닛(1D)은, 차량 정보 학습부(17)를 포함하고, 차량 정보 학습부(17)에서는, 탑승원 정보의 취득 처리(도 5의 스텝 S51), 인간 관계의 참조 처리(도 5의 스텝 S52), 차량 정보의 취득 처리(도 5의 스텝 S53) 및 결합 처리(도 5의 스텝 S54)가 실행되고, 구해진 인간 관계에 의한 조작 경향 정보는, 조작 경향 데이터베이스(18)에 축적된다(도 5의 스텝 S55).
탑승원 정보의 취득 처리는, 차량에 누가 승차하고 있는지를 취득하는 처리이다. 예를 들어, 단말기 TD를 차량에 탑재된 어느 기기에 접속함으로써 탑승원을 특정하거나, 단말기 TD의 위치 정보와 차량의 위치 정보가 근접하는 것을 검출함으로써 탑승원을 특정하거나, 차량에 탑재되어 있는 카메라로부터 취득되는 화상에 대한 얼굴 인식에 의해 탑승원을 특정하거나 할 수 있다. 인간 관계의 참조 처리는, 탑승원 정보 취득 처리에 의해 취득된 탑승원에 대해, 인간 관계 데이터베이스(15)를 참조하여, 그 탑승원끼리의 인간 관계의 값을 취득하는 처리이다.
차량 정보의 취득 처리는, 차량의 제어 정보, 차량의 상태 그 밖의 차량 정보를 취득하는 처리이며, 예를 들어 탑승원이 행하는 차량의 주행 조작(액셀러레이터 조작, 브레이크 조작, 트랜스미션 레버 조작, 핸들 조작 등), 내비게이션 장치에서 설정한 목적지, 오디오 장치의 조작, 카 에어컨의 조작, 차량의 현재 위치, 차량의 이동 궤적, 현재의 일시, 승차 후의 경과 시간 등의 차량 정보를 취득한다.
결합 처리는, 차량 정보의 취득 처리에 의해 취득된 차량 정보와, 인간 관계의 참조 처리를 결합하여, 인간 관계에 관한 조작 정보로서 조작 경향 데이터베이스(18)에 기억하는 처리이다. 예를 들어, 인간 A와 인간 B(직접적인 인간 관계 또는 간접적인 인간 관계가 V1)가 탑승하고 있는 경우에, 내비게이션 장치에서 설정한 목적지가 특정 낚시터인 경우에, 인간 관계 V1과 목적지를 그 발생 빈도와 함께 조작 경향 데이터베이스(18)에 기억한다. 또한, 인간 관계에 더하여 인간 A, B, C 등을 기억해도 된다.
조작 경향 기억 유닛(1E)은, 조작 경향 데이터베이스(18)를 포함하고, 차량 정보 학습부(17)에서 구해진 인간 관계와 조작 정보를 관련지어 축적한다.
지원 정보 결정 유닛(1C)은, 지원 정보 결정부(16)를 포함하고, 차량에 탑승한 복수의 탑승원을 특정하고, 인간 관계 데이터베이스(15)에 축적된 직접적인 인간 관계 및 간접적인 인간 관계에 기초하여, 복수의 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 결정한다. 지원 정보 결정부(16)에서는, 탑승원 정보의 취득 처리(도 6의 스텝 S61), 인간 관계의 참조 처리(도 6의 스텝 S62), 차량 정보의 취득 처리(도 6의 스텝 S63), 조작 경향 정보의 참조 처리(도 6의 스텝 S64) 및 지원 정보의 결정ㆍ출력 처리(도 6의 스텝 S65)가 실행된다.
탑승원 정보의 취득 처리는, 차량 정보 학습부(17)의 탑승원 정보의 취득 처리(도 5의 스텝 S51)와 마찬가지의 처리, 즉 차량에 누가 승차하고 있는지를 취득하는 처리이다. 예를 들어, 단말기 TD를 차량에 탑재된 어느 기기에 접속함으로써 탑승원을 특정하거나, 단말기 TD의 위치 정보와 차량의 위치 정보가 근접하는 것을 검출함으로써 탑승원을 특정하거나, 차량에 탑재되어 있는 카메라로부터 취득되는 화상 대한 얼굴 인식을 따라 탑승원을 특정하거나 할 수 있다. 인간 관계의 참조 처리는, 차량 정보 학습부(17)의 인간 관계 참조 처리(도 5의 스텝 S52)과 마찬가지의 처리, 즉 탑승원 정보 취득 처리에 의해 취득된 탑승원에 대해, 인간 관계 데이터베이스(15)를 참조하여, 그 탑승원끼리의 인간 관계의 값을 취득하는 처리이다.
차량 정보의 취득 처리는, 차량 정보 학습부(17)의 차량 정보의 취득 처리(도 5의 스텝 S53)와 마찬가지의 처리, 즉 차량의 제어 정보, 차량의 상태 그 밖의 차량 정보를 취득하는 처리이며, 예를 들어 탑승원이 행하는 차량의 주행 조작(액셀러레이터 조작, 브레이크 조작, 트랜스미션 레버 조작, 핸들 조작 등), 내비게이션 장치에서 설정한 목적지, 오디오 장치의 조작, 카 에어컨의 조작, 차량의 현재 위치, 차량의 이동 궤적, 현재의 일시, 승차 후의 경과 시간 등의 차량 정보를 취득한다.
조작 경향의 참조 처리는, 차량 정보 학습부(17)에 의해 축적된 조작 경향 데이터베이스(18)로부터, 탑승원의 인간 관계의 값이 유사하거나, 또는 탑승원의 인간 관계의 값과 현재까지의 차량 정보가 유사한 경우의, 그 후에 행한 조작 정보를 취득하는 처리이다. 예를 들어, 인간 A와 인간 B(직접적인 인간 관계 또는 간접적인 인간 관계가 V1)가 탑승하고 있는 경우에, 내비게이션 장치에서 설정한 목적지가 특정 낚시터라는 조작 경향 정보가 조작 경향 데이터베이스(18)에 축적되어 있는 경우에, 인간 관계가 V1 또는 이와 유사한 값일 때에는, 내비게이션 장치의 목적지를 특정 낚시터로 설정한다고 하는 조작 경향 정보를 참조한다.
지원 정보의 결정ㆍ출력 처리는, 복수의 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 결정한다. 「탑승원 구성에 적합한 권장 정보」란, 전술한 바와 같이, 탑승원이 행하는 차량의 조작상, 탑승원의 인간 관계로부터 생각되는, 가능성 높거나 또는 바람직한 조작을 실현하기 위한 차량 또는 차량 탑재 장치에 대한 지시 정보이다. 일례를 들면, 탑승원을 구성하는 탑승원 A와 탑승원 B가, 낚시 친구라는 인간 관계에 있는 경우의 권장 정보로서는, 차량 탑재 내비게이션 장치의 목적지의 설정 조작에 대한 지시 정보나, 오디오 장치의 선국 조작에 대한 지시 정보 등을 예시할 수 있다. 또한, 차량 조작의 「지원」에는, 탑승원이 수동 조작할 때 그 선택지를 탑승원에게 디스플레이나 스피커 등을 사용하여 제시하는 것 외에, 탑승원이 수동 조작하지 않고 차량용 조작 지원 장치(1)가 자동적으로 조작하는 것도 포함된다.
다음으로 본 실시 형태의 정보 처리의 흐름에 대해 설명한다.
우선은 일상적으로, 탑승원이 될 수 있는 복수의 인간이 소지하는 단말기 TD1, TD2, TD3과, 인간 관계 해석 유닛(1A)을 사용하여, 특정 인간과 특정 인간 사이의 인간 관계를 해석하고, 이것을 정량화하여 인간 관계 데이터베이스(15)에 축적한다. 구체적으로는, 도 2a에 도시하는 바와 같이, 음성 취득부(11)는, 인터넷 등의 무선 통신 회선망을 통하여, 복수의 단말기 TD와 정보의 송수신을 실행하고, 특히 각 단말기 TD의, ID와 현재 위치와 수음한 회화 음성 데이터를 입력한다(도 2a의 스텝 S21). 이어서, 스텝 S22에서, 회화 그룹 추정부(12)는, 음성 취득부(11)에 입력된 각 단말기 TD의, ID와 현재 위치와 수음한 회화 음성 데이터에 기초하여, 어느 특정 단말기 TD에 입력된 회화 음성 데이터에 관한 것이며, 누구와 누구가 회화하고 있는지, 회화하고 있는 인간의 그룹(집단)을 추정한다. 이 때, 회화 그룹 추정부(12)는, 음성 취득부(11)에 입력된 각 단말기 TD의, ID와 현재 위치와 수음한 회화 음성 데이터에 기초하여, 단말기 TD에 의해 동 시각에 집음된 복수의 회화 음성 데이터에 대해, 집음된 위치 정보가 임계값 이상으로 접근하고 있는 조합을 추출함으로써, 단말기 TD의 위치 정보에 기초하는 가상의 회화 그룹의 추정을 실행한다.
다음으로, 도 2a의 스텝 S23에서는, 회화 그룹 추정부(12)는, 스텝 S22에 있어서의 위치 정보에 의한 조합 추출 처리에 의해 추출된, 동일 그룹에 속한다고 추정된 하나 이상의 회화 음성 데이터에 대해, 발화된 기간의 중복률 또는 중복 시간이, 소정의 임계값 이하인 회화 음성 데이터끼리를 추출하고, 이들이 실제로 회화를 행하고 있는 회화 그룹이라고 추정한다. 그리고, 스텝 S24에서, 회화 그룹 추정부(12)는, 이와 같이 추정한 동일한 회화 그룹의 회화 음성 데이터를 특정하고, 단말기 TD1, TD2의 ID와 함께 직접적 인간 관계 해석부(13)로 출력한다.
이어서, 도 3a에 도시하는 바와 같이, 직접적 인간 관계 해석부(13)는, 스텝 S31 내지 S36에서, 취득한 동일 그룹의 회화 음성 데이터를, 특정한 발화자별로 분석하여 소정의 키워드를 추출하고, 발화자별 키워드에 기초하여 당해 발화자별 말투를 특정하고, 복수의 인간의 회화 음성 데이터에 기초하여 회화 내용을 특정하고, 특정한 말투와, 특정한 회화 내용으로부터, 복수의 인간끼리의 직접적인 인간 관계를 해석하고, 정량화하여 구한다. 이 정량화된 직접적인 인간 관계는, 스텝 S36에서, 인간 관계 데이터베이스(15)에 축적된다.
스텝 S36까지의 처리에 의해, 인간 관계 데이터베이스(15)에는, 실제로 회화를 행한 인간끼리의 인간 관계의 정량화된 값이 축적되지만, 해석되어 있지 않은 인간끼리의 인간 관계도 존재한다. 그 때문에, 간접적 인간 관계 추정부(14)는, 도 4a의 스텝 S41에서 직접적인 인간 관계의 판독 처리를 실행하고, 스텝 S42에서 직접적인 인간 관계의 통계 처리를 실행하고, 스텝 S43에서 미해석 인간의 조합 추출 처리를 실행하고, 스텝 S44에서 간접적인 인간 관계의 추정값의 산출 처리를 실행하고, 스텝 S45에서, 구해진 간접적인 인간 관계의 추정값을 인간 관계 데이터베이스(15)에 축적한다.
한편, 차량 정보 학습 유닛(1D)은, 인간 관계를 포함하는 탑승원 구성에 의해 어떠한 차량의 조작이 실제로 행해지는지의 정보를 축적하여, 차량 조작의 지원 정보를 결정하는 데 제공한다. 즉, 도 5에 도시하는 바와 같이, 차량 정보 학습부(17)는, 스텝 S51에서 탑승원 정보의 취득 처리를 실행하고, 스텝 S52에서 인간 관계 데이터베이스(15)에 축적된 인간 관계의 참조 처리를 실행하고, 스텝 S53에서 차량 정보의 취득 처리를 실행하고, 스텝 S54에서 결합 처리를 실행하고, 스텝 S55에서, 구해진 인간 관계에 의한 조작 경향 정보를 조작 경향 데이터베이스(18)에 축적한다.
이어서, 지원 정보 결정 유닛(1C)은, 차량에 탑승한 복수의 탑승원을 특정하고, 인간 관계 데이터베이스(15)에 축적된 직접적인 인간 관계 및 간접적인 인간 관계에 기초하여, 복수의 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 결정한다. 구체적으로는, 지원 정보 결정부(16)는, 도 6의 스텝 S61에서 탑승원 정보의 취득 처리를 실행하고, 스텝 S62에서 인간 관계의 참조 처리를 실행하고, 스텝 S63에서 차량 정보의 취득 처리를 실행하고, 스텝 S64에서 조작 경향 정보의 참조 처리를 실행하고, 스텝 S65에서 지원 정보의 결정ㆍ출력 처리를 실행한다.
이상과 같이, 본 실시 형태의 차량용 조작 지원 장치(1)에 의하면, 탑승원이 될 수 있는 복수의 인간의 상기 직접적인 인간 관계를 미리 축적해 두고, 차량에 복수의 인간이 탑승하면, 탑승한 복수의 탑승원을 특정하고, 인간 관계 데이터베이스(15)에 축적된 직접적인 인간 관계 및 간접적인 인간 관계에 기초하여, 복수의 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 결정하므로, 탑승하고 나서 단시간에 적절한 차량 조작의 지원 정보를 제공할 수 있다.
또한, 본 실시 형태의 차량용 조작 지원 장치(1)에 의하면, 실제로 회화한 인간끼리의 인간 관계로부터, 실제로는 회화하고 있지 않은 인간끼리의 인간 관계를 정량화하여 추정하므로, 탑승원의 조합에 의해 차량 조작의 지원 정보가 누락된다는 에러를 회피할 수 있다. 또한, 이 간접적인 인간 관계의 추정 시에는, 실제로 회화를 행한 인간끼리의 직접적인 인간 관계의 데이터를 통계 처리하여 구하므로, 그 정확성을 높일 수 있다.
또한, 본 실시 형태의 차량용 조작 지원 장치(1)에 의하면, 실제로 행해진 차량 조작을 그때의 인간 관계와 관련지어 기억하고, 이것을 차량 조작의 지원 정보에 반영하므로, 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 보다 현실적인 조작에 접근시킬 수 있다.
또한, 본 실시 형태의 차량용 조작 지원 장치(1)에 의하면, 동일한 회화 그룹을 추출하는 데, 복수의 회화 음성 데이터 중 발화 위치가 소정 거리 이하인 회화 음성 데이터군의 발화자를 회화 그룹으로 하므로, 회화 그룹의 특정, 나아가 인간 관계의 해석의 정밀도가 향상된다.
또한, 본 실시 형태의 차량용 조작 지원 장치(1)에 의하면, 동일한 회화 그룹을 추출하는 데, 복수의 회화 음성 데이터 중 발화 기간이 소정 시간 이상 중복되지 않는 회화 음성 데이터군의 발화자를 회화 그룹으로서 추정하므로, 회화 그룹의 특정, 나아가 인간 관계의 해석의 정밀도가 향상된다.
또한, 본 실시 형태의 차량용 조작 지원 장치(1)에 의하면, 인간이 차량에 탑승하는 경우 이외에도 수음 가능한 단말기를 사용하여, 탑승원이 될 수 있는 복수의 인간의 회화 음성 데이터를 검출하므로, 일상적으로 복수의 인간의 회화 음성 데이터를 수음할 수 있다.
또한, 상술한 차량용 조작 지원 장치(1)에서는, 인간 관계 해석 유닛(1A)에 간접적 인간 관계 추정부(14)를 포함하도록 구성하였지만, 필요에 따라 이것을 생략해도 된다. 또한, 상술한 차량용 조작 지원 장치(1)에서는, 차량 정보 학습 유닛(1D) 및 조작 경향 기억 유닛(1E)을 포함하도록 구성하고, 도 6의 스텝 S64 내지 S65에서 조작 경향 정보도 사용하여 차량 조작의 지원 정보를 결정하였지만, 필요에 따라 차량 정보 학습 유닛(1D) 및 조작 경향 기억 유닛(1E)을 생략하고, 인간 관계 데이터베이스(15)에 축적된 인간 관계만에 의해 차량 조작의 지원 정보를 결정해도 된다.
상기 음성 취득부(11), 상기 회화 그룹 추정부(12), 직접적 인간 관계 해석부(13) 및 간접적 인간 관계 추정부(14)는, 본 발명에 관한 인간 관계 해석 유닛에 상당하고, 상기 인간 관계 데이터베이스(15)는, 본 발명에 관한 인간 관계 기억 유닛에 상당하고, 상기 지원 정보 결정부(16)는, 본 발명에 관한 지원 정보 결정 유닛에 상당하고, 상기 차량 정보 학습부(17)는, 본 발명에 관한 차량 정보 학습 유닛에 상당하고, 상기 조작 경향 데이터베이스(18)는, 본 발명에 관한 조작 경향 기억 유닛에 상당한다.
1: 차량용 조작 지원 장치
1A: 인간 관계 해석 유닛
11: 음성 취득부
12: 회화 그룹 추정부
13: 직접적 인간 관계 해석부
14: 간접적 인간 관계 추정부
1B: 인간 관계 기억 유닛
15: 인간 관계 데이터베이스
1C: 지원 정보 결정 유닛
16: 지원 정보 결정부
1D: 차량 정보 학습 유닛
17: 차량 정보 학습부
1E: 조작 경향 기억 유닛
18: 조작 경향 데이터베이스
TD1, TD2, TD3: 단말기
VH1, VH2: 차량
A, B, C, X, Y, Z: 인간(탑승원)
V1, V2, V3: 인간 관계의 해석값
1A: 인간 관계 해석 유닛
11: 음성 취득부
12: 회화 그룹 추정부
13: 직접적 인간 관계 해석부
14: 간접적 인간 관계 추정부
1B: 인간 관계 기억 유닛
15: 인간 관계 데이터베이스
1C: 지원 정보 결정 유닛
16: 지원 정보 결정부
1D: 차량 정보 학습 유닛
17: 차량 정보 학습부
1E: 조작 경향 기억 유닛
18: 조작 경향 데이터베이스
TD1, TD2, TD3: 단말기
VH1, VH2: 차량
A, B, C, X, Y, Z: 인간(탑승원)
V1, V2, V3: 인간 관계의 해석값
Claims (7)
- 인간 관계 해석 유닛과, 인간 관계 기억 유닛과, 지원 정보 결정 유닛을 구비하고, 인간 관계를 포함하는 탑승원 구성에 적합한 권장 정보를 구하여, 탑승원이 행하는 차량 조작의 지원에 제공하는 차량용 조작 지원 장치에 있어서,
상기 인간 관계 해석 유닛은,
상기 탑승원이 될 수 있는 복수의 인간의 회화 음성 데이터를 취득하여 발화자를 특정하고,
취득한 회화 음성 데이터를, 특정한 발화자별로 분석하여 소정의 키워드를 추출하고,
발화자별 상기 키워드에 기초하여 당해 발화자별 말투를 특정하고,
상기 복수의 인간의 회화 음성 데이터에 기초하여 회화 내용을 특정하고,
특정한 말투와, 특정한 회화 내용으로부터, 상기 복수의 인간끼리의 직접적인 인간 관계를 해석하여 정량화하고,
상기 인간 관계 기억 유닛은, 상기 탑승원이 될 수 있는 복수의 인간의 상기 직접적인 인간 관계를 미리 축적하고,
상기 지원 정보 결정 유닛은, 차량에 탑승한 복수의 탑승원을 특정하고, 상기 인간 관계 기억 유닛에 축적된 상기 직접적인 인간 관계에 기초하여, 상기 복수의 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 결정하는, 차량용 조작 지원 장치. - 제1항에 있어서, 상기 인간 관계 해석 유닛은, 정량화된 상기 직접적인 인간 관계에 기초하여, 상기 인간 관계 기억 유닛에 기억된 인간끼리 중, 해석되어 있지 않은 인간끼리의 간접적인 인간 관계를 추정하여 정량화하고,
상기 인간 관계 기억 유닛은, 상기 간접적인 인간 관계도 축적하고,
상기 지원 정보 결정 유닛은, 상기 인간 관계 기억 유닛에 축적된 상기 직접적인 인간 관계 및 상기 간접적인 인간 관계에 기초하여, 상기 복수의 탑승원끼리의 인간 관계에 따라 권장되도록 정해진 차량 조작의 지원 정보를 결정하는, 차량용 조작 지원 장치. - 제2항에 있어서, 상기 인간 관계 해석 유닛은, 정량화된 상기 직접적인 인간 관계에 기초하여, 상기 인간 관계 기억 유닛에 기억된 인간끼리 중, 해석되어 있지 않은 인간끼리의 간접적인 인간 관계를 추정하여 정량화하는 경우,
이미 정량화된 제1 인간과 제2 인간의 직접적인 인간 관계 V1과, 이미 정량화된 상기 제2 인간과 제3 인간의 직접적인 인간 관계 V2와, 이미 정량화된 상기 제3 인간과 상기 제1 인간의 직접적인 인간 관계 V3을 사용하여 복수의 인간 관계 V1, V2, V3의 관계를 통계 처리하고,
해석되어 있지 않은 인간 관계 V3'를, 이미 정량화된 나머지 인간 관계 V1, V2와 상기 통계 처리된 인간 관계 V1, V2, V3의 관계로부터 추정하는, 차량용 조작 지원 장치. - 제1항 내지 제3항 중 어느 한 항에 있어서, 차량 정보 학습 유닛과, 조작 경향 기억 유닛을 추가로 구비하고,
상기 차량 정보 학습 유닛은,
차량에 탑승한 복수의 탑승원을 특정하고,
상기 인간 관계 기억 유닛으로부터 상기 복수의 탑승원에 관한 인간 관계를 추출하고,
상기 차량의 조작에 관한 조작 정보를 검출하고,
추출된 인간 관계와 검출된 조작 정보를 관련짓고,
상기 조작 경향 기억 유닛은, 상기 관련된 인간 관계 및 조작 정보를 축적하고,
상기 지원 정보 결정 유닛은, 상기 조작 경향 기억 유닛에 축적된 인간 관계에 관련된 조작 정보를, 상기 권장되도록 정해진 차량 조작의 지원 정보로서 결정하는, 차량용 조작 지원 장치. - 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 인간 관계 해석 유닛은, 복수의 인간의 회화 음성 데이터를 취득하여 발화자를 특정하는 경우에,
복수의 회화 음성 데이터의 발화 위치를 검출하고,
복수의 회화 음성 데이터 중 상기 발화 위치가 소정 거리 이하인 회화 음성 데이터군을 추출하고, 이들 회화 음성 데이터군의 발화자를 회화 그룹으로 하여, 당해 회화 그룹에 속하는 발화자를 특정하는, 차량용 조작 지원 장치. - 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 인간 관계 해석 유닛은, 복수의 인간의 회화 음성 데이터를 취득하여 발화자를 특정하는 경우에,
복수의 회화 음성 데이터의 발화 기간을 검출하고,
복수의 회화 음성 데이터 중 상기 발화 기간이 소정 시간 이상 중복되지 않는 회화 음성 데이터군을 추출하고, 이들 회화 음성 데이터군의 발화자를 회화 그룹으로서 추정하고, 당해 회화 그룹에 속하는 발화자를 특정하는, 차량용 조작 지원 장치. - 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 탑승원이 될 수 있는 복수의 인간의 회화 음성 데이터는, 상기 인간이 차량에 탑승하는 경우 이외에도 수음 가능한 단말기에 의해 검출하고,
검출한 회화 음성 데이터를 상기 인간 관계 해석 유닛에 송신하는 차량용 조작 지원 장치.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/041460 WO2019097674A1 (ja) | 2017-11-17 | 2017-11-17 | 車両用操作支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200074168A true KR20200074168A (ko) | 2020-06-24 |
Family
ID=66538941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207014105A KR20200074168A (ko) | 2017-11-17 | 2017-11-17 | 차량용 조작 지원 장치 및 조작 지원 방법 |
Country Status (10)
Country | Link |
---|---|
US (1) | US20210174790A1 (ko) |
EP (1) | EP3712887B1 (ko) |
JP (1) | JP7024799B2 (ko) |
KR (1) | KR20200074168A (ko) |
CN (1) | CN111801667B (ko) |
BR (1) | BR112020009783A2 (ko) |
CA (1) | CA3084696C (ko) |
MX (1) | MX2020004484A (ko) |
RU (1) | RU2768509C2 (ko) |
WO (1) | WO2019097674A1 (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020240730A1 (ja) * | 2019-05-29 | 2020-12-03 | 三菱電機株式会社 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
KR102249784B1 (ko) * | 2020-01-06 | 2021-05-10 | 주식회사 파우미 | 소형 용기의 내부 코팅용 상방향 노즐 |
WO2022244178A1 (ja) * | 2021-05-20 | 2022-11-24 | 三菱電機株式会社 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
CN115376522B (zh) * | 2021-05-21 | 2024-10-01 | 佛山市顺德区美的电子科技有限公司 | 空调器的声纹控制方法、空调器及可读存储介质 |
CN115878070B (zh) * | 2023-03-01 | 2023-06-02 | 上海励驰半导体有限公司 | 一种车载音频播放方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012133530A (ja) | 2010-12-21 | 2012-07-12 | Denso Corp | 車載装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2229398C1 (ru) * | 2003-09-12 | 2004-05-27 | Общество с ограниченной ответственностью "Альтоника" | Охранно-навигационная система для транспортного средства |
JP4311322B2 (ja) * | 2004-09-28 | 2009-08-12 | ソニー株式会社 | 視聴コンテンツ提供システム及び視聴コンテンツ提供方法 |
JP4670438B2 (ja) * | 2005-04-01 | 2011-04-13 | ソニー株式会社 | コンテンツおよびそのプレイリストの提供方法 |
JP4669041B2 (ja) * | 2006-02-28 | 2011-04-13 | パナソニック株式会社 | ウェアラブル端末 |
US20100042498A1 (en) * | 2008-08-15 | 2010-02-18 | Atx Group, Inc. | Criteria-Based Audio Messaging in Vehicles |
JP4524763B2 (ja) | 2008-03-25 | 2010-08-18 | 株式会社デンソー | 自動車用情報提供システム |
JP2010190743A (ja) * | 2009-02-18 | 2010-09-02 | Equos Research Co Ltd | ナビゲーションシステム及びナビゲーション装置 |
JP2011081763A (ja) * | 2009-09-09 | 2011-04-21 | Sony Corp | 情報処理装置、情報処理方法及び情報処理プログラム |
WO2011064938A1 (ja) * | 2009-11-25 | 2011-06-03 | 日本電気株式会社 | 音声データ解析装置、音声データ解析方法及び音声データ解析用プログラム |
US11070661B2 (en) * | 2010-09-21 | 2021-07-20 | Cellepathy Inc. | Restricting mobile device usage |
EP2624252B1 (en) * | 2010-09-28 | 2015-03-18 | Panasonic Corporation | Speech processing device and speech processing method |
US8775059B2 (en) * | 2011-10-26 | 2014-07-08 | Right There Ware LLC | Method and system for fleet navigation, dispatching and multi-vehicle, multi-destination routing |
US9008906B2 (en) * | 2011-11-16 | 2015-04-14 | Flextronics Ap, Llc | Occupant sharing of displayed content in vehicles |
JP2013182560A (ja) | 2012-03-05 | 2013-09-12 | Nomura Research Institute Ltd | 人間関係推定システム |
US10169464B2 (en) * | 2012-05-14 | 2019-01-01 | Ramesh Sivarajan | System and method for a bidirectional search engine and its applications |
US20150193888A1 (en) * | 2014-01-06 | 2015-07-09 | Linkedln Corporation | Techniques for determining relationship information |
CN105701123B (zh) * | 2014-11-27 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 人车关系的识别方法及装置 |
JP6607198B2 (ja) | 2015-01-30 | 2019-11-20 | ソニー株式会社 | 情報処理システムおよび制御方法 |
CN104933201A (zh) * | 2015-07-15 | 2015-09-23 | 蔡宏铭 | 基于同行信息的内容推荐方法及系统 |
JP2017009826A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | グループ状態判定装置およびグループ状態判定方法 |
US11170451B2 (en) * | 2015-10-02 | 2021-11-09 | Not So Forgetful, LLC | Apparatus and method for providing gift recommendations and social engagement reminders, storing personal information, and facilitating gift and social engagement recommendations for calendar-based social engagements through an interconnected social network |
US10298690B2 (en) * | 2017-01-10 | 2019-05-21 | International Business Machines Corporation | Method of proactive object transferring management |
-
2017
- 2017-11-17 RU RU2020117547A patent/RU2768509C2/ru active
- 2017-11-17 US US16/764,705 patent/US20210174790A1/en not_active Abandoned
- 2017-11-17 EP EP17932260.7A patent/EP3712887B1/en active Active
- 2017-11-17 JP JP2019554145A patent/JP7024799B2/ja active Active
- 2017-11-17 MX MX2020004484A patent/MX2020004484A/es unknown
- 2017-11-17 WO PCT/JP2017/041460 patent/WO2019097674A1/ja unknown
- 2017-11-17 CN CN201780096439.0A patent/CN111801667B/zh active Active
- 2017-11-17 CA CA3084696A patent/CA3084696C/en active Active
- 2017-11-17 BR BR112020009783-7A patent/BR112020009783A2/pt not_active Application Discontinuation
- 2017-11-17 KR KR1020207014105A patent/KR20200074168A/ko not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012133530A (ja) | 2010-12-21 | 2012-07-12 | Denso Corp | 車載装置 |
Also Published As
Publication number | Publication date |
---|---|
BR112020009783A2 (pt) | 2020-11-03 |
WO2019097674A1 (ja) | 2019-05-23 |
EP3712887B1 (en) | 2021-09-29 |
CA3084696A1 (en) | 2019-05-23 |
EP3712887A4 (en) | 2021-03-10 |
RU2020117547A (ru) | 2021-12-17 |
EP3712887A1 (en) | 2020-09-23 |
RU2768509C2 (ru) | 2022-03-24 |
CA3084696C (en) | 2023-06-13 |
RU2020117547A3 (ko) | 2021-12-17 |
US20210174790A1 (en) | 2021-06-10 |
MX2020004484A (es) | 2020-08-03 |
JPWO2019097674A1 (ja) | 2020-12-03 |
CN111801667A (zh) | 2020-10-20 |
JP7024799B2 (ja) | 2022-02-24 |
CN111801667B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200074168A (ko) | 차량용 조작 지원 장치 및 조작 지원 방법 | |
CN110660397B (zh) | 对话系统、车辆和用于控制车辆的方法 | |
JP6382273B2 (ja) | 施設満足度算出装置 | |
US20150120336A1 (en) | Systems and methods for collecting and transmitting telematics data from a mobile device | |
JP6466385B2 (ja) | サービス提供装置、サービス提供方法およびサービス提供プログラム | |
JP2019191828A (ja) | 情報提供システムおよび情報提供方法 | |
CN106816149A (zh) | 车辆自动语音识别系统的优先化内容加载 | |
DE102018125966A1 (de) | System und verfahren zur erfassung von stichworten in einer unterhaltung | |
CN108447488A (zh) | 增强语音识别任务完成 | |
CN112086098B (zh) | 一种驾乘人员分析方法、装置及计算机可读存储介质 | |
JP2010217318A (ja) | 同乗者検索装置および同乗者検索プログラム | |
JP2019009498A (ja) | 情報出力システム、情報出力方法、及びプログラム | |
US20200191583A1 (en) | Matching method, matching server, matching system, and storage medium | |
DE102016217026A1 (de) | Sprachsteuerung eines Kraftfahrzeugs | |
CN113592262B (zh) | 一种用于网约车的安全监控方法及系统 | |
JP6785889B2 (ja) | サービス提供装置 | |
US20220036381A1 (en) | Data disclosure device, data disclosure method, and program | |
JP6884605B2 (ja) | 判定装置 | |
JP2019105966A (ja) | 情報処理方法及び情報処理装置 | |
CN114690896A (zh) | 信息处理装置、信息处理方法及存储介质 | |
JP6739017B1 (ja) | 観光支援装置、該装置が搭載されたロボット、観光支援システム、及び観光支援方法 | |
JP2023044890A (ja) | マッチングシステム及びマッチング方法 | |
WO2021144600A1 (ja) | 情報処理装置及び情報処理方法 | |
WO2022264391A1 (ja) | サーバ装置、システム、サーバ装置の制御方法及び記憶媒体 | |
JP2022103504A (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |